Публикация:Вапник 1979 Восстановление зависимостей

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
м
м
 
(18 промежуточных версий не показаны.)
Строка 1: Строка 1:
-
{{Монография
+
<includeonly>{{Монография|PageName = П:Вапник 1979 Восстановление зависимостей
|автор = Вапник В. Н.
|автор = Вапник В. Н.
|название = Восстановление зависимостей по эмпирическим данным
|название = Восстановление зависимостей по эмпирическим данным
|издатель = М.:&nbsp;Наука
|издатель = М.:&nbsp;Наука
-
|год = 1979,
+
|год = 1979
-
|BibtexKey = vapnik79vosstanovlenie
+
|страниц = 448
-
|PageName = {{PAGENAME}}
+
}}</includeonly><noinclude>{{Монография|BibtexKey = vapnik79vosstanovlenie
 +
|автор = Вапник, В. Н.
 +
|название = Восстановление зависимостей по эмпирическим данным
 +
|издатель = М.:&nbsp;Наука
 +
|год = 1979
 +
|страниц = 448
}}
}}
-
<noinclude>
 
== Аннотация ==
== Аннотация ==
-
Основополагающая монография по статистической [[Теория Вапника-Червоненкиса|теории восстановления зависимостей]] по эмпирическим данным.
+
Основополагающая монография по статистической [[Теория Вапника-Червоненкиса|теории восстановления зависимостей]].
 +
Рассматриваются задачи [[классификация|классификации]], [[регрессионный анализ|восстановления регрессии]] и интерпретации результатов косвенных экспериментов.
 +
 
 +
Вводятся понятия [[функция роста|функции роста]], [[энтропия|энтропии]] и [[размерность Вапника-Червоненкиса|ёмкости]] системы событий.
 +
Доказывается, что ёмкость семейства [[Линейный классификатор|линейных решающих правил]] равна числу свободных параметров.
 +
 
 +
Выводятся оценки скорости равномерной сходимости частоты ошибок к их вероятности, позволяющие обосновать метод [[Минимизация эмпирического риска|минимизации эмпирического риска]].
 +
Эти оценки нетривиальны только в том случае, когда ёмкость семейства алгоритмов много меньше длины [[обучающая выборка|обучающей выборки]].
 +
{{S|В доказательствах}} используется комбинаторная техника, основанная на оценивании разности частот в двух подвыборках одинаковой длины.
 +
 
 +
Выводятся необходимые и достаточные условия равномерной сходимости частот появления событий к их вероятностям; доказывается, что частота сходится к вероятности равномерно по системе событий тогда и только тогда, когда доля энтропии, приходящейся на один элемент выборки, стремится к нулю с ростом длины выборки.
 +
 
 +
Предлагается метод упорядоченной минимизации суммарного риска, предназначенный для выбора модели алгоритмов оптимальной сложности.
 +
Новый метод, в отличие от ранее предложенного метода [[Структурная минимизация риска|структурной минимизации риска]], оценивает качество восстановления зависимости в конечном множестве точек, а не на всем пространстве, поэтому обладает более высокой точностью.
 +
 
 +
Описывается ряд алгоритмов распознавания образов, восстановления регрессии, [[Селекция выборки|селекции выборки]].
 +
 
== Ссылки ==
== Ссылки ==
-
[[Категория: Теория вычислительного обучения (публикации)]]
+
* [http://www.clrc.rhul.ac.uk/people/vlad В. Н. Вапник] — домашняя страница
 +
* [http://www.clrc.rhul.ac.uk/people/chervonenkis А. Я. Червоненкис] — домашняя страница
 +
* [http://www.ipu.ru/s_001/s_001_003_009_00000000000.htm Выдающиеся ученые ИПУ РАН] страница на сайте Института проблем управления РАН
 +
 
 +
== Литература ==
 +
# {{П:Вапник 74}}
 +
 
 +
[[Категория: Теория вычислительного обучения (публикации)|Вапник]]
</noinclude>
</noinclude>

Текущая версия

Вапник, В. Н. Восстановление зависимостей по эмпирическим данным. — М.: Наука, 1979. — 448 с.

BibTeX:
 @book{vapnik79vosstanovlenie,
   author = "Вапник, В. Н.",
   title = "Восстановление зависимостей по эмпирическим данным",
   publisher = "М.: Наука",
   year = "1979",
   numpages = "448",
   language = russian
 }

Аннотация

Основополагающая монография по статистической теории восстановления зависимостей. Рассматриваются задачи классификации, восстановления регрессии и интерпретации результатов косвенных экспериментов.

Вводятся понятия функции роста, энтропии и ёмкости системы событий. Доказывается, что ёмкость семейства линейных решающих правил равна числу свободных параметров.

Выводятся оценки скорости равномерной сходимости частоты ошибок к их вероятности, позволяющие обосновать метод минимизации эмпирического риска. Эти оценки нетривиальны только в том случае, когда ёмкость семейства алгоритмов много меньше длины обучающей выборки. В доказательствах используется комбинаторная техника, основанная на оценивании разности частот в двух подвыборках одинаковой длины.

Выводятся необходимые и достаточные условия равномерной сходимости частот появления событий к их вероятностям; доказывается, что частота сходится к вероятности равномерно по системе событий тогда и только тогда, когда доля энтропии, приходящейся на один элемент выборки, стремится к нулю с ростом длины выборки.

Предлагается метод упорядоченной минимизации суммарного риска, предназначенный для выбора модели алгоритмов оптимальной сложности. Новый метод, в отличие от ранее предложенного метода структурной минимизации риска, оценивает качество восстановления зависимости в конечном множестве точек, а не на всем пространстве, поэтому обладает более высокой точностью.

Описывается ряд алгоритмов распознавания образов, восстановления регрессии, селекции выборки.

Ссылки

Литература

  1. Вапник В. Н., Червоненкис А. Я. Теория распознавания образов. — М.: Наука, 1974. — 416 с.  (подробнее)
Личные инструменты