Публикация:Вапник 1979 Восстановление зависимостей

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
м
Строка 33: Строка 33:
== Ссылки ==
== Ссылки ==
 +
* [http://www.clrc.rhul.ac.uk/people/vlad В. Н. Вапник] — домашняя страница
 +
* [http://www.clrc.rhul.ac.uk/people/chervonenkis А. Я. Червоненкис] — домашняя страница
 +
* [http://www.ipu.ru/s_001/s_001_003_009_00000000000.htm Выдающиеся ученые ИПУ РАН] страница на сайте Института проблем управления РАН
 +
 +
== Литература ==
 +
# {{Публикация:Вапник 74}}
 +
[[Категория: Теория вычислительного обучения (публикации)]]
[[Категория: Теория вычислительного обучения (публикации)]]
</noinclude>
</noinclude>

Версия 17:25, 17 мая 2008

Вапник В. Н. Восстановление зависимостей по эмпирическим данным. — М.: Наука, 1979. — 448 с.

BibTeX:
 @book{vapnik79vosstanovlenie,
   author = "Вапник В. Н.",
   title = "Восстановление зависимостей по эмпирическим данным",
   publisher = "М.: Наука",
   year = "1979",
   numpages = "448",
   language = russian
 }

Аннотация

Основополагающая монография по статистической теории восстановления зависимостей. Рассматриваются задачи классификации, восстановления регрессии и интерпретации результатов косвенных экспериментов.

Вводятся понятия функции роста, энтропии и ёмкости системы событий. Доказывается, что ёмкость семейства линейных решающих правил равна числу свободных параметров.

Выводятся оценки скорости равномерной сходимости частоты ошибок к их вероятности, позволяющие обосновать метод минимизации эмпирического риска. Эти оценки нетривиальны только в том случае, когда ёмкость семейства алгоритмов много меньше длины обучающей выборки. В доказательствах используется комбинаторная техника, основанная на оценивании разности частот в двух подвыборках одинаковой длины.

Выводятся необходимые и достаточные условия равномерной сходимости частот появления событий к их вероятностям; доказывается, что частота сходится к вероятности равномерно по системе событий тогда и только тогда, когда доля энтропии, приходящейся на один элемент выборки, стремится к нулю с ростом длины выборки.

Предлагается метод упорядоченной минимизации суммарного риска, предназначенный для выбора модели алгоритмов оптимальной сложности. Новый метод, в отличие от ранее предложенного метода структурной минимизации риска, оценивает качество восстановления зависимости в конечном множестве точек, а не на всем пространстве, поэтому обладает более высокой точностью.

Описывается ряд алгоритмов распознавания образов, восстановления регрессии, селекции выборки.

Ссылки

Литература

  1. Вапник В. Н., Червоненкис А. Я. Теория распознавания образов. — М.: Наука, 1974. — 416 с.  (подробнее)
Личные инструменты