Публикация:Вапник 1979 Восстановление зависимостей

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
м
м
Строка 5: Строка 5:
|год = 1979
|год = 1979
|BibtexKey = vapnik79vosstanovlenie
|BibtexKey = vapnik79vosstanovlenie
-
|PageName = Публикация:Вапник 1979 Восстановление зависимостей <!-- {{subst:FULLPAGENAME}} -->
+
|PageName = {{<includeonly></includeonly>subst:FULLPAGENAME}} <!-- {{subst:FULLPAGENAME}} -->
}}<noinclude>
}}<noinclude>
== Аннотация ==
== Аннотация ==
-
Основополагающая монография по статистической [[Теория Вапника-Червоненкиса|теории восстановления зависимостей]] по эмпирическим данным.
+
Основополагающая монография по статистической [[Теория Вапника-Червоненкиса|теории восстановления зависимостей]].
 +
Рассматриваются задачи классификации, восстановления регрессии и интерпретации результатов косвенных экспериментов. Вводятся понятия функции роста, энтропии и ёмкости системы событий.
 +
Выводятся оценки скорости равномерной сходимости частоты ошибок к их вероятности, позволяющие обосновать метод минимизации эмпирического риска.
 +
Эти оценки нетривиальны только в том случае, когда ёмкость семейства алгоритмов много меньше длины обучающей выборки.
 +
{{S|В доказательствах}} используется комбинаторная техника, основанная на оценивании разности частот в двух подвыборках одинаковой длины.
 +
Выводятся необходимые и достаточные условия равномерной сходимости частот появления событий к их вероятностям; доказывается, что частота сходится к вероятности равномерно по системе событий тогда и только тогда, когда доля энтропии, приходящейся на один элемент выборки, стремится к нулю с ростом длины выборки.
 +
Доказывается, что ёмкость семейства линейных решающих правил равна числу свободных параметров.
 +
Предлагается метод упорядоченной минимизации суммарного риска, предназначенный для выбора модели алгоритмов оптимальной сложности.
 +
Новый метод, в отличие от ранее предложенного метода структурной минимизации риска, оценивает качество восстановления зависимости в конечном множестве точек, а не на всем пространстве, поэтому обладает более высокой точностью.
 +
Описывается ряд алгоритмов распознавания образов, восстановления регрессии, селекции выборки.
== Ссылки ==
== Ссылки ==
[[Категория: Теория вычислительного обучения (публикации)]]
[[Категория: Теория вычислительного обучения (публикации)]]
</noinclude>
</noinclude>

Версия 15:12, 16 мая 2008

Вапник В. Н. Восстановление зависимостей по эмпирическим данным. — М.: Наука, 1979.  ([[{{subst:FULLPAGENAME}}|подробнее]])

BibTeX:
 @book{vapnik79vosstanovlenie,
   author = "Вапник В. Н.",
   title = "Восстановление зависимостей по эмпирическим данным",
   publisher = "М.: Наука",
   year = "1979",
   language = russian
 }

Аннотация

Основополагающая монография по статистической теории восстановления зависимостей. Рассматриваются задачи классификации, восстановления регрессии и интерпретации результатов косвенных экспериментов. Вводятся понятия функции роста, энтропии и ёмкости системы событий. Выводятся оценки скорости равномерной сходимости частоты ошибок к их вероятности, позволяющие обосновать метод минимизации эмпирического риска. Эти оценки нетривиальны только в том случае, когда ёмкость семейства алгоритмов много меньше длины обучающей выборки. В доказательствах используется комбинаторная техника, основанная на оценивании разности частот в двух подвыборках одинаковой длины. Выводятся необходимые и достаточные условия равномерной сходимости частот появления событий к их вероятностям; доказывается, что частота сходится к вероятности равномерно по системе событий тогда и только тогда, когда доля энтропии, приходящейся на один элемент выборки, стремится к нулю с ростом длины выборки. Доказывается, что ёмкость семейства линейных решающих правил равна числу свободных параметров. Предлагается метод упорядоченной минимизации суммарного риска, предназначенный для выбора модели алгоритмов оптимальной сложности. Новый метод, в отличие от ранее предложенного метода структурной минимизации риска, оценивает качество восстановления зависимости в конечном множестве точек, а не на всем пространстве, поэтому обладает более высокой точностью. Описывается ряд алгоритмов распознавания образов, восстановления регрессии, селекции выборки.

Ссылки

Личные инструменты