Публикация:Вапник 1979 Восстановление зависимостей
Материал из MachineLearning.
м |
м |
||
Строка 5: | Строка 5: | ||
|год = 1979 | |год = 1979 | ||
|BibtexKey = vapnik79vosstanovlenie | |BibtexKey = vapnik79vosstanovlenie | ||
- | |PageName = | + | |PageName = {{<includeonly></includeonly>subst:FULLPAGENAME}} <!-- {{subst:FULLPAGENAME}} --> |
}}<noinclude> | }}<noinclude> | ||
== Аннотация == | == Аннотация == | ||
- | Основополагающая монография по статистической [[Теория Вапника-Червоненкиса|теории восстановления зависимостей]] по | + | Основополагающая монография по статистической [[Теория Вапника-Червоненкиса|теории восстановления зависимостей]]. |
+ | Рассматриваются задачи классификации, восстановления регрессии и интерпретации результатов косвенных экспериментов. Вводятся понятия функции роста, энтропии и ёмкости системы событий. | ||
+ | Выводятся оценки скорости равномерной сходимости частоты ошибок к их вероятности, позволяющие обосновать метод минимизации эмпирического риска. | ||
+ | Эти оценки нетривиальны только в том случае, когда ёмкость семейства алгоритмов много меньше длины обучающей выборки. | ||
+ | {{S|В доказательствах}} используется комбинаторная техника, основанная на оценивании разности частот в двух подвыборках одинаковой длины. | ||
+ | Выводятся необходимые и достаточные условия равномерной сходимости частот появления событий к их вероятностям; доказывается, что частота сходится к вероятности равномерно по системе событий тогда и только тогда, когда доля энтропии, приходящейся на один элемент выборки, стремится к нулю с ростом длины выборки. | ||
+ | Доказывается, что ёмкость семейства линейных решающих правил равна числу свободных параметров. | ||
+ | Предлагается метод упорядоченной минимизации суммарного риска, предназначенный для выбора модели алгоритмов оптимальной сложности. | ||
+ | Новый метод, в отличие от ранее предложенного метода структурной минимизации риска, оценивает качество восстановления зависимости в конечном множестве точек, а не на всем пространстве, поэтому обладает более высокой точностью. | ||
+ | Описывается ряд алгоритмов распознавания образов, восстановления регрессии, селекции выборки. | ||
== Ссылки == | == Ссылки == | ||
[[Категория: Теория вычислительного обучения (публикации)]] | [[Категория: Теория вычислительного обучения (публикации)]] | ||
</noinclude> | </noinclude> |
Версия 15:12, 16 мая 2008
Вапник В. Н. Восстановление зависимостей по эмпирическим данным. — М.: Наука, 1979. ([[{{subst:FULLPAGENAME}}|подробнее]])
BibTeX: |
@book{vapnik79vosstanovlenie, author = "Вапник В. Н.", title = "Восстановление зависимостей по эмпирическим данным", publisher = "М.: Наука", year = "1979", language = russian } |
Аннотация
Основополагающая монография по статистической теории восстановления зависимостей. Рассматриваются задачи классификации, восстановления регрессии и интерпретации результатов косвенных экспериментов. Вводятся понятия функции роста, энтропии и ёмкости системы событий. Выводятся оценки скорости равномерной сходимости частоты ошибок к их вероятности, позволяющие обосновать метод минимизации эмпирического риска. Эти оценки нетривиальны только в том случае, когда ёмкость семейства алгоритмов много меньше длины обучающей выборки. В доказательствах используется комбинаторная техника, основанная на оценивании разности частот в двух подвыборках одинаковой длины. Выводятся необходимые и достаточные условия равномерной сходимости частот появления событий к их вероятностям; доказывается, что частота сходится к вероятности равномерно по системе событий тогда и только тогда, когда доля энтропии, приходящейся на один элемент выборки, стремится к нулю с ростом длины выборки. Доказывается, что ёмкость семейства линейных решающих правил равна числу свободных параметров. Предлагается метод упорядоченной минимизации суммарного риска, предназначенный для выбора модели алгоритмов оптимальной сложности. Новый метод, в отличие от ранее предложенного метода структурной минимизации риска, оценивает качество восстановления зависимости в конечном множестве точек, а не на всем пространстве, поэтому обладает более высокой точностью. Описывается ряд алгоритмов распознавания образов, восстановления регрессии, селекции выборки.