Публикация:Вапник 1979 Восстановление зависимостей
Материал из MachineLearning.
м |
м |
||
| Строка 5: | Строка 5: | ||
|год = 1979 | |год = 1979 | ||
|BibtexKey = vapnik79vosstanovlenie | |BibtexKey = vapnik79vosstanovlenie | ||
| - | |PageName = | + | |PageName = {{<includeonly></includeonly>subst:FULLPAGENAME}} <!-- {{subst:FULLPAGENAME}} --> |
}}<noinclude> | }}<noinclude> | ||
== Аннотация == | == Аннотация == | ||
| - | Основополагающая монография по статистической [[Теория Вапника-Червоненкиса|теории восстановления зависимостей]] по | + | Основополагающая монография по статистической [[Теория Вапника-Червоненкиса|теории восстановления зависимостей]]. |
| + | Рассматриваются задачи классификации, восстановления регрессии и интерпретации результатов косвенных экспериментов. Вводятся понятия функции роста, энтропии и ёмкости системы событий. | ||
| + | Выводятся оценки скорости равномерной сходимости частоты ошибок к их вероятности, позволяющие обосновать метод минимизации эмпирического риска. | ||
| + | Эти оценки нетривиальны только в том случае, когда ёмкость семейства алгоритмов много меньше длины обучающей выборки. | ||
| + | {{S|В доказательствах}} используется комбинаторная техника, основанная на оценивании разности частот в двух подвыборках одинаковой длины. | ||
| + | Выводятся необходимые и достаточные условия равномерной сходимости частот появления событий к их вероятностям; доказывается, что частота сходится к вероятности равномерно по системе событий тогда и только тогда, когда доля энтропии, приходящейся на один элемент выборки, стремится к нулю с ростом длины выборки. | ||
| + | Доказывается, что ёмкость семейства линейных решающих правил равна числу свободных параметров. | ||
| + | Предлагается метод упорядоченной минимизации суммарного риска, предназначенный для выбора модели алгоритмов оптимальной сложности. | ||
| + | Новый метод, в отличие от ранее предложенного метода структурной минимизации риска, оценивает качество восстановления зависимости в конечном множестве точек, а не на всем пространстве, поэтому обладает более высокой точностью. | ||
| + | Описывается ряд алгоритмов распознавания образов, восстановления регрессии, селекции выборки. | ||
== Ссылки == | == Ссылки == | ||
[[Категория: Теория вычислительного обучения (публикации)]] | [[Категория: Теория вычислительного обучения (публикации)]] | ||
</noinclude> | </noinclude> | ||
Версия 15:12, 16 мая 2008
Вапник В. Н. Восстановление зависимостей по эмпирическим данным. — М.: Наука, 1979. ([[{{subst:FULLPAGENAME}}|подробнее]])
| BibTeX: |
@book{vapnik79vosstanovlenie,
author = "Вапник В. Н.",
title = "Восстановление зависимостей по эмпирическим данным",
publisher = "М.: Наука",
year = "1979",
language = russian
}
|
Аннотация
Основополагающая монография по статистической теории восстановления зависимостей. Рассматриваются задачи классификации, восстановления регрессии и интерпретации результатов косвенных экспериментов. Вводятся понятия функции роста, энтропии и ёмкости системы событий. Выводятся оценки скорости равномерной сходимости частоты ошибок к их вероятности, позволяющие обосновать метод минимизации эмпирического риска. Эти оценки нетривиальны только в том случае, когда ёмкость семейства алгоритмов много меньше длины обучающей выборки. В доказательствах используется комбинаторная техника, основанная на оценивании разности частот в двух подвыборках одинаковой длины. Выводятся необходимые и достаточные условия равномерной сходимости частот появления событий к их вероятностям; доказывается, что частота сходится к вероятности равномерно по системе событий тогда и только тогда, когда доля энтропии, приходящейся на один элемент выборки, стремится к нулю с ростом длины выборки. Доказывается, что ёмкость семейства линейных решающих правил равна числу свободных параметров. Предлагается метод упорядоченной минимизации суммарного риска, предназначенный для выбора модели алгоритмов оптимальной сложности. Новый метод, в отличие от ранее предложенного метода структурной минимизации риска, оценивает качество восстановления зависимости в конечном множестве точек, а не на всем пространстве, поэтому обладает более высокой точностью. Описывается ряд алгоритмов распознавания образов, восстановления регрессии, селекции выборки.

