Публикация:Вапник 1979 Восстановление зависимостей
Материал из MachineLearning.
м |
|||
Строка 16: | Строка 16: | ||
== Аннотация == | == Аннотация == | ||
Основополагающая монография по статистической [[Теория Вапника-Червоненкиса|теории восстановления зависимостей]]. | Основополагающая монография по статистической [[Теория Вапника-Червоненкиса|теории восстановления зависимостей]]. | ||
- | Рассматриваются задачи классификации, восстановления регрессии и интерпретации результатов косвенных экспериментов. | + | Рассматриваются задачи [[классификация|классификации]], [[регрессионный анализ|восстановления регрессии]] и интерпретации результатов косвенных экспериментов. |
- | Вводятся понятия функции роста, энтропии и ёмкости системы событий. | + | Вводятся понятия [[функция роста|функции роста]], [[энтропия|энтропии]] и [[размерность Вапника-Червоненкиса|ёмкости]] системы событий. |
- | Доказывается, что ёмкость семейства линейных решающих правил равна числу свободных параметров. | + | Доказывается, что ёмкость семейства [[Линейный классификатор|линейных решающих правил]] равна числу свободных параметров. |
- | Выводятся оценки скорости равномерной сходимости частоты ошибок к их вероятности, позволяющие обосновать метод минимизации эмпирического риска. | + | Выводятся оценки скорости равномерной сходимости частоты ошибок к их вероятности, позволяющие обосновать метод [[Минимизация эмпирического риска|минимизации эмпирического риска]]. |
- | Эти оценки нетривиальны только в том случае, когда ёмкость семейства алгоритмов много меньше длины обучающей выборки. | + | Эти оценки нетривиальны только в том случае, когда ёмкость семейства алгоритмов много меньше длины [[обучающая выборка|обучающей выборки]]. |
{{S|В доказательствах}} используется комбинаторная техника, основанная на оценивании разности частот в двух подвыборках одинаковой длины. | {{S|В доказательствах}} используется комбинаторная техника, основанная на оценивании разности частот в двух подвыборках одинаковой длины. | ||
Строка 28: | Строка 28: | ||
Предлагается метод упорядоченной минимизации суммарного риска, предназначенный для выбора модели алгоритмов оптимальной сложности. | Предлагается метод упорядоченной минимизации суммарного риска, предназначенный для выбора модели алгоритмов оптимальной сложности. | ||
- | Новый метод, в отличие от ранее предложенного метода структурной минимизации риска, оценивает качество восстановления зависимости в конечном множестве точек, а не на всем пространстве, поэтому обладает более высокой точностью. | + | Новый метод, в отличие от ранее предложенного метода [[Структурная минимизация риска|структурной минимизации риска]], оценивает качество восстановления зависимости в конечном множестве точек, а не на всем пространстве, поэтому обладает более высокой точностью. |
- | Описывается ряд алгоритмов распознавания образов, восстановления регрессии, селекции выборки. | + | Описывается ряд алгоритмов распознавания образов, восстановления регрессии, [[Селекция выборки|селекции выборки]]. |
== Ссылки == | == Ссылки == | ||
[[Категория: Теория вычислительного обучения (публикации)]] | [[Категория: Теория вычислительного обучения (публикации)]] | ||
</noinclude> | </noinclude> |
Версия 12:14, 17 мая 2008
Вапник В. Н. Восстановление зависимостей по эмпирическим данным. — М.: Наука, 1979. — 448 с.
BibTeX: |
@book{vapnik79vosstanovlenie, author = "Вапник В. Н.", title = "Восстановление зависимостей по эмпирическим данным", publisher = "М.: Наука", year = "1979", numpages = "448", language = russian } |
Аннотация
Основополагающая монография по статистической теории восстановления зависимостей. Рассматриваются задачи классификации, восстановления регрессии и интерпретации результатов косвенных экспериментов.
Вводятся понятия функции роста, энтропии и ёмкости системы событий. Доказывается, что ёмкость семейства линейных решающих правил равна числу свободных параметров.
Выводятся оценки скорости равномерной сходимости частоты ошибок к их вероятности, позволяющие обосновать метод минимизации эмпирического риска. Эти оценки нетривиальны только в том случае, когда ёмкость семейства алгоритмов много меньше длины обучающей выборки. В доказательствах используется комбинаторная техника, основанная на оценивании разности частот в двух подвыборках одинаковой длины.
Выводятся необходимые и достаточные условия равномерной сходимости частот появления событий к их вероятностям; доказывается, что частота сходится к вероятности равномерно по системе событий тогда и только тогда, когда доля энтропии, приходящейся на один элемент выборки, стремится к нулю с ростом длины выборки.
Предлагается метод упорядоченной минимизации суммарного риска, предназначенный для выбора модели алгоритмов оптимальной сложности. Новый метод, в отличие от ранее предложенного метода структурной минимизации риска, оценивает качество восстановления зависимости в конечном множестве точек, а не на всем пространстве, поэтому обладает более высокой точностью.
Описывается ряд алгоритмов распознавания образов, восстановления регрессии, селекции выборки.