Публикация:Вапник 1979 Восстановление зависимостей
Материал из MachineLearning.
м |
|||
(5 промежуточных версий не показаны.) | |||
Строка 1: | Строка 1: | ||
- | <includeonly>{{Монография | + | <includeonly>{{Монография|PageName = П:Вапник 1979 Восстановление зависимостей |
|автор = Вапник В. Н. | |автор = Вапник В. Н. | ||
|название = Восстановление зависимостей по эмпирическим данным | |название = Восстановление зависимостей по эмпирическим данным | ||
|издатель = М.: Наука | |издатель = М.: Наука | ||
|год = 1979 | |год = 1979 | ||
- | | | + | |страниц = 448 |
- | }}</includeonly><noinclude>{{Монография | + | }}</includeonly><noinclude>{{Монография|BibtexKey = vapnik79vosstanovlenie |
- | |автор = Вапник В. Н. | + | |автор = Вапник, В. Н. |
|название = Восстановление зависимостей по эмпирическим данным | |название = Восстановление зависимостей по эмпирическим данным | ||
|издатель = М.: Наука | |издатель = М.: Наука | ||
|год = 1979 | |год = 1979 | ||
- | | | + | |страниц = 448 |
}} | }} | ||
== Аннотация == | == Аннотация == | ||
Основополагающая монография по статистической [[Теория Вапника-Червоненкиса|теории восстановления зависимостей]]. | Основополагающая монография по статистической [[Теория Вапника-Червоненкиса|теории восстановления зависимостей]]. | ||
- | Рассматриваются задачи классификации, восстановления регрессии и интерпретации результатов косвенных экспериментов. Вводятся понятия функции роста, энтропии и ёмкости системы событий. | + | Рассматриваются задачи [[классификация|классификации]], [[регрессионный анализ|восстановления регрессии]] и интерпретации результатов косвенных экспериментов. |
- | Выводятся оценки скорости равномерной сходимости частоты ошибок к их вероятности, позволяющие обосновать метод минимизации эмпирического риска. | + | |
- | Эти оценки нетривиальны только в том случае, когда ёмкость семейства алгоритмов много меньше длины обучающей выборки. | + | Вводятся понятия [[функция роста|функции роста]], [[энтропия|энтропии]] и [[размерность Вапника-Червоненкиса|ёмкости]] системы событий. |
+ | Доказывается, что ёмкость семейства [[Линейный классификатор|линейных решающих правил]] равна числу свободных параметров. | ||
+ | |||
+ | Выводятся оценки скорости равномерной сходимости частоты ошибок к их вероятности, позволяющие обосновать метод [[Минимизация эмпирического риска|минимизации эмпирического риска]]. | ||
+ | Эти оценки нетривиальны только в том случае, когда ёмкость семейства алгоритмов много меньше длины [[обучающая выборка|обучающей выборки]]. | ||
{{S|В доказательствах}} используется комбинаторная техника, основанная на оценивании разности частот в двух подвыборках одинаковой длины. | {{S|В доказательствах}} используется комбинаторная техника, основанная на оценивании разности частот в двух подвыборках одинаковой длины. | ||
+ | |||
Выводятся необходимые и достаточные условия равномерной сходимости частот появления событий к их вероятностям; доказывается, что частота сходится к вероятности равномерно по системе событий тогда и только тогда, когда доля энтропии, приходящейся на один элемент выборки, стремится к нулю с ростом длины выборки. | Выводятся необходимые и достаточные условия равномерной сходимости частот появления событий к их вероятностям; доказывается, что частота сходится к вероятности равномерно по системе событий тогда и только тогда, когда доля энтропии, приходящейся на один элемент выборки, стремится к нулю с ростом длины выборки. | ||
- | + | ||
Предлагается метод упорядоченной минимизации суммарного риска, предназначенный для выбора модели алгоритмов оптимальной сложности. | Предлагается метод упорядоченной минимизации суммарного риска, предназначенный для выбора модели алгоритмов оптимальной сложности. | ||
- | Новый метод, в отличие от ранее предложенного метода структурной минимизации риска, оценивает качество восстановления зависимости в конечном множестве точек, а не на всем пространстве, поэтому обладает более высокой точностью. | + | Новый метод, в отличие от ранее предложенного метода [[Структурная минимизация риска|структурной минимизации риска]], оценивает качество восстановления зависимости в конечном множестве точек, а не на всем пространстве, поэтому обладает более высокой точностью. |
- | Описывается ряд алгоритмов распознавания образов, восстановления регрессии, селекции выборки. | + | |
+ | Описывается ряд алгоритмов распознавания образов, восстановления регрессии, [[Селекция выборки|селекции выборки]]. | ||
== Ссылки == | == Ссылки == | ||
- | [[Категория: Теория вычислительного обучения (публикации)]] | + | * [http://www.clrc.rhul.ac.uk/people/vlad В. Н. Вапник] — домашняя страница |
+ | * [http://www.clrc.rhul.ac.uk/people/chervonenkis А. Я. Червоненкис] — домашняя страница | ||
+ | * [http://www.ipu.ru/s_001/s_001_003_009_00000000000.htm Выдающиеся ученые ИПУ РАН] страница на сайте Института проблем управления РАН | ||
+ | |||
+ | == Литература == | ||
+ | # {{П:Вапник 74}} | ||
+ | |||
+ | [[Категория: Теория вычислительного обучения (публикации)|Вапник]] | ||
</noinclude> | </noinclude> |
Текущая версия
Вапник, В. Н. Восстановление зависимостей по эмпирическим данным. — М.: Наука, 1979. — 448 с.
BibTeX: |
@book{vapnik79vosstanovlenie, author = "Вапник, В. Н.", title = "Восстановление зависимостей по эмпирическим данным", publisher = "М.: Наука", year = "1979", numpages = "448", language = russian } |
Аннотация
Основополагающая монография по статистической теории восстановления зависимостей. Рассматриваются задачи классификации, восстановления регрессии и интерпретации результатов косвенных экспериментов.
Вводятся понятия функции роста, энтропии и ёмкости системы событий. Доказывается, что ёмкость семейства линейных решающих правил равна числу свободных параметров.
Выводятся оценки скорости равномерной сходимости частоты ошибок к их вероятности, позволяющие обосновать метод минимизации эмпирического риска. Эти оценки нетривиальны только в том случае, когда ёмкость семейства алгоритмов много меньше длины обучающей выборки. В доказательствах используется комбинаторная техника, основанная на оценивании разности частот в двух подвыборках одинаковой длины.
Выводятся необходимые и достаточные условия равномерной сходимости частот появления событий к их вероятностям; доказывается, что частота сходится к вероятности равномерно по системе событий тогда и только тогда, когда доля энтропии, приходящейся на один элемент выборки, стремится к нулю с ростом длины выборки.
Предлагается метод упорядоченной минимизации суммарного риска, предназначенный для выбора модели алгоритмов оптимальной сложности. Новый метод, в отличие от ранее предложенного метода структурной минимизации риска, оценивает качество восстановления зависимости в конечном множестве точек, а не на всем пространстве, поэтому обладает более высокой точностью.
Описывается ряд алгоритмов распознавания образов, восстановления регрессии, селекции выборки.
Ссылки
- В. Н. Вапник — домашняя страница
- А. Я. Червоненкис — домашняя страница
- Выдающиеся ученые ИПУ РАН страница на сайте Института проблем управления РАН
Литература
- Вапник В. Н., Червоненкис А. Я. Теория распознавания образов. — М.: Наука, 1974. — 416 с. (подробнее)