Публикация:Вапник 1979 Восстановление зависимостей

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
м
 
(20 промежуточных версий не показаны.)
Строка 1: Строка 1:
-
<nowiki><includeonly></nowiki>{{книга
+
<includeonly>{{Монография|PageName = П:Вапник 1979 Восстановление зависимостей
-
|автор={{ВсеАвторы|автор|автор2|автор3|автор4|автор5|автор6|автор7|автор8|автор9|автор10|автор11|автор12|автор13|автор14|автор15|автор16}}
+
|автор = Вапник В. Н.
-
|заглавие=Восстановление зависимостей по эмпирическим данным
+
|название = Восстановление зависимостей по эмпирическим данным
-
|издательство=М.:&nbsp;Наука
+
|издатель = М.:&nbsp;Наука
-
|год=1979
+
|год = 1979
-
|издание={{{издание}}}
+
|страниц = 448
-
|страниц={{{страниц}}}
+
}}</includeonly><noinclude>{{Монография|BibtexKey = vapnik79vosstanovlenie
-
|ссылка={{{url}}}
+
|автор = Вапник, В. Н.
-
|isbn={{{ISBN}}}
+
|название = Восстановление зависимостей по эмпирическим данным
-
}}<nowiki></includeonly><noinclude></nowiki>{{книга
+
|издатель = М.:&nbsp;Наука
-
|автор={{ВсеАвторы|автор|автор2|автор3|автор4|автор5|автор6|автор7|автор8|автор9|автор10|автор11|автор12|автор13|автор14|автор15|автор16}}
+
|год = 1979
-
|заглавие=Восстановление зависимостей по эмпирическим данным
+
|страниц = 448
-
|издательство=М.:&nbsp;Наука
+
-
|год=1979
+
-
|издание={{{издание}}}
+
-
|страниц={{{страниц}}}
+
-
|ссылка={{{url}}}
+
-
|isbn={{{ISBN}}}
+
}}
}}
 +
== Аннотация ==
 +
Основополагающая монография по статистической [[Теория Вапника-Червоненкиса|теории восстановления зависимостей]].
 +
Рассматриваются задачи [[классификация|классификации]], [[регрессионный анализ|восстановления регрессии]] и интерпретации результатов косвенных экспериментов.
-
'''BibTeX:'''
+
Вводятся понятия [[функция роста|функции роста]], [[энтропия|энтропии]] и [[размерность Вапника-Червоненкиса|ёмкости]] системы событий.
-
<nowiki>@book{</nowiki>{{{BibtexKey}}},
+
Доказывается, что ёмкость семейства [[Линейный классификатор|линейных решающих правил]] равна числу свободных параметров.
-
author = {{BibtexAuthors|автор|автор2|автор3|автор4|автор5|автор6|автор7|автор8|автор9|автор10|автор11|автор12|автор13|автор14|автор15|автор16}},
+
 
-
title = Восстановление зависимостей по эмпирическим данным{{#if:|<nowiki>.&nbsp;— </nowiki>{{{издание}}}}},
+
Выводятся оценки скорости равномерной сходимости частоты ошибок к их вероятности, позволяющие обосновать метод [[Минимизация эмпирического риска|минимизации эмпирического риска]].
-
publisher = М.:&nbsp;Наука,
+
Эти оценки нетривиальны только в том случае, когда ёмкость семейства алгоритмов много меньше длины [[обучающая выборка|обучающей выборки]].
-
year = 1979{{#if:|,
+
{{S|В доказательствах}} используется комбинаторная техника, основанная на оценивании разности частот в двух подвыборках одинаковой длины.
-
numpages = {{{страниц}}}}}{{#if:|,
+
 
-
= {{{url}}}}}{{#if:|,
+
Выводятся необходимые и достаточные условия равномерной сходимости частот появления событий к их вероятностям; доказывается, что частота сходится к вероятности равномерно по системе событий тогда и только тогда, когда доля энтропии, приходящейся на один элемент выборки, стремится к нулю с ростом длины выборки.
-
= {{{ISBN}}}}}
+
 
-
<nowiki>}</nowiki>
+
Предлагается метод упорядоченной минимизации суммарного риска, предназначенный для выбора модели алгоритмов оптимальной сложности.
 +
Новый метод, в отличие от ранее предложенного метода [[Структурная минимизация риска|структурной минимизации риска]], оценивает качество восстановления зависимости в конечном множестве точек, а не на всем пространстве, поэтому обладает более высокой точностью.
 +
 
 +
Описывается ряд алгоритмов распознавания образов, восстановления регрессии, [[Селекция выборки|селекции выборки]].
-
{{#if:Основополагающая монография по статистической [[Теория Вапника-Червоненкиса|теории восстановления зависимостей]] по эмпирическим данным.|
 
-
== Аннотация ==
 
-
Основополагающая монография по статистической [[Теория Вапника-Червоненкиса|теории восстановления зависимостей]] по эмпирическим данным.
 
-
}}
 
-
{{#if:[[Категория: Теория вычислительного обучения (публикации)]]|
 
== Ссылки ==
== Ссылки ==
-
[[Категория: Теория вычислительного обучения (публикации)]]
+
* [http://www.clrc.rhul.ac.uk/people/vlad В. Н. Вапник] — домашняя страница
-
}}
+
* [http://www.clrc.rhul.ac.uk/people/chervonenkis А. Я. Червоненкис] — домашняя страница
-
{{template navigation}}{{doc}}
+
* [http://www.ipu.ru/s_001/s_001_003_009_00000000000.htm Выдающиеся ученые ИПУ РАН] страница на сайте Института проблем управления РАН
-
[[Категория:MachineLearning:Шаблоны для страниц публикаций|М]]
+
 
-
<nowiki></noinclude></nowiki>
+
== Литература ==
 +
# {{П:Вапник 74}}
 +
 
 +
[[Категория: Теория вычислительного обучения (публикации)|Вапник]]
 +
</noinclude>

Текущая версия

Вапник, В. Н. Восстановление зависимостей по эмпирическим данным. — М.: Наука, 1979. — 448 с.

BibTeX:
 @book{vapnik79vosstanovlenie,
   author = "Вапник, В. Н.",
   title = "Восстановление зависимостей по эмпирическим данным",
   publisher = "М.: Наука",
   year = "1979",
   numpages = "448",
   language = russian
 }

Аннотация

Основополагающая монография по статистической теории восстановления зависимостей. Рассматриваются задачи классификации, восстановления регрессии и интерпретации результатов косвенных экспериментов.

Вводятся понятия функции роста, энтропии и ёмкости системы событий. Доказывается, что ёмкость семейства линейных решающих правил равна числу свободных параметров.

Выводятся оценки скорости равномерной сходимости частоты ошибок к их вероятности, позволяющие обосновать метод минимизации эмпирического риска. Эти оценки нетривиальны только в том случае, когда ёмкость семейства алгоритмов много меньше длины обучающей выборки. В доказательствах используется комбинаторная техника, основанная на оценивании разности частот в двух подвыборках одинаковой длины.

Выводятся необходимые и достаточные условия равномерной сходимости частот появления событий к их вероятностям; доказывается, что частота сходится к вероятности равномерно по системе событий тогда и только тогда, когда доля энтропии, приходящейся на один элемент выборки, стремится к нулю с ростом длины выборки.

Предлагается метод упорядоченной минимизации суммарного риска, предназначенный для выбора модели алгоритмов оптимальной сложности. Новый метод, в отличие от ранее предложенного метода структурной минимизации риска, оценивает качество восстановления зависимости в конечном множестве точек, а не на всем пространстве, поэтому обладает более высокой точностью.

Описывается ряд алгоритмов распознавания образов, восстановления регрессии, селекции выборки.

Ссылки

Литература

  1. Вапник В. Н., Червоненкис А. Я. Теория распознавания образов. — М.: Наука, 1974. — 416 с.  (подробнее)
Личные инструменты