Комбинаторная теория переобучения (виртуальный семинар)

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(переработка)
Строка 6: Строка 6:
* математических техник, позволяющих учитывать эти эффекты в оценках [[Вероятность переобучения|вероятности переобучения]].
* математических техник, позволяющих учитывать эти эффекты в оценках [[Вероятность переобучения|вероятности переобучения]].
-
== Мотивация ==
+
== Проблема низкой точности оценок обобщающей способности ==
Точные оценки [[Вероятность переобучения|вероятности переобучения]] необходимы для создания методов обучения по прецедентам, гарантирующих высокое качество классификации новых объектов, не вошедших в обучающую выборку.
Точные оценки [[Вероятность переобучения|вероятности переобучения]] необходимы для создания методов обучения по прецедентам, гарантирующих высокое качество классификации новых объектов, не вошедших в обучающую выборку.
Получение точных оценок обобщающей способности остаётся открытой проблемой в [[теория вычислительного обучения|теории статистического обучения]] уже более 40 лет, начиная с [[Теория Вапника-Червоненкиса|VC-теории]], предложенной [[Вапник, Владимир Наумович|В. Н. Вапником]] и [[Червоненкис, Алексей Яковлевич|А. Я. Червоненкисом]].
Получение точных оценок обобщающей способности остаётся открытой проблемой в [[теория вычислительного обучения|теории статистического обучения]] уже более 40 лет, начиная с [[Теория Вапника-Червоненкиса|VC-теории]], предложенной [[Вапник, Владимир Наумович|В. Н. Вапником]] и [[Червоненкис, Алексей Яковлевич|А. Я. Червоненкисом]].
Строка 14: Строка 14:
::<tex>P_\varepsilon(A) = \mathbb{P}_X\Bigl( \sup_{a\in A} |P(a)-\nu(a,X)| \geq \varepsilon \Bigr),</tex>
::<tex>P_\varepsilon(A) = \mathbb{P}_X\Bigl( \sup_{a\in A} |P(a)-\nu(a,X)| \geq \varepsilon \Bigr),</tex>
где
где
-
* <tex>A</tex> — семейство алгоритмов, из которого по обучающей выборке выбирается некоторый конкретный алгоритм;
+
: <tex>A</tex> — семейство алгоритмов, из которого по обучающей выборке выбирается некоторый конкретный алгоритм;
-
* <tex>P(a)</tex> — вероятность ошибки алгоритма <tex>a \in A</tex>;
+
: <tex>P(a)</tex> — вероятность ошибки алгоритма <tex>a \in A</tex>;
-
* <tex>\nu(a,X)</tex> — частота ошибок алгоритма <tex>a \in A</tex> на независимой обучающей выборке длины <tex>\ell</tex>;
+
: <tex>\nu(a,X)</tex> — частота ошибок алгоритма <tex>a \in A</tex> на независимой обучающей выборке длины <tex>\ell</tex>;
-
* <tex>\mathbb{P}_X</tex> — некоторая неизвестная вероятностная мера на множестве объектов.
+
: <tex>\mathbb{P}_X</tex> — некоторая неизвестная вероятностная мера на множестве объектов.
У этого функционала есть несколько недостатков.
У этого функционала есть несколько недостатков.
Строка 24: Строка 24:
* Наконец, имеет смысл оценивать саму переобученность, а не её абсолютную величину, поскольку частоту ошибок на контрольной выборке, по смыслу задачи, необходимо ограничивать именно сверху, а не снизу.
* Наконец, имеет смысл оценивать саму переобученность, а не её абсолютную величину, поскольку частоту ошибок на контрольной выборке, по смыслу задачи, необходимо ограничивать именно сверху, а не снизу.
-
Таким образом, более адекватным функционалом обобщающей способности является ''вероятность переобучения'':
+
=== Понятие вероятности переобучения ===
 +
Наиболее адекватным функционалом обобщающей способности является ''вероятность переобучения'':
::<tex>Q_\varepsilon(\mu,X^L) = \mathbb{P}_{X,\bar X}\Bigl( \delta_\mu(X,\bar X) \geq \varepsilon \Bigr).</tex>
::<tex>Q_\varepsilon(\mu,X^L) = \mathbb{P}_{X,\bar X}\Bigl( \delta_\mu(X,\bar X) \geq \varepsilon \Bigr).</tex>
Строка 35: Строка 36:
См. также [[слабая вероятностная аксиоматика]].
См. также [[слабая вероятностная аксиоматика]].
-
Основным объектом изучения в комбинаторно-дискретной постановке является бинарная ''матрица ошибок'' <tex>I = (I_{id})</tex>.
+
Основным объектом изучения в комбинаторно-дискретной постановке является бинарная ''матрица ошибок'' <tex>I = (I_{id})</tex> размера <tex>L{\times}D</tex>.
Строки матрицы соотвествуют объектам полной выборки, столбцы — алгоритмам, значение <tex>I_{id}=1</tex> означает, что алгоритм <tex>a_d</tex> допускает ошибку на объекте <tex>x_i</tex>. Столбец этой матрицы называется ''вектором ошибок'' алгоритма <tex>a_d</tex>.
Строки матрицы соотвествуют объектам полной выборки, столбцы — алгоритмам, значение <tex>I_{id}=1</tex> означает, что алгоритм <tex>a_d</tex> допускает ошибку на объекте <tex>x_i</tex>. Столбец этой матрицы называется ''вектором ошибок'' алгоритма <tex>a_d</tex>.
 +
 +
Число столбцов <tex>D</tex> в матрице ошибок (равное числу алгоритмов семейства, различимых на полной выборке) называется также [[коэффициент разнообразия|коэффициентом разнообразия]] (shattering coefficient) семейства алгоритмов.
 +
В VC-теории доказывается верхняя оценка (при <tex>\ell=k</tex>), которая является сильно завышенной:
 +
::<tex>Q_\varepsilon(\mu,X^L) \leq D \exp(\ell^2\varepsilon). </tex>
 +
 +
Правая часть зависит от двух весьма грубых скалярных характеристик <tex>L, D</tex>, то есть, фактически, только от размера матрицы ошибок.
 +
Вряд&nbsp;ли этих величин может быть достаточно, чтобы характеризовать столь «тонкий» процесс, как обучение по прецедентам.
 +
В&nbsp;этом и заключается основная концептуальная причина завышенности классических VC-оценок.
 +
=== Первый эксперимент (на реальных данных) ===
=== Первый эксперимент (на реальных данных) ===
В экспериментах на реальных задачах классификации удалось количественно оценить отдельные ''факторы завышенности'' классических VC-оценок.
В экспериментах на реальных задачах классификации удалось количественно оценить отдельные ''факторы завышенности'' классических VC-оценок.
Основные причины завышенности, в&nbsp;порядке убывания важности:
Основные причины завышенности, в&nbsp;порядке убывания важности:
-
# Пренебрежение эффектом ''расслоения'' (или ''локализации'') семейства алгоритмов. Чем хуже классификатор решает данную задачу, тем меньше шансов получить его в результате настройки по обучающей выборке. Это означает, что реально работает не всё семейство, а только какая-то его часть, своя в каждой задаче. <br>'''Степень завышенности:''' от нескольких десятков раз до сотен тысяч раз, в зависимости от задачи.
+
* Пренебрежение эффектом ''расслоения'' (или ''локализации'') семейства алгоритмов. Чем хуже классификатор решает данную задачу, тем меньше шансов получить его в результате настройки по обучающей выборке. Это означает, что реально работает не всё семейство, а только какая-то его часть, своя в каждой задаче. <br>'''Степень завышенности:''' порядка <tex>10^2..10^5</tex>, в зависимости от задачи.
-
# Пренебрежение эффектом ''сходства'' алгоритмов. При выводе классических VC-оценок используется [[неравенство Буля]] (union bound) — оценка вероятности объединения событий суммой их вероятностей. Эта оценка становится чрезвычайно завышенной, если среди алгоритмов есть похожие. <br>'''Степень завышенности:''' от нескольких сотен до десятков тысяч раз. Этот фактор всегда существенен и не так сильно зависит от задачи, как первый.
+
* Пренебрежение эффектом ''сходства'' алгоритмов. При выводе классических VC-оценок используется [[неравенство Буля]] (union bound) — оценка вероятности объединения событий суммой их вероятностей. Эта оценка становится чрезвычайно завышенной, если среди алгоритмов есть похожие. <br>'''Степень завышенности:''' порядка <tex>10^3..10^4</tex>. Этот фактор всегда существенен и не так сильно зависит от задачи, как первый.
-
# Экспоненциальная аппроксимация хвоста гипергеометрического распределения. Вроде бы точность аппроксимации увеличивается с ростом длины выборки — хвосты быстро стремятся к нулю. Однако относительная погрешность (отношение аппроксимированного значения к точному) с ростом выборки растёт! Отсюда вывод: при получении численно точных оценок не стоит пользоваться аппроксимациями. <br>'''Степень завышенности:''' порядка нескольких десятков.
+
* Экспоненциальная аппроксимация хвоста гипергеометрического распределения. Вроде бы точность аппроксимации увеличивается с ростом длины выборки — хвосты быстро стремятся к нулю. Однако относительная погрешность (отношение аппроксимированного значения к точному) с ростом выборки растёт! Отсюда вывод: при получении численно точных оценок не стоит пользоваться аппроксимациями. <br>'''Степень завышенности:''' порядка <tex>10^0..10^2</tex>.
<!---
<!---
-
# Верхняя оценка профиля разнообразия одним скалярным [[коэффициент разнообразия|коэффициентом разнообразия]] (shatter coefficient). '''Степень завышенности''' часто порядка единицы, но в некоторых задачах может достигать нескольких десятков. Этот результат получен для [[логическая закономерность|логических закономерностей]]; если оценивать классификаторы, а не закономерности, то этот фактор завышенности должен возрасти. Фактор достаточно просто исключается из оценки для семейства алгоритмов, если union bound используется для объединения оценок отдельных алгоритмов, не зависящих от неизвестной вероятности ошибки каждого алгоритма. Так устроена, к примеру, оценка [[Occam Razor оценка вероятности переобучения|Occam Razor]].
+
* Верхняя оценка профиля разнообразия одним скалярным [[коэффициент разнообразия|коэффициентом разнообразия]] (shatter coefficient). '''Степень завышенности''' часто порядка единицы, но в некоторых задачах может достигать нескольких десятков. Этот результат получен для [[логическая закономерность|логических закономерностей]]; если оценивать классификаторы, а не закономерности, то этот фактор завышенности должен возрасти. Фактор достаточно просто исключается из оценки для семейства алгоритмов, если union bound используется для объединения оценок отдельных алгоритмов, не зависящих от неизвестной вероятности ошибки каждого алгоритма. Так устроена, к примеру, оценка [[Occam Razor оценка вероятности переобучения|Occam Razor]].
--->
--->
 +
 +
В экспериментах вычислялся также [[локальный эффективный коэффициент разнообразия]].
 +
Это такое число <tex>D</tex>, при котором VC-оценка не являлась бы завышенной.
 +
Для него были получены удивительно небольшие значения — порядка <tex>10^0..10^2</tex> в&nbsp;разных задачах,
 +
в&nbsp;то время как число <tex>D</tex> имело порядки <tex>10^6..10^{12}</tex>.
'''Основные выводы:'''
'''Основные выводы:'''
-
* Завышенность VC-оценок обусловлена тем, что они учитывают только длину выборки и число различных алгоритмов, но не учитывают степень их различности, игнорируют внутреннюю структуру семейства.
+
* Завышенность VC-оценок обусловлена тем, что они учитывают только длину выборки <tex>\ell</tex> и число различных алгоритмов&nbsp;<tex>D</tex>, но не учитывают степень их различности, то есть полностью игнорируют содержимое матрицы ошибок.
* Для получения точных оценок необходимо ''одновременно'' учесть оба эффекта — и расслоение, и сходство.
* Для получения точных оценок необходимо ''одновременно'' учесть оба эффекта — и расслоение, и сходство.
 +
* Ни одна из существовавших до сих пор теорий не в состоянии объяснить столь низких значений локального эффективного коэффициента разнообразия.
=== Второй эксперимент (на модельных данных) ===
=== Второй эксперимент (на модельных данных) ===
Строка 73: Строка 89:
В&nbsp;VC-теории такой метод обучения называется [[Минимизация эмпирического риска|минимизацией эмпирического риска]].
В&nbsp;VC-теории такой метод обучения называется [[Минимизация эмпирического риска|минимизацией эмпирического риска]].
-
Этот эксперимент позволяет сделать чрезвычайно важные выводы и, по сути дела, указывает, в каком направлении следует развивать теорию переобучения.
+
'''Основные выводы:'''
-
* Связность заметно снижает темп роста зависимости $Q_\varepsilon(D)$.
+
* Связность заметно снижает темп роста зависимости <tex>Q_\varepsilon(D)</tex>.
-
* Расслоение понижает уровень горизонтальной асимптоты $Q_\varepsilon(D)$.
+
* Расслоение понижает уровень горизонтальной асимптоты <tex>Q_\varepsilon(D)</tex>.
* Только при наличии обоих эффектов вероятность переобучения приемлемо мала, причём кривая «выходит на насыщение» после первых 5–7 алгоритмов. Основная масса «плохих» алгоритмов вообще не вносит вклад в переобучение.
* Только при наличии обоих эффектов вероятность переобучения приемлемо мала, причём кривая «выходит на насыщение» после первых 5–7 алгоритмов. Основная масса «плохих» алгоритмов вообще не вносит вклад в переобучение.
* При отсутствии либо расслоения, либо связности переобучение наступает уже при нескольких десятках алгоритмов.
* При отсутствии либо расслоения, либо связности переобучение наступает уже при нескольких десятках алгоритмов.
Строка 81: Строка 97:
* Семейство без расслоения и без связности — это и есть тот наихудший случай, который изучается в [[Теория Вапника-Червоненкиса|VC-теории]].
* Семейство без расслоения и без связности — это и есть тот наихудший случай, который изучается в [[Теория Вапника-Червоненкиса|VC-теории]].
-
=== Замечание о природе переобучения ===
+
Этот эксперимент показал, что в теории переобучения необходимо развивать методы оценивания, учитывающие одновремнно оба эффекта — расслоение и сходство.
-
Вообще, [[переобучение]] возникает из-за того, что выбирается алгоритм с минимальным числом ошибок на обучающей выборке.
+
 
 +
=== О свойстве связности ===
 +
 
 +
Многие параметрические семейства алгоритмов обладают следующим свойством:
 +
при изменении вектора параметров по некоторой непрерывной траектории каждое изменение вектора ошибок происходит только на одном объекте. Одновременное изменение нескольких координат возможно, но только для «редких» траекторий, образующих в пространстве траекторий множество меры нуль.
 +
В&nbsp;частности, этим свойством обладают классификаторы с непрерывной по параметрам разделяющей поверхностью:
 +
[[линейный классификатор|линейные классификаторы]], [[SVM]] с непрерывными ядрами, [[нейронная сеть|нейронные сети]] с непрерывными функциями активации, [[решающее дерево|решающие деревья]] с пороговыми условиями ветвления, и многие другие.
 +
J.&nbsp;Sill называет такие семейства ''связными'', так как множество векторов ошибок всех алгоритмов семейства представляется в виде связного графа.
 +
E.&nbsp;Bax предлагает кластеризовать семейство на группы схожих классификаторов.
 +
 
 +
=== О природе переобучения ===
 +
Вообще, [[переобучение]] возникает из-за того, что решение о выборе лучшего алгоритма принимается по неполным данным — обучающей выборке <tex>X</tex>, которая является лишь частью полной выборки <tex>X^L</tex>.
Сделаем мысленный эксперимент.
Сделаем мысленный эксперимент.
Строка 91: Строка 118:
тем дальше влево будет смещаться минимальное (по всем взятым алгоритмам) число ошибок;
тем дальше влево будет смещаться минимальное (по всем взятым алгоритмам) число ошибок;
тем больше будет разность между частотой и вероятностью ошибок у «лучшего» алгоритма.
тем больше будет разность между частотой и вероятностью ошибок у «лучшего» алгоритма.
-
Но&nbsp;это и есть переобучение.
+
Это и есть переобучение.
Это всё так, если алгоритмы берутся из распределения случайно и независимо.
Это всё так, если алгоритмы берутся из распределения случайно и независимо.
Однако, если алгоритмы зависимы
Однако, если алгоритмы зависимы
(а&nbsp;в&nbsp;реальной ситуации они именно зависимы, причём очень сильно),
(а&nbsp;в&nbsp;реальной ситуации они именно зависимы, причём очень сильно),
-
то возникает надежда, что выбираемые алгоритмы будут концентрироваться гуще,
+
то&nbsp;возникает надежда, что выбираемые алгоритмы будут концентрироваться гуще,
-
и пик эмпирического распределения числа ошибок окажется более узким.
+
и&nbsp;пик эмпирического распределения числа ошибок окажется более узким.
 +
 
 +
== Точные оценки вероятности переобучения ==
 +
 
 +
Точные оценки вероятности переобучения в настоящее время удалось получить для ряда модельных семейств алгоритмов.
 +
Все эти семейства являются «искусственными» в том смысле, что они задаются непосредственно бинарной матрицей ошибок, а не каким-либо реальным семейством алгоритмов и реальной выборкой.
 +
В&nbsp;некоторых случаях удаётся строить примеры выборок, для которых порождаются данные матрицы ошибок.
 +
Однако ясно, что число таких случаев исчезающе мало в сравнении с числом всевозможных матриц, порождаемых реальными задачами обучения.
 +
Все модельные семейства отличаются некоторой «регулярностью» или симметрией, которой, как правило, не обладают реальные семейства.
 +
Тем не менее, изучение модельных семейств представляется перспективным по нескольким причинам.
 +
* Во-первых, они хорошо иллюстрируют эффекты расслоения и связности.
 +
* Во-вторых, на них отрабатываются математические приёмы, которые могут оказаться полезными при получении оценок более общего вида.
 +
* В-третьих, рассмотрение большого числа разнообразных частных случаев ведёт к постепенному обобщению модельных семейств и получению оценок, неплохо аппроксимирующих вероятность переобучения реальных семейств. Такой путь развития комбинаторной теории переобучения представляется наиболее перспективным.
=== Пара алгоритмов ===
=== Пара алгоритмов ===
-
Получены точные формулы для вероятности переобучения при выборе лучшего из двух алгоритмов.
 
-
Если алгоритмы совпадают, то вероятность переобучения равна вероятности большого уклонения частот в двух подвыборках для отдельного алгоритма, и описывается гипергеометрическим распределением.
 
-
Если алгоритмы существенно различны, но имеют одинаковый уровень ошибок, то вероятность переобучения увеличивается вдвое.
 
-
Если алгоритмы имеют существенно различный уровень ошибок, то вероятность переобучения уменьшается.
 
-
'''Выводы:''' уже при выборе одного из двух алгоритмов может возникать переобучение.
+
Это первый частный случай, для которого была получена точная комбинаторная оценка вероятности переобучения.
-
Расслоение алгоритмов по числу ошибок и увеличение сходства уменьшают вероятность переобучения.
+
Оценка доказывается путём довольно элементарных комбинаторных рассуждений.
-
=== Как устроены реально используемые семейства ===
+
'''Основные выводы:'''
 +
* Если два алгоритма почти одинаковы, то переобучения почти нет (эффект сходства).
 +
* Если один из двух алгоритмов существанно лучше другого, то переобучения почти нет (эффект расслоения).
 +
* Переобучение максимально и достигает VC-оценки в единственном случае, когда алгоритмы максимально плохи (половина ошибок) и максимально различны.
-
Многие параметрические семейства алгоритмов обладают следующим свойством:
+
=== Монотонная цепочка алгоритмов ===
-
при изменении вектора параметров по некоторой непрерывной траектории каждое изменение вектора ошибок происходит только на одном объекте. Одновременное изменение нескольких координат возможно, но только для «редких» траекторий, образующих в пространстве траекторий множество меры нуль.
+
-
В&nbsp;частности, этим свойством обладают классификаторы с непрерывной по параметрам разделяющей поверхностью:
+
-
[[линейный классификатор|линейные классификаторы]], [[SVM]] с непрерывными ядрами, [[нейронная сеть|нейронные сети]] с непрерывными функциями активации, [[решающее дерево|решающие деревья]] с пороговыми условиями ветвления, и многие другие.
+
-
J.&nbsp;Sill называет такие семейства ''связными'', так как множество векторов ошибок всех алгоритмов семейства представляется в виде связного графа. E.&nbsp;Bax предлагает кластеризовать семейство на группы схожих классификаторов.
+
-
=== Основной вопрос данного виртуального семинара ===
+
=== Унимодальная цепочка алгоритмов ===
-
Как учесть связность и расслоенность в семействах алгоритмов для получения незавышенных оценок вероятности переобучения?
+
-
== Точные оценки вероятности переобучения ==
+
=== Единичная окрестность лучшего алгоритма ===
-
В декабре 2008 удалось доказать одну общую теорему, позволяющую получать '''точные оценки вероятности переобучения'''. Очевидно, они учитывают и связность, и расслоенность. Частные результаты пока получены только для нескольких искусственных семейств: монотонных и унимодальных цепочек, единичной окрестности оптимального алгоритма, двухэлементного семейства. Есть основания полагать, что новый комбинаторный подход удастся распространить и на семейства более общего вида.
+
 
 +
=== Слой булева куба ===
 +
 
 +
=== Интервал булева куба и его расслоение ===
 +
 
 +
=== Хэммингов шар и его расслоение ===
 +
 
 +
=== Связка монотонных цепочек ===
 +
 
 +
=== Монотонная многомерная сетка алгоритмов ===
 +
 
 +
=== Унимодальная многомерная сетка алгоритмов ===
 +
 
 +
== Математические методы получения точных оценок вероятности переобучения ==
 +
 
 +
=== Метод порождающих и запрещающих множеств ===
 +
 
 +
=== Рекуррентный метод ===
 +
 
 +
=== Блочный метод ===
 +
 
 +
=== Метод цепных разложений ===
 +
 
 +
=== Теоретико-групповой подход ===
 +
 
 +
=== Неравенства Бонферрони-Галамбоса ===
 +
 
 +
== Профиль расслоения и связности ==
{{well|
{{well|
Строка 126: Строка 186:
}}
}}
 +
<!---
== Ссылки ==
== Ссылки ==
Более подробно результаты можно посмотреть здесь:
Более подробно результаты можно посмотреть здесь:
Строка 133: Строка 194:
* 12 июня 2008. Слабая вероятностная аксиоматика, оценки надёжности эмпирических предсказаний, расслоение и различность алгоритмов. Конференция [[ИОИ]]-2008. '''[[Media:VoronBeam-IOI-2008.pdf|(PDF,&nbsp;950&nbsp;КБ)]]'''.
* 12 июня 2008. Слабая вероятностная аксиоматика, оценки надёжности эмпирических предсказаний, расслоение и различность алгоритмов. Конференция [[ИОИ]]-2008. '''[[Media:VoronBeam-IOI-2008.pdf|(PDF,&nbsp;950&nbsp;КБ)]]'''.
* 28 апреля 2008. Ломоносовские чтения 2008. Оценки надёжности эмпирических предсказаний (комбинаторный подход). '''[[Media:VoronBeam2008-04-18.pdf|(PDF,&nbsp;804&nbsp;КБ)]]'''.
* 28 апреля 2008. Ломоносовские чтения 2008. Оценки надёжности эмпирических предсказаний (комбинаторный подход). '''[[Media:VoronBeam2008-04-18.pdf|(PDF,&nbsp;804&nbsp;КБ)]]'''.
 +
--->
== Литература ==
== Литература ==

Версия 22:15, 2 мая 2010

Содержание

Данный виртуальный семинар предназначен для обсуждения

Проблема низкой точности оценок обобщающей способности

Точные оценки вероятности переобучения необходимы для создания методов обучения по прецедентам, гарантирующих высокое качество классификации новых объектов, не вошедших в обучающую выборку. Получение точных оценок обобщающей способности остаётся открытой проблемой в теории статистического обучения уже более 40 лет, начиная с VC-теории, предложенной В. Н. Вапником и А. Я. Червоненкисом. Наиболее точные из известных оценок всё ещё сильно завышены.

Основной задачей в теории статистического обучения является получение верхних оценок для функционала

P_\varepsilon(A) = \mathbb{P}_X\Bigl( \sup_{a\in A} |P(a)-\nu(a,X)| \geq \varepsilon \Bigr),

где

A — семейство алгоритмов, из которого по обучающей выборке выбирается некоторый конкретный алгоритм;
P(a) — вероятность ошибки алгоритма a \in A;
\nu(a,X) — частота ошибок алгоритма a \in A на независимой обучающей выборке длины \ell;
\mathbb{P}_X — некоторая неизвестная вероятностная мера на множестве объектов.

У этого функционала есть несколько недостатков.

  • Если вероятностная мера P(a) неизвестна, то измерить функционал P_\varepsilon(A) непосредственно в эксперименте очень трудно, поскольку невозможно идентифицировать наступление события \sup_{a\in A} |P(a)-\nu(a,X)| \geq \varepsilon. А экспериментальное измерение необходимо для количественного анализа и понимания причин завышенности оценок. Выход заключается в том, чтобы вместо P(a) оценивать \nu(a,\bar X) — частоту ошибок алгоритма a на независимой контрольной выборке произвольной длины k. Тогда эмпирическое измерение функционала P_\varepsilon(A) становится возможным, например, методом Монте-Карло — путём генерации некоторого числа случайных разбиений полной выбоки X^L = X \sqcup \bar X на обучение и контроль. Здесь через L=\ell+k обозначена длина полной выборки.
  • Супремум в VC-теории вводится для того, чтобы получить наиболее общую оценку, не зависящую от конкретного метода обучения \mu, который по обучающей выборке X находит алгоритм a\in A. Однако на самом деле было бы правильнее оценивать вероятность переобучения, то есть вероятность события |\delta_\mu(X,\bar X)| \geq \varepsilon, где разность \delta_\mu(X,\bar X) = \nu(\mu(X),\bar X)-\nu(\mu(X),X) называется переобученностью. Введение супремума уже само по себе приводит к верхней оценке вероятности переобучения. Эта оценка может оказаться сильно завышенной, поскольку при решении прикладных задач методы обучения возвращают не любые алгоритмы из A, а лишь те, которые в определённом смысле «похожи» на восстанавливаемую зависимость.
  • Наконец, имеет смысл оценивать саму переобученность, а не её абсолютную величину, поскольку частоту ошибок на контрольной выборке, по смыслу задачи, необходимо ограничивать именно сверху, а не снизу.

Понятие вероятности переобучения

Наиболее адекватным функционалом обобщающей способности является вероятность переобучения:

Q_\varepsilon(\mu,X^L) = \mathbb{P}_{X,\bar X}\Bigl( \delta_\mu(X,\bar X) \geq \varepsilon \Bigr).

Этот функционал является локальной оценкой обобщающей способности, поскольку он зависит от метода обучения и полной выборки.

Термин переобучение понимается здесь в строго формальном смысле, как событие \delta_\mu(X,\bar X) \geq \varepsilon.

Вероятность \mathbb{P}_{X,\bar X} понимается здесь и далее в смысле равномерного распределения на множестве всех C_L^\ell разбиений неслучайной полной выбоки X^L = X \sqcup \bar X. Это позволяет применять чисто комбинаторные методы для получения оценок вероятности переобучения, и во многих случаях получать точные оценки (не завышенные, не асимптотические). См. также слабая вероятностная аксиоматика.

Основным объектом изучения в комбинаторно-дискретной постановке является бинарная матрица ошибок I = (I_{id}) размера L{\times}D. Строки матрицы соотвествуют объектам полной выборки, столбцы — алгоритмам, значение I_{id}=1 означает, что алгоритм a_d допускает ошибку на объекте x_i. Столбец этой матрицы называется вектором ошибок алгоритма a_d.

Число столбцов D в матрице ошибок (равное числу алгоритмов семейства, различимых на полной выборке) называется также коэффициентом разнообразия (shattering coefficient) семейства алгоритмов.

В VC-теории доказывается верхняя оценка (при \ell=k), которая является сильно завышенной:

Q_\varepsilon(\mu,X^L) \leq D \exp(\ell^2\varepsilon).

Правая часть зависит от двух весьма грубых скалярных характеристик L, D, то есть, фактически, только от размера матрицы ошибок. Вряд ли этих величин может быть достаточно, чтобы характеризовать столь «тонкий» процесс, как обучение по прецедентам. В этом и заключается основная концептуальная причина завышенности классических VC-оценок.

Первый эксперимент (на реальных данных)

В экспериментах на реальных задачах классификации удалось количественно оценить отдельные факторы завышенности классических VC-оценок.

Основные причины завышенности, в порядке убывания важности:

  • Пренебрежение эффектом расслоения (или локализации) семейства алгоритмов. Чем хуже классификатор решает данную задачу, тем меньше шансов получить его в результате настройки по обучающей выборке. Это означает, что реально работает не всё семейство, а только какая-то его часть, своя в каждой задаче.
    Степень завышенности: порядка 10^2..10^5, в зависимости от задачи.
  • Пренебрежение эффектом сходства алгоритмов. При выводе классических VC-оценок используется неравенство Буля (union bound) — оценка вероятности объединения событий суммой их вероятностей. Эта оценка становится чрезвычайно завышенной, если среди алгоритмов есть похожие.
    Степень завышенности: порядка 10^3..10^4. Этот фактор всегда существенен и не так сильно зависит от задачи, как первый.
  • Экспоненциальная аппроксимация хвоста гипергеометрического распределения. Вроде бы точность аппроксимации увеличивается с ростом длины выборки — хвосты быстро стремятся к нулю. Однако относительная погрешность (отношение аппроксимированного значения к точному) с ростом выборки растёт! Отсюда вывод: при получении численно точных оценок не стоит пользоваться аппроксимациями.
    Степень завышенности: порядка 10^0..10^2.

В экспериментах вычислялся также локальный эффективный коэффициент разнообразия. Это такое число D, при котором VC-оценка не являлась бы завышенной. Для него были получены удивительно небольшие значения — порядка 10^0..10^2 в разных задачах, в то время как число D имело порядки 10^6..10^{12}.

Основные выводы:

  • Завышенность VC-оценок обусловлена тем, что они учитывают только длину выборки \ell и число различных алгоритмов D, но не учитывают степень их различности, то есть полностью игнорируют содержимое матрицы ошибок.
  • Для получения точных оценок необходимо одновременно учесть оба эффекта — и расслоение, и сходство.
  • Ни одна из существовавших до сих пор теорий не в состоянии объяснить столь низких значений локального эффективного коэффициента разнообразия.

Второй эксперимент (на модельных данных)

Простейшим примером семейства алгоритмов с расслоением и связностью является монотонная цепочка алгоритмов. Оно строится следующим образом. Задаётся «лучший алгоритм», допускающий m_0 ошибок на полной выборке. Каждый следующий алгоритм a_{d+1} допускает ошибки на тех же объектах, что и предыдущий a_{d}, плюс ошибку ещё на одном объекте. Перестановкой строк можно добиться, чтобы матрица ошибок такого семейства содержала верхнюю треугольную подматрицу.

Монотонная цепочка алгоритмов является довольно реалистичной моделью связного семейства с одним непрерывным параметром: чем дальше значение параметра от оптимального значения, тем больше ошибок, но в силу непрерывности (и при гипотезе, что выборка находится «в общем положении») ошибка не может появиться сразу на нескольких объектах. Вообще, связным семейством будем называть такое множество алгоритмов, в котором для каждого алгоритма найдётся другой алгоритм, вектор ошибок которого отличается от данного только на одном объекте.

Монотонной цепочке можно поставить в соотвествие цепочку без расслоения. В этом семействе каждый следующий алгоритм также отличается от предыдущего только на одном объекте, но число ошибок, чередуясь, принимает лишь два значения: m_0, m_0+1.

Каждому из этих двух семейств можно сопоставить не-цепочку. Чтобы разрушить эффект связности, достаточно в каждом столбце матрицы ошибок случайным образом переставить все элементы.

Итак, получается четыре модельных семейства, заданных непосредственно своими маатрицами ошибок. Для каждого из них вероятность переобучения нетрудно оценить методом Монте-Карло (у хороших студентов реализация такого экспериментального стенда занимает обычно около пары часов работы). Результаты сопоставляются на графиках зависимости вероятности переобучения Q_\varepsilon от числа D первых алгоритмов a_1,\ldots,a_D, из которых метод обучения \mu(X) выбирает алгоритм с наименьшей частотой ошибок на обучающей выборке. В VC-теории такой метод обучения называется минимизацией эмпирического риска.

Основные выводы:

  • Связность заметно снижает темп роста зависимости Q_\varepsilon(D).
  • Расслоение понижает уровень горизонтальной асимптоты Q_\varepsilon(D).
  • Только при наличии обоих эффектов вероятность переобучения приемлемо мала, причём кривая «выходит на насыщение» после первых 5–7 алгоритмов. Основная масса «плохих» алгоритмов вообще не вносит вклад в переобучение.
  • При отсутствии либо расслоения, либо связности переобучение наступает уже при нескольких десятках алгоритмов.
  • Это означает, что реальные семейства, состоящие из огромного числа различных алгоритмов, с необходимостью должны быть расслоенными и связными.
  • Семейство без расслоения и без связности — это и есть тот наихудший случай, который изучается в VC-теории.

Этот эксперимент показал, что в теории переобучения необходимо развивать методы оценивания, учитывающие одновремнно оба эффекта — расслоение и сходство.

О свойстве связности

Многие параметрические семейства алгоритмов обладают следующим свойством: при изменении вектора параметров по некоторой непрерывной траектории каждое изменение вектора ошибок происходит только на одном объекте. Одновременное изменение нескольких координат возможно, но только для «редких» траекторий, образующих в пространстве траекторий множество меры нуль. В частности, этим свойством обладают классификаторы с непрерывной по параметрам разделяющей поверхностью: линейные классификаторы, SVM с непрерывными ядрами, нейронные сети с непрерывными функциями активации, решающие деревья с пороговыми условиями ветвления, и многие другие. J. Sill называет такие семейства связными, так как множество векторов ошибок всех алгоритмов семейства представляется в виде связного графа. E. Bax предлагает кластеризовать семейство на группы схожих классификаторов.

О природе переобучения

Вообще, переобучение возникает из-за того, что решение о выборе лучшего алгоритма принимается по неполным данным — обучающей выборке X, которая является лишь частью полной выборки X^L.

Сделаем мысленный эксперимент. Представим, что все алгоритмы семейства имеют одинаковую вероятность ошибок. Тогда число ошибок на конечной выборке подчиняется биномиальному распределению, имеющему форму пика. Шансы отдельному алгоритму угодить в левый хвост распределения невелики. Однако чем больше алгоритмов мы будем брать, тем дальше влево будет смещаться минимальное (по всем взятым алгоритмам) число ошибок; тем больше будет разность между частотой и вероятностью ошибок у «лучшего» алгоритма. Это и есть переобучение.

Это всё так, если алгоритмы берутся из распределения случайно и независимо. Однако, если алгоритмы зависимы (а в реальной ситуации они именно зависимы, причём очень сильно), то возникает надежда, что выбираемые алгоритмы будут концентрироваться гуще, и пик эмпирического распределения числа ошибок окажется более узким.

Точные оценки вероятности переобучения

Точные оценки вероятности переобучения в настоящее время удалось получить для ряда модельных семейств алгоритмов. Все эти семейства являются «искусственными» в том смысле, что они задаются непосредственно бинарной матрицей ошибок, а не каким-либо реальным семейством алгоритмов и реальной выборкой. В некоторых случаях удаётся строить примеры выборок, для которых порождаются данные матрицы ошибок. Однако ясно, что число таких случаев исчезающе мало в сравнении с числом всевозможных матриц, порождаемых реальными задачами обучения. Все модельные семейства отличаются некоторой «регулярностью» или симметрией, которой, как правило, не обладают реальные семейства. Тем не менее, изучение модельных семейств представляется перспективным по нескольким причинам.

  • Во-первых, они хорошо иллюстрируют эффекты расслоения и связности.
  • Во-вторых, на них отрабатываются математические приёмы, которые могут оказаться полезными при получении оценок более общего вида.
  • В-третьих, рассмотрение большого числа разнообразных частных случаев ведёт к постепенному обобщению модельных семейств и получению оценок, неплохо аппроксимирующих вероятность переобучения реальных семейств. Такой путь развития комбинаторной теории переобучения представляется наиболее перспективным.

Пара алгоритмов

Это первый частный случай, для которого была получена точная комбинаторная оценка вероятности переобучения. Оценка доказывается путём довольно элементарных комбинаторных рассуждений.

Основные выводы:

  • Если два алгоритма почти одинаковы, то переобучения почти нет (эффект сходства).
  • Если один из двух алгоритмов существанно лучше другого, то переобучения почти нет (эффект расслоения).
  • Переобучение максимально и достигает VC-оценки в единственном случае, когда алгоритмы максимально плохи (половина ошибок) и максимально различны.

Монотонная цепочка алгоритмов

Унимодальная цепочка алгоритмов

Единичная окрестность лучшего алгоритма

Слой булева куба

Интервал булева куба и его расслоение

Хэммингов шар и его расслоение

Связка монотонных цепочек

Монотонная многомерная сетка алгоритмов

Унимодальная многомерная сетка алгоритмов

Математические методы получения точных оценок вероятности переобучения

Метод порождающих и запрещающих множеств

Рекуррентный метод

Блочный метод

Метод цепных разложений

Теоретико-групповой подход

Неравенства Бонферрони-Галамбоса

Профиль расслоения и связности

Список открытых проблем, оформленный в виде задач по спецкурсу «Теория надёжности обучения по прецедентам».
(PDF, 180 КБ).



Литература

  1. Воронцов, К. В. Комбинаторная теория надёжности обучения по прецедентам: Дис. док. физ.-мат. наук: 05-13-17. — Вычислительный центр РАН, 2010. — 271 с.  (подробнее)
  2. Sill J. Generalization bounds for connected function classes.
  3. Bax E. T. Similar classifiers and VC error bounds: Tech. Rep. CalTech-CS-TR97-14:6 1997.
  4. Langford J. Quantitatively tight sample complexity bounds. — 2002. — Carnegie Mellon Thesis.

См. также


Это незавершённая статья о незавершённом исследовании.
Личные инструменты