Комбинаторная теория переобучения (виртуальный семинар)
Материал из MachineLearning.
(дополнение, уточнение) |
(модельные семейства) |
||
Строка 157: | Строка 157: | ||
| [[Изображение:SimpleGraph.PNG|300px]] | | [[Изображение:SimpleGraph.PNG|300px]] | ||
|} | |} | ||
+ | |||
+ | Эксперименты с линейными классификаторами проведены Ильёй Решетняком. | ||
=== О природе переобучения === | === О природе переобучения === | ||
Строка 242: | Строка 244: | ||
Унимодальная цепочка — это связка из двух монотонных цепочек. | Унимодальная цепочка — это связка из двух монотонных цепочек. | ||
Единичная окрестность — это связка из <tex>D</tex> цепочек длины 2. | Единичная окрестность — это связка из <tex>D</tex> цепочек длины 2. | ||
+ | |||
+ | Точные оценки вероятности переобучения для связки монотонных цепочек получены Александром Фреем. | ||
=== Слой булева куба === | === Слой булева куба === | ||
Строка 271: | Строка 275: | ||
Уже самый нижний слой хэммингова шара содержит слишком много алгоритмов, поэтому хэмминговы шаров вряд ли могут служить адекватными моделями нижних слоёв реальных семейств. | Уже самый нижний слой хэммингова шара содержит слишком много алгоритмов, поэтому хэмминговы шаров вряд ли могут служить адекватными моделями нижних слоёв реальных семейств. | ||
+ | |||
+ | Точные оценки вероятности переобучения для хэммингова шара и его слоёв получены Ильёй Толстихиным. | ||
=== Монотонная многомерная сетка алгоритмов === | === Монотонная многомерная сетка алгоритмов === | ||
- | Монотонная | + | Монотонная сетка алгоритмов является многомерным обобщением монотонной цепочки алгоритмов. |
+ | Монотонная <tex>h</tex>-мерная сетка является моделью связного семейства алгоритмов с <tex>h</tex> непрерывными параметрами. | ||
+ | Есть основания полагать, что нижние слои монотонных сеток могут быть использованы в качестве достаточно адекватных моделей реальных семейств, при надлежащем подборе параметра размерности <tex>h</tex>. | ||
+ | |||
+ | Точные оценки вероятности переобучения для монотонных и унимодальных многомерных сеток получены Павлом Ботовым. | ||
+ | |||
+ | [[Изображение:MonotoneLattice.png|thumb|center|600px|'''Слева:''' одномерная монотонная сетка высоты 3 (монотонная цепочка). '''Справа:''' двумерная монотонная сетка высоты 3. Горизонтальные линии отмечают слои — число ошибок на полной выборке. Объекты вдоль стрелок означают, что переход от нижнего алгоритма к верхнему связан с появлением ошибки на данном объекте.]] | ||
=== Унимодальная многомерная сетка алгоритмов === | === Унимодальная многомерная сетка алгоритмов === | ||
+ | Унимодальная сетка алгоритмов является более адекватной моделью связного семейства алгоритмов с <tex>h</tex> непрерывными параметрами. В отличие от монотонной сетки предполагается, что отклонение любого параметра от оптимального значения ''в обе стороны'' должно приводить к увеличению числа ошибок. | ||
+ | |||
+ | Вероятность переобучения унимодальной сетки приблизительно равно вероятности переобучения монотонной сетки удвоенной размерности. | ||
== Методы получения точных оценок переобучения == | == Методы получения точных оценок переобучения == |
Версия 14:33, 3 мая 2010
Данный виртуальный семинар предназначен для обсуждения
- эффектов расслоения и сходства в семействах алгоритмов классификации;
- влияния этих эффектов на обобщающую способность;
- математических техник, позволяющих учитывать эти эффекты в оценках вероятности переобучения.
Как были выявлены эффекты расслоения и сходства
Точные оценки вероятности переобучения необходимы для создания методов обучения по прецедентам, гарантирующих высокое качество классификации новых объектов, не вошедших в обучающую выборку. Получение точных оценок обобщающей способности остаётся открытой проблемой в теории статистического обучения уже более 40 лет, начиная с VC-теории, предложенной В. Н. Вапником и А. Я. Червоненкисом. Наиболее точные из известных оценок всё ещё сильно завышены.
VC-теория
Основной задачей в VC-теории считается получение верхних оценок для функционала
где
- — семейство алгоритмов, из которого по обучающей выборке выбирается некоторый конкретный алгоритм;
- — вероятность ошибки алгоритма ;
- — частота ошибок алгоритма на независимой обучающей выборке длины ;
- — некоторая неизвестная вероятностная мера на множестве объектов.
У этого функционала есть несколько недостатков.
- Если вероятностная мера неизвестна, то измерить функционал непосредственно в эксперименте очень трудно, поскольку невозможно идентифицировать наступление события . А экспериментальное измерение необходимо для количественного анализа и понимания причин завышенности оценок. Выход заключается в том, чтобы вместо оценивать — частоту ошибок алгоритма на независимой контрольной выборке произвольной длины . Тогда эмпирическое измерение функционала становится возможным, например, методом Монте-Карло — путём генерации некоторого числа случайных разбиений полной выбоки на обучение и контроль. Здесь через обозначена длина полной выборки.
- Супремум в VC-теории вводится для того, чтобы получить наиболее общую оценку, не зависящую от конкретного метода обучения , который по обучающей выборке находит алгоритм . Однако на самом деле было бы правильнее оценивать вероятность переобучения, то есть вероятность события , где разность называется переобученностью. Введение супремума уже само по себе приводит к верхней оценке вероятности переобучения. Эта оценка может оказаться сильно завышенной, поскольку при решении прикладных задач методы обучения возвращают не любые алгоритмы из , а лишь те, которые в определённом смысле «похожи» на восстанавливаемую зависимость.
- Наконец, имеет смысл оценивать сверху саму переобученность, а не её абсолютную величину, поскольку частоту ошибок на контрольной выборке хотелось ограничивать именно сверху, а не снизу.
Понятие вероятности переобучения
Наиболее адекватным функционалом обобщающей способности является вероятность переобучения:
Этот функционал является локальной оценкой обобщающей способности, поскольку он зависит от метода обучения и полной выборки.
Термин переобучение понимается здесь в строго формальном смысле, как событие .
Вероятность понимается здесь и далее в смысле равномерного распределения на множестве всех разбиений неслучайной полной выбоки . Это позволяет применять чисто комбинаторные методы для получения оценок вероятности переобучения, и во многих случаях получать точные оценки (не завышенные, не асимптотические). См. также слабая вероятностная аксиоматика.
Основным объектом изучения в комбинаторно-дискретной постановке является бинарная матрица ошибок размера . Строки матрицы соотвествуют объектам полной выборки, столбцы — алгоритмам, значение означает, что алгоритм допускает ошибку на объекте . Столбец этой матрицы называется вектором ошибок алгоритма . Предполагается, что все векторы ошибок различны. Число столбцов в матрице ошибок называется также коэффициентом разнообразия (shattering coefficient) семейства алгоритмов.
В VC-теории доказывается верхняя оценка (при ), которая является сильно завышенной:
Правая часть зависит только от размерных характеристик матрицы ошибок , но не от её содержимого. Этих величин явно недостаточно, чтобы характеризовать столь «тонкий» процесс, как обучение по прецедентам. В этом и заключается основная концептуальная причина завышенности классических VC-оценок.
Первый эксперимент (на реальных данных)
В экспериментах на реальных задачах классификации удалось количественно оценить отдельные факторы завышенности классических VC-оценок.
Основные причины завышенности, в порядке убывания важности:
- Пренебрежение эффектом расслоения (или локализации) семейства алгоритмов. Чем хуже классификатор решает данную задачу, тем меньше шансов получить его в результате настройки по обучающей выборке. Это означает, что реально работает не всё семейство, а только какая-то его часть, своя в каждой задаче.
Степень завышенности: порядка , в зависимости от задачи. - Пренебрежение эффектом сходства алгоритмов. При выводе классических VC-оценок используется неравенство Буля (union bound) — оценка вероятности объединения событий суммой их вероятностей. Эта оценка становится чрезвычайно завышенной, если среди алгоритмов есть похожие.
Степень завышенности: порядка . Этот фактор всегда существенен и не так сильно зависит от задачи, как первый. - Экспоненциальная аппроксимация хвоста гипергеометрического распределения. Вроде бы точность аппроксимации увеличивается с ростом длины выборки — хвосты быстро стремятся к нулю. Однако относительная погрешность (отношение аппроксимированного значения к точному) с ростом выборки растёт! Отсюда вывод: при получении численно точных оценок не стоит пользоваться аппроксимациями.
Степень завышенности: порядка .
В экспериментах вычислялся также эффективный локальный коэффициент разнообразия (ЭЛКР). Это такое число , при котором VC-оценка не являлась бы завышенной. Для него были получены удивительно небольшие значения — порядка в разных задачах, в то время как число имело порядки .
Основные выводы:
- Завышенность VC-оценок обусловлена тем, что они учитывают только длину выборки и число различных алгоритмов , но не учитывают степень их различности, то есть полностью игнорируют содержимое матрицы ошибок.
- Для получения точных оценок необходимо одновременно учесть оба эффекта — и расслоение, и сходство.
- Ни одна из существовавших до сих пор теорий не в состоянии объяснить столь низких значений коэффициента разнообразия.
Второй эксперимент (на модельных данных)
Простейшим примером семейства алгоритмов с расслоением и связностью является монотонная цепочка алгоритмов. Оно строится следующим образом. Задаётся «лучший алгоритм», допускающий ошибок на полной выборке. Каждый следующий алгоритм допускает ошибки на тех же объектах, что и предыдущий , плюс ошибку ещё на одном объекте. Перестановкой строк можно добиться, чтобы матрица ошибок такого семейства содержала верхнюю треугольную подматрицу.
Монотонная цепочка алгоритмов является довольно реалистичной моделью связного семейства с одним непрерывным параметром: чем дальше значение параметра от оптимального значения, тем больше ошибок, но в силу непрерывности (и при гипотезе, что выборка находится «в общем положении») ошибка не может появиться сразу на нескольких объектах. Вообще, связным семейством будем называть такое множество алгоритмов, в котором для каждого алгоритма найдётся другой алгоритм, вектор ошибок которого отличается от данного только на одном объекте.
Монотонной цепочке можно поставить в соотвествие цепочку без расслоения. В этом семействе каждый следующий алгоритм также отличается от предыдущего только на одном объекте, но число ошибок, чередуясь, принимает лишь два значения: .
Каждому из этих двух семейств можно сопоставить не-цепочку. Чтобы разрушить эффект связности, достаточно в каждом столбце матрицы ошибок случайным образом переставить все элементы.
Итак, получается четыре модельных семейства, заданных непосредственно своими маатрицами ошибок. Для каждого из них вероятность переобучения нетрудно оценить методом Монте-Карло (у хороших студентов реализация такого экспериментального стенда занимает обычно около пары часов работы). Результаты сопоставляются на графиках зависимости вероятности переобучения от числа первых алгоритмов , из которых метод обучения выбирает алгоритм с наименьшей частотой ошибок на обучающей выборке. В VC-теории такой метод обучения называется минимизацией эмпирического риска.
Основные выводы:
- Связность заметно снижает темп роста зависимости .
- Расслоение понижает уровень горизонтальной асимптоты .
- Только при одновременном наличии и связности, и расслоения вероятность переобучения приемлемо мала, причём кривая «выходит на насыщение» после первых 5–7 алгоритмов. Основная масса «плохих» алгоритмов вообще не вносит вклад в переобучение.
- При отсутствии либо расслоения, либо связности переобучение наступает уже при нескольких десятках алгоритмов.
- Это означает, что реальные семейства, состоящие из огромного числа различных алгоритмов, с необходимостью должны быть расслоенными и связными.
- Семейство без расслоения и без связности — это и есть тот наихудший случай, который изучается в VC-теории.
Этот эксперимент показал направление дальнейших исследований: для получения точных оценок вероятности переобучения необходимо развивать методы, одновременно учитывающие эффекты расслоения и сходства в семействе алгоритмов.
Свойство расслоения
Определение. Расслоением семейства алгоритмов называется его разбиение на непересекающиеся подмножества — слои:
где -й слой есть подмножество алгоритмов с ошибками на полной выборке:
Используемые на практике семейства алгоритмов, как правило, универсальны, то есть предназначены для решения очень широкого класса задач. Однако нас интересует решение лишь одной фиксированной задачи, в частности, восстановление конкретной функциональной зависимости по выборке прецедентов . При фиксированной целевой зависимости подавляющее большинство алгоритмов допускают слишком много ошибок. Они практически никогда не будут выбираться методом обучения, каков бы ни был состав объектов в обучающей выборке. Эффективно работают лишь алгоритмы из нескольких нижних слоёв, остальная часть семейства фактически остаётся незадействованной.
Свойство связности
Определение. Связностью алгоритма называется число алгоритмов в следующем слое, вектор ошибок которых отличается от только на одном объекте
Многие параметрические семейства алгоритмов обладают следующим свойством: при изменении вектора параметров по некоторой непрерывной траектории каждое изменение вектора ошибок происходит только на одном объекте. Одновременное изменение нескольких координат возможно, но только для «редких» траекторий, образующих в пространстве траекторий множество меры нуль. В частности, этим свойством обладают классификаторы с непрерывной по параметрам разделяющей поверхностью: линейные классификаторы, SVM с непрерывными ядрами, нейронные сети с непрерывными функциями активации, решающие деревья с пороговыми условиями ветвления, и многие другие. J. Sill называет такие семейства связными, так как множество векторов ошибок всех алгоритмов семейства представляется в виде связного графа. E. Bax предлагает кластеризовать семейство на группы схожих классификаторов.
Граф расслоения-связности
Определение. Графом расслоения-связности семейства алгоритмов называется граф, вершины которого соответствуют векторам ошибок; рёбрами соединяются векторы ошибок, отличающиеся только на одном объекте (хэммингово расстояние между которыми равно 1). Этот граф можно рассматривать как ориентированный, если договориться, что рёбра направлены от алгоритмов с меньшим числом ошибок к алгоритмам с большим числом ошибок.
Граф расслоения-связности зависит от семейства алгоритмов и от конкретной выборки.
Пример. На следующих рисунках показан начальный фрагмент матрицы ошибок (три нижних слоя) и граф расслоения-связности, порождаемые семейством линейных классификаторов на выборке из 10 объектов, по 5 объектов в каждом классе.
0-й слой (1 корректный алгоритм): | 1-й слой (5 алгоритмов): | 2-й слой (8 алгоритмов): |
Матрица ошибок: | Граф расслоения-связности: |
Эксперименты с линейными классификаторами проведены Ильёй Решетняком.
О природе переобучения
Вообще, переобучение возникает из-за того, что решение о выборе лучшего алгоритма принимается по неполным данным — обучающей выборке , которая является лишь частью полной выборки .
Сделаем мысленный эксперимент. Представим, что все алгоритмы семейства имеют одинаковую вероятность ошибок. Тогда число ошибок на конечной выборке подчиняется биномиальному распределению, имеющему форму пика. Шансы отдельному алгоритму угодить в левый хвост распределения невелики. Однако чем больше алгоритмов мы будем брать, тем дальше влево будет смещаться минимальное (по всем взятым алгоритмам) число ошибок; тем больше будет разность между частотой и вероятностью ошибок у «лучшего» алгоритма. Это и есть переобучение.
Это всё так, если алгоритмы берутся из распределения случайно и независимо. Однако, если алгоритмы зависимы, то возникает надежда, что выбираемые алгоритмы будут концентрироваться гуще, и пик эмпирического распределения числа ошибок окажется более узким. В реальной ситуации алгоритмы зависимы, причём очень сильно, благодаря свойствам расслоения и сходства.
Точные оценки вероятности переобучения
Точные оценки вероятности переобучения в настоящее время удалось получить для ряда модельных семейств алгоритмов. Все эти семейства являются «искусственными» в том смысле, что они задаются непосредственно бинарной матрицей ошибок, а не каким-либо реальным семейством алгоритмов и реальной выборкой. В некоторых случаях удаётся строить примеры выборок, для которых порождаются именно такие матрицы ошибок. Однако число этих случаев исчезающе мало в сравнении с числом всевозможных матриц, порождаемых реальными задачами обучения. Все модельные семейства отличаются некоторой «регулярностью» или симметрией, которой, как правило, не обладают реальные семейства. Тем не менее, изучение модельных семейств представляется перспективным по нескольким причинам.
- Во-первых, они хорошо иллюстрируют эффекты расслоения и связности.
- Во-вторых, на них отрабатываются математические приёмы, которые могут оказаться полезными при получении оценок более общего вида.
- В-третьих, рассмотрение большого числа разнообразных частных случаев ведёт к постепенному обобщению модельных семейств и получению оценок, неплохо аппроксимирующих вероятность переобучения реальных семейств. Такой путь развития комбинаторной теории переобучения представляется наиболее реалистичным.
Один алгоритм
Если множество алгоритмов состоит из единственного элемента, , то именно он и возвращается методом обучения при любой обучающей выборке. Собственно, никакого обучения нет. Этот случай интересен тем, что вероятность переобучения выражается через гипергеометрическое распределение и является точной.
где
- — число ошибок алгоритма на полной выборке;
- — левый «хвост» гипергеометрического распределения.
Эта оценка является аналогом закона больших чисел в слабой вероятностной аксиоматике.
Эта оценка является «строительным блоком» для многих более сложных случаев.
Эта оценка является ненаблюдаемой, поскольку правая часть зависит от числа ошибок на контрольной выборки, которая скрыта в момент обучения. Однако, зная число ошибок на обучающей выборке , нетрудно построить доверительный интервал для неизвестной величины .
Пара алгоритмов
Множество алгоритмов состоит из двух элементов, . Задаётся три параметра:
- — число объектов полной выборки, на которых только допускает ошибку;
- — число объектов полной выборки, на которых только допускает ошибку;
- — число объектов полной выборки, на которых оба алгоритма допускают ошибку.
Это первый частный случай, для которого была получена точная комбинаторная оценка вероятности переобучения. Оценка доказывается путём довольно элементарных комбинаторных рассуждений.
Оценка зависит от ненаблюдаемых параметров . Зная соотвествующие три величины на обучающей выборке , нетрудно построить доверительную область для неизвестных величин .
Основные выводы:
- Если два алгоритма почти одинаковы, то переобучения почти нет (эффект сходства).
- Если один из двух алгоритмов существенно лучше другого, то переобучения почти нет (эффект расслоения).
- Переобучение максимально и достигает VC-оценки только когда алгоритмы максимально плохи (каждый допускает ошибки на половине объектов) и максимально различны.
Монотонная цепочка алгоритмов
Монотонная цепочка алгоритмов является моделью связного семейства с одним непрерывным параметром. Это именно то модельное семейство, которое использовалось во втором эксперименте (см. выше).
Основные выводы:
- Монотонная цепочка почти не переобучается
- Нескольких алгоритмов с наименьшим числом ошибок уже достаточно, чтобы очень точно вычислить вероятность переобучения монотонной цепочки.
Унимодальная цепочка алгоритмов
Унимодальная цепочка алгоритмов является более реалистичной моделью связного семейства с одним непрерывным параметром, по сравнению с монотонной цепочкой. Представляется естественным, что если непрерывный параметр имеет оптимальное значение, то отклонение от него в обе стороны — как в сторону возрастания, так и в сторону убывания — приводит к росту числа ошибок на полной выборке.
Получение точной оценки для унимодальной цепочки технически гораздо сложнее, чем для монотонной цепочки.
Единичная окрестность лучшего алгоритма
Единичная окрестность лучшего алгоритма — это множество алгоритмов, состоящее из фиксированного алгоритма, называемого «лучшим», и некоторого числа алгоритмов, допускающих ошибки на тех же объектах, что и «лучший» алгоритм, плюс ещё на каком-то одном объекте.
Связка монотонных цепочек
Это семейство является обобщением трёх предыдущих. Унимодальная цепочка — это связка из двух монотонных цепочек. Единичная окрестность — это связка из цепочек длины 2.
Точные оценки вероятности переобучения для связки монотонных цепочек получены Александром Фреем.
Слой булева куба
Слой булева куба — это множество всех алгоритмов, векторы ошибок которых содержат ровно единиц. Это пример семейства без расслоения. Оценка вероятности переобучения в этом случае является вырожденной и принимает только значения 0 или 1:
Интервал булева куба и его расслоение
Интервал булева куба ранга — это множество алгоритмов, векторы ошибок которых определяются двумя множествами объектов:
- «плохих» объектов, на которых все алгоритмы допускают ошибку;
- «пограничных» объектов, на которых алгоритмы данного семейства допускают ошибки всеми возможными способами;
- остальные объектов являются «хорошими»: на них ни один из алгоритмов не допускает ошибок.
Интервал булева куба содержит ровно алгоритмов.
Точная оценка получена как для интервала, так и для нижних слоёв интервала (это множество из алгоритмов).
Основные выводы:
- Вероятность переобучения очень быстро растёт по и по . Доля «пограничных» объектов в выборке практически гарантированно добавляется к величине переобученности.
- Гипотеза о существовании пограничного слоя объектов выглядит весьма разумной для задач классификации. Однако в реальных семействах, скорее всего, реализуются далеко не все дихотомии множества пограничных объектов (иначе переобучение было бы слишком велико). Полный интервал булева куба вряд ли может служить адекватной моделью задач с пограничными объектами, а небольшое количество нижних слоёв интервала — вполне может.
Хэммингов шар и его расслоение
Хэммингов шар радиуса — это множество векторов ошибок, отличающихся от заданного вектора не более чем на объектах.
Хэммингов шар является моделью максимально плотного связного семейства с расслоением. Слой хэммингова шара (пересечение шара со слоем булева куба) является моделью максимально плотного связного семейства без расслоения. Поэтому оценку вероятности переобучения для слоя шара возможно использовать как нижнюю оценку вероятность переобучения для слоя заданной мощности .
Уже самый нижний слой хэммингова шара содержит слишком много алгоритмов, поэтому хэмминговы шаров вряд ли могут служить адекватными моделями нижних слоёв реальных семейств.
Точные оценки вероятности переобучения для хэммингова шара и его слоёв получены Ильёй Толстихиным.
Монотонная многомерная сетка алгоритмов
Монотонная сетка алгоритмов является многомерным обобщением монотонной цепочки алгоритмов. Монотонная -мерная сетка является моделью связного семейства алгоритмов с непрерывными параметрами. Есть основания полагать, что нижние слои монотонных сеток могут быть использованы в качестве достаточно адекватных моделей реальных семейств, при надлежащем подборе параметра размерности .
Точные оценки вероятности переобучения для монотонных и унимодальных многомерных сеток получены Павлом Ботовым.
Унимодальная многомерная сетка алгоритмов
Унимодальная сетка алгоритмов является более адекватной моделью связного семейства алгоритмов с непрерывными параметрами. В отличие от монотонной сетки предполагается, что отклонение любого параметра от оптимального значения в обе стороны должно приводить к увеличению числа ошибок.
Вероятность переобучения унимодальной сетки приблизительно равно вероятности переобучения монотонной сетки удвоенной размерности.
Методы получения точных оценок переобучения
Метод порождающих и запрещающих множеств
Рекуррентный метод
Блочный метод
Метод цепных разложений
Теоретико-групповой подход
Неравенства Бонферрони-Галамбоса
Профиль расслоения и связности
Список открытых проблем, оформленный в виде задач по спецкурсу «Теория надёжности обучения по прецедентам». (PDF, 180 КБ). |
Литература
- Воронцов, К. В. Комбинаторная теория надёжности обучения по прецедентам: Дис. док. физ.-мат. наук: 05-13-17. — Вычислительный центр РАН, 2010. — 271 с. (подробнее)
- Sill J. Generalization bounds for connected function classes.
- Bax E. T. Similar classifiers and VC error bounds: Tech. Rep. CalTech-CS-TR97-14:6 1997.
- Langford J. Quantitatively tight sample complexity bounds. — 2002. — Carnegie Mellon Thesis.
См. также
- Теория Вапника-Червоненкиса
- Слабая вероятностная аксиоматика
- Теория надёжности обучения по прецедентам (курс лекций, К.В.Воронцов)
- К. В. Воронцов — страница на MachineLearning.RU.
- К. В. Воронцов — страница на сайте ВЦ РАН.
Это незавершённая статья о незавершённом исследовании. |