Скользящий контроль
Материал из MachineLearning.
м (Исправлена неточность) |
м (→Полный скользящий контроль (complete CV)) |
||
(2 промежуточные версии не показаны) | |||
Строка 116: | Строка 116: | ||
=== Полный скользящий контроль (complete CV) === | === Полный скользящий контроль (complete CV) === | ||
- | Оценка скользящего контроля строится по всем <tex>N=C_L^k</tex> разбиениям. | + | Оценка скользящего контроля строится по всем <tex>N=C_L^k</tex> разбиениям. В зависимости от <tex>k</tex> (длины обучающей выборки) различают: |
- | + | ||
- | На практике чаще применяются другие разновидности скользящего контроля. | + | * Частный случай при <tex>k=1</tex> — [[Скользящий контроль#Контроль по отдельным объектам (leave-one-out CV)|контроль по отдельным объектам (leave-one-out CV)]];<br /> |
+ | Было показано (Li,1987) , что контроль по отдельным объектом является асимптотически оптимальным при некоторых условиях<ref>[http://citeseer.ist.psu.edu/309025.html|Complete Cross-Validation for Nearest Neighbor Classifiers], С. 1137-1145</ref>, то есть:<br /> | ||
+ | |||
+ | <tex>\frac{L_n(\hat{m})}{\inf_{m \in M_n}L_n(m)} \rightarrow 1</tex> по вероятности,<br /> | ||
+ | |||
+ | где: | ||
+ | #<tex>M_n</tex> - класс сравниваемых моделей; | ||
+ | #<tex>L_n(m)</tex> - среднеквадратичная ошибка при выборе <tex>m</tex>-ой модели; | ||
+ | #<tex>\hat{m} = \arg \min_{m \in M_n}{CV(m)}</tex>. | ||
+ | |||
+ | * Общий случай при <tex>k>2</tex>. Здесь число разбиений <tex>N=C_L^k</tex> становится слишком большим даже при сравнительно малых значениях <tex>k</tex>, что затрудняет практическое применение данного метода. Для этого случая ''полный скользящий контроль'' используется либо в теоретических исследованиях (Воронцов,2004), либо в тех редких ситуациях, когда для него удаётся вывести эффективную вычислительную формулу. Например, такая формула известна для [[метод ближайших соседей|метода <i>k</i> ближайших соседей]] <ref>[http://citeseer.ist.psu.edu/309025.html|Complete Cross-Validation for Nearest Neighbor Classifiers], С. 1137-1145</ref>, что позволяет эффективно выбирать параметр <i>k</i>. На практике чаще применяются другие разновидности ''скользящего контроля''. | ||
=== Случайные разбиения === | === Случайные разбиения === | ||
Строка 131: | Строка 141: | ||
# Приходится слишком много объектов оставлять в контрольной подвыборке. Уменьшение длины обучающей подвыборки приводит к смещённой (пессимистически завышенной) оценке вероятности ошибки. | # Приходится слишком много объектов оставлять в контрольной подвыборке. Уменьшение длины обучающей подвыборки приводит к смещённой (пессимистически завышенной) оценке вероятности ошибки. | ||
# Оценка существенно зависит от разбиения, тогда как желательно, чтобы она характеризовала только алгоритм обучения. | # Оценка существенно зависит от разбиения, тогда как желательно, чтобы она характеризовала только алгоритм обучения. | ||
- | # Оценка имеет высокую дисперсию, которая может быть уменьшена путём усреднения по разбиениям. | + | # Оценка имеет высокую дисперсию, которая может быть уменьшена путём усреднения по разбиениям. |
+ | |||
+ | Следует различать скользящий контроль по отложенным данным и контроль по тестовой выборке. Если во втором случае оценивается вероятность ошибки для классификатора, построенного по обучающей подвыборке, то в первом случае - для классификатора, построенного по полной выборке (то есть доля ошибок вычисляется не для того классификатора, который выдается в качестве результата решения задачи). | ||
=== Контроль по отдельным объектам (leave-one-out CV) === | === Контроль по отдельным объектам (leave-one-out CV) === | ||
Строка 216: | Строка 228: | ||
<!-- | <!-- | ||
== Теоретические оценки == | == Теоретические оценки == | ||
- | == Ссылки == | + | == Ссылки == |
--> | --> | ||
+ | |||
+ | == Примечания == | ||
+ | <references /> | ||
== Литература == | == Литература == |
Текущая версия
Скользящий контроль или кросс-проверка или кросс-валидация (cross-validation, CV) — процедура эмпирического оценивания обобщающей способности алгоритмов, обучаемых по прецедентам.
Фиксируется некоторое множество разбиений исходной выборки на две подвыборки: обучающую и контрольную. Для каждого разбиения выполняется настройка алгоритма по обучающей подвыборке, затем оценивается его средняя ошибка на объектах контрольной подвыборки. Оценкой скользящего контроля называется средняя по всем разбиениям величина ошибки на контрольных подвыборках.
Если выборка независима, то средняя ошибка скользящего контроля даёт несмещённую оценку вероятности ошибки. Это выгодно отличает её от средней ошибки на обучающей выборке, которая может оказаться смещённой (оптимистически заниженной) оценкой вероятности ошибки, что связано с явлением переобучения.
Скользящий контроль является стандартной методикой тестирования и сравнения алгоритмов классификации, регрессии и прогнозирования.
Содержание |
Определения и обозначения
Рассматривается задача обучения с учителем.
Пусть — множество описаний объектов, — множество допустимых ответов.
Задана конечная выборка прецедентов .
Задан алгоритм обучения — отображение , которое произвольной конечной выборке прецедентов ставит в соответствие функцию (алгоритм) .
Качество алгоритма оценивается по произвольной выборке прецедентов с помощью функционала качества . Для процедуры скользящего контроля не важно, как именно вычисляется этот функционал. Как правило, он аддитивен по объектам выборки:
где — неотрицательная функция потерь, возвращающая величину ошибки ответа алгоритма при правильном ответе .
Процедура скользящего контроля
Выборка разбивается различными способами на две непересекающиеся подвыборки: , где — обучающая подвыборка длины m, — контрольная подвыборка длины , — номер разбиения.
Для каждого разбиения n строится алгоритм и вычисляется значение функционала качества . Среднее арифметическое значений по всем разбиениям называется оценкой скользящего контроля:
Различные варианты скользящего контроля отличаются видами функционала качества и способами разбиения выборки.
Доверительное оценивание
Кроме среднего значения качества на контроле строят также доверительные интервалы.
Непараметрическая оценка доверительного интервала. Строится вариационный ряд значений , :
Утверждение 1. Если разбиения осуществлялись случайно, независимо и равновероятно, то с вероятностью значение случайной величины не превосходит .
Следствие 1. Значение случайной величины не превосходит с вероятностью .
В частности, для получения верхней оценки с надёжностью 95% достаточно взять разбиений.
Утверждение 2. Если разбиения осуществлялись случайно, независимо и равновероятно, то с вероятностью значение случайной величины не выходит за границы доверительного интервала .
Следствие 2. Значение случайной величины не выходит за границы вариационного ряда с вероятностью .
В частности, для получения двусторонней оценки с надёжностью 95% достаточно взять разбиений.
Параметрические оценки доверительного интервала основаны на априорном предположении о виде распределения случайной величины . Если априорные предположения не выполняются, доверительный интервал может оказаться сильно смещённым. В частности, если предположения о нормальности распределения не выполнены, то нельзя пользоваться стандартным «правилом двух сигм» или «трёх сигм». Джон Лангфорд в своей диссертации (2002) указывает на распространённую ошибку, когда правило двух сигм применяется к функционалу частоты ошибок, имеющему на самом деле биномиальное распределение. Однако биномиальным распределением в общем случае тоже пользоваться нельзя, поскольку в результате обучения по случайным подвыборкам вероятность ошибки алгоритма оказывается случайной величиной. Следовательно, случайная величина описывается не биномиальным распределеним, а (неизвестной) смесью биномиальных распределений. Аппроксимация смеси биномиальным распределением может приводить к ошибочному сужению доверительного интервала. Приведённые выше непараметрические оценки лишены этого недостатка.
Стратификация
Стратификация выборки — это способ уменьшить разброс (дисперсию) оценок скользящего контроля, в результате чего получаются более узкие доверительные интервалы и более точные (tight) верхние оценки.
Стратификация заключается в том, чтобы заранее поделить выборку на части (страты), и при разбиении на обучение длины m и контроль длины k гарантировать, что каждая страта будет поделена между обучением и контролем в той же пропорции .
Стратификация классов в задачах классификации означает, что каждый класс делится между обучением и контролем в пропорции .
Стратификация по вещественному признаку. Объекты выборки сортируются согласно некоторому критерию, например, по возрастанию одного из признаков. Затем выборка разбивается на k последовательных страт одинаковой (с точностью до 1) длины. При формировании контрольных выборок из каждой страты выбирается по одному объекту, либо с заданным порядковым номером внутри страты, либо случайным образом.
Разновидности скользящего контроля
Возможны различные варианты скользящего контроля, отличающиеся способами разбиения выборки.
Полный скользящий контроль (complete CV)
Оценка скользящего контроля строится по всем разбиениям. В зависимости от (длины обучающей выборки) различают:
- Частный случай при — контроль по отдельным объектам (leave-one-out CV);
Было показано (Li,1987) , что контроль по отдельным объектом является асимптотически оптимальным при некоторых условиях[1], то есть:
по вероятности,
где:
- - класс сравниваемых моделей;
- - среднеквадратичная ошибка при выборе -ой модели;
- .
- Общий случай при . Здесь число разбиений становится слишком большим даже при сравнительно малых значениях , что затрудняет практическое применение данного метода. Для этого случая полный скользящий контроль используется либо в теоретических исследованиях (Воронцов,2004), либо в тех редких ситуациях, когда для него удаётся вывести эффективную вычислительную формулу. Например, такая формула известна для метода k ближайших соседей [1], что позволяет эффективно выбирать параметр k. На практике чаще применяются другие разновидности скользящего контроля.
Случайные разбиения
Разбиения выбираются случайно, независимо и равновероятно из множества всех разбиений. Именно для этого случая справедливы приведённые выше оценки доверительных интервалов. На практике эти оценки, как правило, без изменений переносится и на другие способы разбиения выборки.
Контроль на отложенных данных (hold-out CV)
Оценка скользящего контроля строится по одному случайному разбиению, .
Этот способ имеет существенные недостатки:
- Приходится слишком много объектов оставлять в контрольной подвыборке. Уменьшение длины обучающей подвыборки приводит к смещённой (пессимистически завышенной) оценке вероятности ошибки.
- Оценка существенно зависит от разбиения, тогда как желательно, чтобы она характеризовала только алгоритм обучения.
- Оценка имеет высокую дисперсию, которая может быть уменьшена путём усреднения по разбиениям.
Следует различать скользящий контроль по отложенным данным и контроль по тестовой выборке. Если во втором случае оценивается вероятность ошибки для классификатора, построенного по обучающей подвыборке, то в первом случае - для классификатора, построенного по полной выборке (то есть доля ошибок вычисляется не для того классификатора, который выдается в качестве результата решения задачи).
Контроль по отдельным объектам (leave-one-out CV)
Является частным случаем полного скользящего контроля при , соотвественно, . Это, пожалуй, самый распространённый вариант скользящего контроля.
Преимущества LOO в том, что каждый объект ровно один раз участвует в контроле, а длина обучающих подвыборок лишь на единицу меньше длины полной выборки.
Недостатком LOO является большая ресурсоёмкость, так как обучаться приходится раз. Некоторые методы обучения позволяют достаточно быстро перенастраивать внутренние параметры алгоритма при замене одного обучающего объекта другим. В этих случаях вычисление LOO удаётся заметно ускорить.
Контроль по q блокам (q-fold CV)
Выборка случайным образом разбивается на q непересекающихся блоков одинаковой (или почти одинаковой) длины :
Каждый блок по очереди становится контрольной подвыборкой, при этом обучение производится по остальным блокам. Критерий определяется как средняя ошибка на контрольной подвыборке:
Это компромисс между LOO, hold-out и случайными разбиениями. С одной стороны, обучение производится только q раз вместо L. С другой стороны, длина обучающих подвыборок, равная с точностью до округления, не сильно отличается от длины полной выборки L. Обычно выборку разбивают случайным образом на 10 или 20 блоков.
Контроль по r×q блокам (r×q-fold CV)
Контроль по q блокам (q-fold CV) повторяется r раз. Каждый раз выборка случайным образом разбивается на q непересекающихся блоков. Этот способ наследует все преимущества q-fold CV, при этом появляется дополнительная возможность увеличивать число разбиений.
Данный вариант скользящего контроля, со стратификацией классов, является стандартной методикой тестирования и сравнения алгоритмов классификации. В частности, он применяется в системах WEKA и «Полигон алгоритмов».
Скользящий контроль в задачах прогнозирования
В задачах прогнозирования, динамического обучения, обучения с подкреплением и активного обучения прецеденты изначально линейно упорядочены по времени их появления. В этом случае варианты скользящего контроля не так разнообразны.
Контроль при нарастающей длине обучения
Обучающая подвыборка образуется всеми прошлыми объектами . Контрольная подвыборка образуется всеми будущими объектами , где — величина зедержки прогнозирования (обычно ). Момент «настоящего времени» n «скользит» по выборке данных:
где — минимальная длина обучающей выборки, требуемая для нормальной работы алгоритма обучения , .
Поскольку длина обучения увеличивается со временем, точность прогнозов может постепенно улучшаться. Этот побочный эффект является нежелательным, если скользящий контроль применяется для оценивания качества алгоритма обучения.
Контроль при фиксированной длине обучения
Отличается от предыдущего варианта только тем, что длина обучения m фиксируется, ограничивась последними m прецедентами ряда: . При этом полагают .
Недостатки скользящего контроля
- Задачу обучения приходится решать N раз, что сопряжено со значительными вычислительными затратами.
- Оценка скользящего контроля предполагает, что алгоритм обучения уже задан. Она ничего не говорит о том, какими свойствами должны обладать «хорошие» алгоритмы обучения, и как их строить. Такого рода подсказки дают, например, теоретические оценки обобщающей способности.
- Попытка использовать скользящий контроль для обучения, в роли оптимизируемого критерия, приводит к тому, что он утрачивает свойство несмещённости, и снова возникает риск переобучения.
- Скользящий контроль дает несмещенную точечную, но не интервальную оценку риска. В настоящее время не существует методов построения на основе скользящего контроля точных доверительных интервалов для риска, то есть математического ожидания потерь (в частности, вероятности ошибочной классификации).
Применения скользящего контроля
На практике скользящий контроль применяется для оптимизации некоторых критически важных параметров, как правило, определяющих структуру или сложность используемой модели алгоритма, и имеющих относительно небольшое число возможных значений.
Примеры:
- Выбор модели алгоритмов из небольшого множества альтернативных вариантов.
- Оптимизация параметра регуляризации, в частности:
- параметра регуляризации в гребневой регрессии;
- параметра сокращения весов (weight decay) в нейронных сетях;
- параметра C в методе опорных векторов.
- Оптимизация ширины окна в методах
- Оптимизация числа нейронов в скрытом слое многослойной нейронной сети.
- Выбор информативного набора признаков.
- Редукция решающего дерева.
- Структурная минимизация риска.
Примечания
Литература
- Воронцов К. В. Комбинаторный подход к оценке качества обучаемых алгоритмов. — Математические вопросы кибернетики / Под ред. О. Б. Лупанов. — М.: Физматлит, 2004. — T. 13. — С. 5–36.
- Эфрон Б. Нетрадиционные методы многомерного статистического анализа. — М: Финансы и статистика. — 1988.
- Langford J. Quantitatively Tight Sample Complexity Bounds. — Carnegie Mellon Thesis. — 2002. — 124 с.
- Kohavi R. A Study of Cross-Validation and Bootstrap for Accuracy Estimation and Model Selection. — 14th International Joint Conference on Artificial Intelligence, Palais de Congres Montreal, Quebec, Canada. — 1995. — С. 1137-1145.
- Mullin M., Sukthankar R. Complete Cross-Validation for Nearest Neighbor Classifiers. — Proceedings of International Conference on Machine Learning. — 2000. — С. 1137-1145.