Алгоритм LOWESS
Материал из MachineLearning.
(→Оптимизация ширины окна) |
(→Алгоритм) |
||
Строка 58: | Строка 58: | ||
==== Алгоритм ==== | ==== Алгоритм ==== | ||
- | 1: инициализация | + | :1: инициализация |
::<tex>\gamma_i:=1, i=1,\ldots,m</tex> | ::<tex>\gamma_i:=1, i=1,\ldots,m</tex> | ||
- | 2: '''повторять''' | + | :2: '''повторять''' |
- | 3: вычислить оценки скользящего контроля на каждом объекте: | + | :3: вычислить оценки скользящего контроля на каждом объекте: |
::<tex>a_i:=a_h\( x_i;X^m\setminus\{x_i\} \)=\frac{\sum_{j=1,j\ne i}^m y_j\gamma_j w_j}{\sum_{j=1,j\ne i}^m \gamma_j w_j },\;i=1,\ldots,m</tex> | ::<tex>a_i:=a_h\( x_i;X^m\setminus\{x_i\} \)=\frac{\sum_{j=1,j\ne i}^m y_j\gamma_j w_j}{\sum_{j=1,j\ne i}^m \gamma_j w_j },\;i=1,\ldots,m</tex> | ||
- | 4: вычислить новые значения коэффициентов <tex>\gamma_i</tex>: | + | :4: вычислить новые значения коэффициентов <tex>\gamma_i</tex>: |
::<tex>\gamma_i:=\bar{K}( \| a_i\;-\;y_i\| ) ,\;i=1,\ldots,m</tex>; | ::<tex>\gamma_i:=\bar{K}( \| a_i\;-\;y_i\| ) ,\;i=1,\ldots,m</tex>; | ||
- | 5: '''пока''' коэффициенты <tex>\gamma_i</tex> не стабилизируются | + | :5: '''пока''' коэффициенты <tex>\gamma_i</tex> не стабилизируются |
Коэффициенты <tex>\gamma_i</tex>, как и ошибки <tex>\varepsilon_i</tex>, зависят от функции <tex>a_h</tex>, которая, | Коэффициенты <tex>\gamma_i</tex>, как и ошибки <tex>\varepsilon_i</tex>, зависят от функции <tex>a_h</tex>, которая, | ||
Строка 71: | Строка 71: | ||
затем уточняются весовые множители <tex>\gamma_i</tex>. Как правило, этот процесс сходится довольно быстро. | затем уточняются весовые множители <tex>\gamma_i</tex>. Как правило, этот процесс сходится довольно быстро. | ||
Он называется локально взвешенным сглаживанием (locally weighted scatter plot smoothing, LOWESS). | Он называется локально взвешенным сглаживанием (locally weighted scatter plot smoothing, LOWESS). | ||
- | |||
- | |||
==Литература== | ==Литература== |
Версия 11:21, 31 декабря 2009
Статья плохо доработана. |
Алгоритм LOWESS (locally weighted scatter plot smoothing) - локально взвешенное сглаживание.
Содержание |
Постановка задачи
Решается задача восстановления регрессии. Задано пространство объектов и множество возможных ответов . Существует неизвестная целевая зависимость , значения которой известны только на объектах обучающей выборки . Требуется построить алгоритм , аппроксимирующий целевую зависимость .
Непараметрическая регрессия
Непараметрическое восстановление регрессии основано на идее, что значение вычисляется для каждого объекта по нескольким ближайшим к нему объектам обучающей выборки.
В формуле Надарая–Ватсона для учета близости объектов обучающей выборки к объекту предлагалось использовать невозрастающую, гладкую, ограниченную функцию , называемую ядром:
Параметр называется шириной ядра или шириной окна сглаживания. Чем меньше , тем быстрее будут убывать веса по мере удаления от . В общем случае зависит от объекта , т.е. . Тогда веса вычисляются по формуле
Оптимизация ширины окна
Чтобы оценить при данном и точность локальной аппроксимации в точке , саму эту точку необходимо исключить из обучающей выборки. Если этого не делать, минимум ошибки будет достигаться при . Такой способ оценивания оптимальной ширины окна называется скользящим контролем с исключением объектов по одному (leave-one-out, LOO):
Проблема выбросов
Оценка Надарайя–Ватсона крайне чувствительна к большим одиночным выбросам. На практике легко идентифицируются только грубые ошибки, возникающие, например, в результате сбоя оборудования или невнимательности персонала при подготовке данных. В общем случае можно лишь утверждать, что чем больше величина ошибки
тем в большей степени прецедент является выбросом , и тем меньше должен быть его вес. Эти соображения приводят к идее домножить веса на коэффициенты , где — ещё одно ядро, вообще говоря, отличное от .
Алгоритм LOWESS
Вход
- обучающая выборка;
весовые функции;
Выход
Коэффициенты
Алгоритм
- 1: инициализация
- 2: повторять
- 3: вычислить оценки скользящего контроля на каждом объекте:
- 4: вычислить новые значения коэффициентов :
- ;
- 5: пока коэффициенты не стабилизируются
Коэффициенты , как и ошибки , зависят от функции , которая, в свою очередь, зависит от . На каждой итерации строится функция , затем уточняются весовые множители . Как правило, этот процесс сходится довольно быстро. Он называется локально взвешенным сглаживанием (locally weighted scatter plot smoothing, LOWESS).
Литература
- Воронцов К.В. Лекции по алгоритмам восстановления регрессии. — 2007.
См. также
- Непараметрическая регрессия
- Регрессионный анализ
- Local regression
- Расин, Джеффри (2008) «Непараметрическая эконометрика: вводный курс», Квантиль, №4, стр. 7–56.
Данная статья является непроверенным учебным заданием.
До указанного срока статья не должна редактироваться другими участниками проекта MachineLearning.ru. По его окончании любой участник вправе исправить данную статью по своему усмотрению и удалить данное предупреждение, выводимое с помощью шаблона {{Задание}}. См. также методические указания по использованию Ресурса MachineLearning.ru в учебном процессе. |
→