Алгоритм LOWESS
Материал из MachineLearning.
| Строка 6: | Строка 6: | ||
'''Алгоритм LOWESS''' ''(locally weighted scatter plot smoothing)'' - локально взвешенное сглаживание.  | '''Алгоритм LOWESS''' ''(locally weighted scatter plot smoothing)'' - локально взвешенное сглаживание.  | ||
| + | === Постановка задачи ===  | ||
Решается задача восстановления регрессии. Задано пространство объектов <tex>X</tex> и множество возможных ответов <tex>Y</tex>.   | Решается задача восстановления регрессии. Задано пространство объектов <tex>X</tex> и множество возможных ответов <tex>Y</tex>.   | ||
Существует неизвестная целевая зависимость <tex> y^*: X \rightarrow Y</tex>, значения которой известны   | Существует неизвестная целевая зависимость <tex> y^*: X \rightarrow Y</tex>, значения которой известны   | ||
только на объектах обучающей выборки <tex> X^m={(x_i, y_i)}_1^m</tex>   | только на объектах обучающей выборки <tex> X^m={(x_i, y_i)}_1^m</tex>   | ||
Требуется построить алгоритм <tex>a: X \rightarrow Y </tex>, аппроксимирующий целевую зависимость <tex>y^*</tex>.  | Требуется построить алгоритм <tex>a: X \rightarrow Y </tex>, аппроксимирующий целевую зависимость <tex>y^*</tex>.  | ||
| + | |||
=== Вход ===  | === Вход ===  | ||
Версия 19:46, 28 декабря 2009
|   |  Статья плохо доработана. | 
Алгоритм LOWESS (locally weighted scatter plot smoothing) - локально взвешенное сглаживание.
Содержание | 
Постановка задачи
Решается задача восстановления регрессии. Задано пространство объектов  и множество возможных ответов 
. 
Существует неизвестная целевая зависимость 
, значения которой известны 
только на объектах обучающей выборки 
 
Требуется построить алгоритм 
, аппроксимирующий целевую зависимость 
.
Вход
 - обучающая выборка
Выход
Коэффициенты 
Алгоритм
1: инициализация
2: повторять 3: вычислить оценки скользящего контроля на каждом объекте:
4:    вычислить коэффициенты :
;
5: пока коэффициенты  не стабилизируются
Коэффициенты , как и ошибки 
, зависят от функции 
, которая, в свою очередь, зависит от 
. Разумеется, это не "порочный круг", а хороший повод для организации итерационного процесса. На каждой итерации строится функция 
, затем уточняются весовые множители 
. Как правило, этот процесс сходится довольно быстро.
Литература
- Воронцов К.В. Лекции по алгоритмам восстановления регрессии. — 2007.
 
См. также
|   |  Данная статья является непроверенным учебным заданием.
 До указанного срока статья не должна редактироваться другими участниками проекта MachineLearning.ru. По его окончании любой участник вправе исправить данную статью по своему усмотрению и удалить данное предупреждение, выводимое с помощью шаблона {{Задание}}. См. также методические указания по использованию Ресурса MachineLearning.ru в учебном процессе.  | 
→

