Алгоритм LOWESS
Материал из MachineLearning.
 (→Постановка задачи)  | 
			|||
| Строка 7: | Строка 7: | ||
=== Постановка задачи ===  | === Постановка задачи ===  | ||
| - | Решается задача восстановления регрессии. Задано пространство объектов <tex>X</tex> и множество возможных ответов <tex>Y</tex>.   | + | Решается задача восстановления регрессии. Задано пространство объектов <tex>X</tex> и множество возможных   | 
| - | Существует неизвестная целевая зависимость <tex> y^*: X \rightarrow Y</tex>, значения которой известны   | + | ответов <tex>Y</tex>. Существует неизвестная целевая зависимость <tex> y^*: X \rightarrow Y</tex>,   | 
| - | только на объектах обучающей выборки <tex> X^m={(x_i, y_i)}_1^m</tex>   | + | значения которой известны только на объектах обучающей выборки <tex> X^m={(x_i, y_i)}_1^m</tex>   | 
Требуется построить алгоритм <tex>a: X \rightarrow Y </tex>, аппроксимирующий целевую зависимость <tex>y^*</tex>.  | Требуется построить алгоритм <tex>a: X \rightarrow Y </tex>, аппроксимирующий целевую зависимость <tex>y^*</tex>.  | ||
| + | Непараметрическое восстановление регрессии основано на идее, что значение <tex>a(x)</tex> вычисляется   | ||
| + | для каждого объекта <tex>x</tex> по нескольким ближайшим к нему объектам обучающей выборки.  | ||
=== Вход ===  | === Вход ===  | ||
Версия 20:24, 28 декабря 2009
|   |  Статья плохо доработана. | 
Алгоритм LOWESS (locally weighted scatter plot smoothing) - локально взвешенное сглаживание.
Содержание | 
Постановка задачи
Решается задача восстановления регрессии. Задано пространство объектов  и множество возможных 
ответов 
. Существует неизвестная целевая зависимость 
, 
значения которой известны только на объектах обучающей выборки 
 
Требуется построить алгоритм 
, аппроксимирующий целевую зависимость 
.
Непараметрическое восстановление регрессии основано на идее, что значение  вычисляется 
для каждого объекта 
 по нескольким ближайшим к нему объектам обучающей выборки.
Вход
 - обучающая выборка
Выход
Коэффициенты 
Алгоритм
1: инициализация
2: повторять 3: вычислить оценки скользящего контроля на каждом объекте:
4:    вычислить коэффициенты :
;
5: пока коэффициенты  не стабилизируются
Коэффициенты , как и ошибки 
, зависят от функции 
, которая, в свою очередь, зависит от 
. Разумеется, это не "порочный круг", а хороший повод для организации итерационного процесса. На каждой итерации строится функция 
, затем уточняются весовые множители 
. Как правило, этот процесс сходится довольно быстро.
Литература
- Воронцов К.В. Лекции по алгоритмам восстановления регрессии. — 2007.
 
См. также
|   |  Данная статья является непроверенным учебным заданием.
 До указанного срока статья не должна редактироваться другими участниками проекта MachineLearning.ru. По его окончании любой участник вправе исправить данную статью по своему усмотрению и удалить данное предупреждение, выводимое с помощью шаблона {{Задание}}. См. также методические указания по использованию Ресурса MachineLearning.ru в учебном процессе.  | 
→

