Алгоритм LOWESS
Материал из MachineLearning.
(→Постановка задачи) |
|||
Строка 7: | Строка 7: | ||
=== Постановка задачи === | === Постановка задачи === | ||
- | Решается задача восстановления регрессии. Задано пространство объектов <tex>X</tex> и множество возможных ответов <tex>Y</tex>. | + | Решается задача восстановления регрессии. Задано пространство объектов <tex>X</tex> и множество возможных |
- | Существует неизвестная целевая зависимость <tex> y^*: X \rightarrow Y</tex>, значения которой известны | + | ответов <tex>Y</tex>. Существует неизвестная целевая зависимость <tex> y^*: X \rightarrow Y</tex>, |
- | только на объектах обучающей выборки <tex> X^m={(x_i, y_i)}_1^m</tex> | + | значения которой известны только на объектах обучающей выборки <tex> X^m={(x_i, y_i)}_1^m</tex> |
Требуется построить алгоритм <tex>a: X \rightarrow Y </tex>, аппроксимирующий целевую зависимость <tex>y^*</tex>. | Требуется построить алгоритм <tex>a: X \rightarrow Y </tex>, аппроксимирующий целевую зависимость <tex>y^*</tex>. | ||
+ | Непараметрическое восстановление регрессии основано на идее, что значение <tex>a(x)</tex> вычисляется | ||
+ | для каждого объекта <tex>x</tex> по нескольким ближайшим к нему объектам обучающей выборки. | ||
=== Вход === | === Вход === |
Версия 20:24, 28 декабря 2009
Статья плохо доработана. |
Алгоритм LOWESS (locally weighted scatter plot smoothing) - локально взвешенное сглаживание.
Содержание |
Постановка задачи
Решается задача восстановления регрессии. Задано пространство объектов и множество возможных ответов . Существует неизвестная целевая зависимость , значения которой известны только на объектах обучающей выборки Требуется построить алгоритм , аппроксимирующий целевую зависимость .
Непараметрическое восстановление регрессии основано на идее, что значение вычисляется для каждого объекта по нескольким ближайшим к нему объектам обучающей выборки.
Вход
- обучающая выборка
Выход
Коэффициенты
Алгоритм
1: инициализация
2: повторять 3: вычислить оценки скользящего контроля на каждом объекте:
4: вычислить коэффициенты :
- ;
5: пока коэффициенты не стабилизируются
Коэффициенты , как и ошибки , зависят от функции , которая, в свою очередь, зависит от . Разумеется, это не "порочный круг", а хороший повод для организации итерационного процесса. На каждой итерации строится функция , затем уточняются весовые множители . Как правило, этот процесс сходится довольно быстро.
Литература
- Воронцов К.В. Лекции по алгоритмам восстановления регрессии. — 2007.
См. также
Данная статья является непроверенным учебным заданием.
До указанного срока статья не должна редактироваться другими участниками проекта MachineLearning.ru. По его окончании любой участник вправе исправить данную статью по своему усмотрению и удалить данное предупреждение, выводимое с помощью шаблона {{Задание}}. См. также методические указания по использованию Ресурса MachineLearning.ru в учебном процессе. |
→