Непараметрическая регрессия: ядерное сглаживание
Материал из MachineLearning.
м (→Последовательность весов: формулы) |
м (→См. также) |
||
(4 промежуточные версии не показаны) | |||
Строка 20: | Строка 20: | ||
::<tex>\int K(u)du=1</tex> | ::<tex>\int K(u)du=1</tex> | ||
=== Последовательность весов === | === Последовательность весов === | ||
- | Последовательность весов для ядерных оценок (для одномерного <tex>x</tex>) определяется как ::<tex>W_{mi}(x)=\frac{K_{h_m}(x | + | Последовательность весов для ядерных оценок (для одномерного <tex>x</tex>) определяется как ::<tex>W_{mi}(x)=\frac{K_{h_m}(x-X_i)}{\hat{f}_{h_m}(x)}</tex>, |
где | где | ||
- | ::<tex>\hat{f}_{h_m}(x)=\frac1m \sum_{i=1}^m K_{h_m}(x | + | ::<tex>\hat{f}_{h_m}(x)=\frac1m \sum_{i=1}^m K_{h_m}(x-X_i)</tex>, |
a | a | ||
::<tex>K_{h_m}(u)=\frac{1}{h_m} K\(\frac{u}{h_m}\)</tex> | ::<tex>K_{h_m}(u)=\frac{1}{h_m} K\(\frac{u}{h_m}\)</tex> | ||
Строка 31: | Строка 31: | ||
переменной <tex>x</tex>. Данный вид ядерных весов <tex>W_{mi}(x)</tex> был предложен в работах (Nadaraya, 1964) и (Watson, 1964). Как следствие, оценка | переменной <tex>x</tex>. Данный вид ядерных весов <tex>W_{mi}(x)</tex> был предложен в работах (Nadaraya, 1964) и (Watson, 1964). Как следствие, оценка | ||
ожидаемой величины восстанавливаемой зависимости <tex>E(y\|x)</tex>: | ожидаемой величины восстанавливаемой зависимости <tex>E(y\|x)</tex>: | ||
- | ::<tex>\hat{m}_h(x)=\frac{ | + | ::<tex>\hat{m}_h(x)=\frac{\frac1m\textstyle\sum\limits_{i=1}^m K_{h_m}(x-X_i)Y_i}{\frac1m\textstyle\sum\limits_{i=1}^m K_{h_m}(x-X_i)}</tex> |
- | часто называют оценкой '' | + | часто называют оценкой ''Надарая—Ватсона''. |
- | Ширина окна определяет насколько быстро убывают веса <tex>W_{mi}(x)</tex> по мере удаления объектов <tex>x_i</tex> от <tex>x</tex>. | + | Ширина окна определяет, насколько быстро убывают веса <tex>W_{mi}(x)</tex> по мере удаления объектов <tex>x_i</tex> от <tex>x</tex>. |
Характер убывания определяется видом ядра <tex>K</tex>. | Характер убывания определяется видом ядра <tex>K</tex>. | ||
Нормализация весов <tex>\hat{f}_{h_m}(x)</tex> гарантирует, что сумма весов равна единице. | Нормализация весов <tex>\hat{f}_{h_m}(x)</tex> гарантирует, что сумма весов равна единице. | ||
'''Замечание'''. При ряде условий имеет место сходимость по вероятности данной оценки к <tex>E(y|x)</tex>. | '''Замечание'''. При ряде условий имеет место сходимость по вероятности данной оценки к <tex>E(y|x)</tex>. | ||
+ | |||
=== Пример функции ядра === | === Пример функции ядра === | ||
[[Изображение:CoreFunc.png|thumb|right|400px|Примеры различных функций ядра.]] | [[Изображение:CoreFunc.png|thumb|right|400px|Примеры различных функций ядра.]] | ||
Строка 85: | Строка 86: | ||
}} | }} | ||
==См. также== | ==См. также== | ||
- | |||
* [[Алгоритм LOWESS]] | * [[Алгоритм LOWESS]] | ||
* [[Вариация и смещение]] | * [[Вариация и смещение]] | ||
* [[Регрессионный анализ]] | * [[Регрессионный анализ]] | ||
- | [[Категория: | + | [[Категория:Непараметрическая регрессия]] |
{{ЗаданиеВыполнено|Tolstikhin|Vokov|31 декабря 2009}} | {{ЗаданиеВыполнено|Tolstikhin|Vokov|31 декабря 2009}} |
Текущая версия
Ядерное сглаживание - один из простейших видов непараметрической регрессии.
Содержание |
Постановка задачи
- Решается задача восстановления регрессии. Задано пространство объектов и множество возможных
ответов . Существует неизвестная целевая зависимость , значения которой известны только на объектах обучающей выборки . Требуется построить алгоритм , аппроксимирующий целевую зависимость .
Принцип
Принцип, используйщий идейно простой подход к представлению последовательности весов состоит в описании формы весовой функции посредством функции плотности со скалярным параметром, который регулирует размер и форму весов около х. Эту функцию формы принято называть ядром .
Полученные таким образом веса далее используются для представления величины в виде взвешенной суммы значений обучающей выборки.
Описание метода
Определение ядра
Ядро — это непрерывная ограниченная симметричная вещественная функция с единичным интегралом
Последовательность весов
Последовательность весов для ядерных оценок (для одномерного ) определяется как ::, где
- ,
a
представляет собой ядро с параметром . Этот параметр принято называть шириной окна. Подчеркнув зависимость от объема выборки , условимся сокращенно обозначать последовательность весов .
Функция ядра
Функция является ядерной оценкой плотности Розенблата — Парзена (Rosenblatt, 1956; Parzen, 1962) для (маргинальной) плотности переменной . Данный вид ядерных весов был предложен в работах (Nadaraya, 1964) и (Watson, 1964). Как следствие, оценка ожидаемой величины восстанавливаемой зависимости :
часто называют оценкой Надарая—Ватсона. Ширина окна определяет, насколько быстро убывают веса по мере удаления объектов от . Характер убывания определяется видом ядра . Нормализация весов гарантирует, что сумма весов равна единице.
Замечание. При ряде условий имеет место сходимость по вероятности данной оценки к .
Пример функции ядра
На практике используется несколько видов ядерных функций. Чаще всего используется квартическая ядерная функция
- .
Также используется ядро Епанечникова, обладающее некоторыми свойствами оптимальности [Хардле В п4.5]; это функция параболического типа (Epanechnikov, 1969; Bartlett, 1963):
- .
Другими примерами являются ядро Гаусса,
- ,
треугольное ядро
- ,
и прямоугольное ядро
- .
Замечание. Точность восстанавливаемой зависимости мало зависит от выбора ядра. Ядро определяет степень гладкости функции .
Зависимость от ширины окна
Выбор окна решающим образом влияет на точность восстанавливаемой зависимости. При чересчур малых значениях кривая стремится пройти через каждую точку выборки, остро реагируя на шумы и претерпевая резкие скачки, поскольку в этом случае оценка опирается только на небольшое число наблюдений из узкой окрестности точки . Наоборот, если ширина окна велика, функция чрезмерно сглаживается и в пределе при вырождается в константу -- усреднённое значение величин . В этом случае сглаженная функция не даёт возможности определить характерные особенности искомой зависимости .
Литература
- Хардле В. Прикладная непараметрическая регрессия. — 1989.
- Воронцов К.В. Лекции по алгоритмам восстановления регрессии. — 2007.
- Лагутин М.Б. Наглядная математическая статистика. — 2009.
См. также
Данная статья была создана в рамках учебного задания.
См. также методические указания по использованию Ресурса MachineLearning.ru в учебном процессе. |