Непараметрическая регрессия

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Разновидности)
(Разновидности)
Строка 12: Строка 12:
Одним из простейших методов является [[ядерное сглаживание]]. Этот метод прост в применении, не требует дополнительных математических сведений и понятен на интуитивном уровне. Ядерное сглаживание во многих случаях является подходящим средством. Существуют разнообразные альтернативные методы сглаживания такие, например, как сплайны, но в [Хардле В, гл3] показывается, что в асимптотическом смысле они эквивалентны [[ядерное сглаживание|ядерному сглаживанию]]. Таким образом построение непераметрического алгоритма восстаовления регрессии требует задания функции ядра <tex>K</tex>(подробнее см [[ядерное сглаживание]]).
Одним из простейших методов является [[ядерное сглаживание]]. Этот метод прост в применении, не требует дополнительных математических сведений и понятен на интуитивном уровне. Ядерное сглаживание во многих случаях является подходящим средством. Существуют разнообразные альтернативные методы сглаживания такие, например, как сплайны, но в [Хардле В, гл3] показывается, что в асимптотическом смысле они эквивалентны [[ядерное сглаживание|ядерному сглаживанию]]. Таким образом построение непераметрического алгоритма восстаовления регрессии требует задания функции ядра <tex>K</tex>(подробнее см [[ядерное сглаживание]]).
-
Ключом к проведению '''качественного непараметрического оценивания''' является выбор подходящей ширины окна для имеющейся задачи. Хотя ядерная функция остается важной, ее главная роль состоит в обеспечении дифференцируемости и гладкости получающейся оценки. Ширина окна, с другой стороны, определяет поведение оценки в конечных выборках, что ядерная функция сделать просто не в состоянии. Существуют четыре общих подхода к выбору ширины окна:
+
Ключом к проведению '''качественного непараметрического оценивания''' является выбор подходящей ширины окна для имеющейся задачи. Хотя ядерная функция остается важной, ее главная роль состоит в обеспечении дифференцируемости и гладкости получающейся оценки. Ширина окна <tex>h<tex>, с другой стороны, определяет поведение оценки в конечных выборках, что ядерная функция сделать просто не в состоянии. Существуют четыре общих подхода к выбору ширины окна:
#референтные эвристические правила
#референтные эвристические правила
#методы подстановки
#методы подстановки
#методы кросс-валидации
#методы кросс-валидации
#бутстраповские методы.
#бутстраповские методы.
-
Ради аккуратности подчеркнем, что диктуемые данными методы выбора ширины окна не всегда гарантируют хороший результат.
+
Ради аккуратности подчеркнем, что диктуемые данными методы выбора ширины окна не всегда гарантируют хороший результат.
==Литература==
==Литература==

Версия 14:33, 6 января 2010

Непараметрическая регрессия, в отличие от параметрических подходов, использует модель, которая не описывается конечным числом параметров.

Введение

Цель регрессионного анализа состоит в осуществлении разумной аппроксимации неизвестной функции отклика Y. В случае малых ошибок наблюдения становится возможным сконцентрировать внимание на важных деталях средней зависимости Y от X при ее интерпретации.

Отличие от параметрических подходов

Процедура аппроксимации обычно называется сглаживанием. По существу эта аппроксимация функции отклика Y может быть выполнена двумя способами. Довольно часто используется параметрический подход, заключающийся в предположении, что функция отклика Y имеет некоторую предписанную функциональную форму, например, это прямая линия с неизвестными свободным членом и наклоном. Альтернативой этому может служить попытка оценить Y непараметрически, без указания конкретного ее вида. Первый подход к анализу регрессионной зависимости называется параметрическим, поскольку предполагается, что вид функции полностью описывается конечным набором параметров. Типичный пример параметрической модели представляет собой полиномиальное уравнение регрессии, когда параметрами являются коэффициенты при неизвестных. Однако при параметрическом подходе молчаливо предполагается, что кривая может быть представлена в терминах параметрической модели, или, по крайней мере, имеется уверенность в том, что ошибка аппроксимации для наилучшего параметрического приближения пренебрежимо мала. Наоборот, в непараметрической модели регрессионной зависимости не произ водится проектирования данных в "прокрустово ложе" фиксированной параметризации. Предварительное задание параметрической модели может оказаться слишком ограничительным или чересчур малой размерности для аппроксимации непредвиденных характеристик, в то время как непараметрическое сглаживание предоставляет гибкие средства анализа неизвестных регрессионных зависимостей. Непараметрический подход приводит, таким образом, к гибкому функциональному виду кривой регрессии.

Разновидности

Одним из простейших методов является ядерное сглаживание. Этот метод прост в применении, не требует дополнительных математических сведений и понятен на интуитивном уровне. Ядерное сглаживание во многих случаях является подходящим средством. Существуют разнообразные альтернативные методы сглаживания такие, например, как сплайны, но в [Хардле В, гл3] показывается, что в асимптотическом смысле они эквивалентны ядерному сглаживанию. Таким образом построение непераметрического алгоритма восстаовления регрессии требует задания функции ядра K(подробнее см ядерное сглаживание).

Ключом к проведению качественного непараметрического оценивания является выбор подходящей ширины окна для имеющейся задачи. Хотя ядерная функция остается важной, ее главная роль состоит в обеспечении дифференцируемости и гладкости получающейся оценки. Ширина окна h<tex>,  с  другой  стороны,  определяет  поведение  оценки  в  конечных  выборках,  что  ядерная  функция  сделать  просто  не  в  состоянии.  Существуют  четыре  общих  подхода к выбору ширины окна: 
</p>
<ol><li>референтные эвристические правила 
</li><li>методы подстановки 
</li><li>методы  кросс-валидации 
</li><li>бутстраповские  методы.  
</li></ol>
<p>Ради  аккуратности  подчеркнем,  что диктуемые данными методы выбора ширины окна  не всегда гарантируют хороший результат.
</p><p>==Литература==
</p>
<ol><li> {{книга
</li></ol>
<p>|автор        = Хардле В.
|заглавие  = Прикладная непараметрическая регрессия
|год          = 1989
|ссылка       = http://optimization.nlprog.ru/read/ru/8776859F6322A5AF21D45220A9B5B57E110C2E84/index.htm
}}
</p><p>==См. также==
</p>
<ul><li> [[Ядерное сглаживание]]
</li><li> [[Регрессионный анализ]]
</li></ul>
<p>== Ссылки == 
</p><p>[[Категория:Регрессионный анализ]]

Личные инструменты