Робастное оценивание

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
Строка 26: Строка 26:
</tex>
</tex>
-
Константа <tex>с</tex> регулирует степень робастности, её значения хорошо выбирать из промежутка от 1 до 2, например, чаще всего <tex>с=1.5</tex>.
+
Константа <tex>c</tex> регулирует степень робастности, её значения хорошо выбирать из промежутка от 1 до 2, например, чаще всего <tex>c=1.5</tex>.
Затем по псевдонаблюдениям <tex>y_i^{\ast}</tex> вычисляются новые значения <tex>\hat{y_i}</tex> подгонки (и новые <tex>s_i</tex>).
Затем по псевдонаблюдениям <tex>y_i^{\ast}</tex> вычисляются новые значения <tex>\hat{y_i}</tex> подгонки (и новые <tex>s_i</tex>).

Версия 19:03, 5 января 2010

Содержание

Введение

Вычисление робастных оценок

Рассмотрим пример. Для оценки p неизвестных параметров \theta_1,\; \dots ,\theta_p используется n наблюдений y_1,\; \dots,y_n, причем они связаны между собой следующим неравенством \mathbf{y}=X\mathbf{\theta}+\mathbf{u}, где элементы матрицы X суть известные коэффициенты, а \mathbf{u} - вектор независимых случайных величин,имеющих (приблизительное)одинаковые функции распределения.

Тогда решение сводится к следующему: |\mathbf{y}-X\mathbf{\theta}|^2 \rightarrow \min

Если матрица X - матрица полного ранга p, то \hat \theta={(X^{T}X)}^{-1}X^T\mathbf{y}, а оценки \hat y_i будут высиляться по следующей формуле \hat{\mathbf{y}} = H\mathbf{y}, где H=X{(X^{T}X)}^{-1}X^T, далее H - матрица подгонки.

Допустим, что мы получили значения \hat y_i и остатки r_i=y_i-\hat y_i.

Пусть s_i - некоторая оценка стандартной ошибки наблюдений y_i (или стандартной ошибки остатков r_i)

Метрически винзоризуем наблюдения y_i, заменяя их псевдонаблюдениями {y_i}^{\ast}:


{y_i}^{\ast}=
\left{
y_i\,,   \;   \;\; |r_i| \le cs_i \\
\hat y_i - cs_i\,, \;\; r_i<-cs_i \\
\hat y_i + cs_i\,, \;\; r_i>cs_i
\right.

Константа c регулирует степень робастности, её значения хорошо выбирать из промежутка от 1 до 2, например, чаще всего c=1.5.

Затем по псевдонаблюдениям y_i^{\ast} вычисляются новые значения \hat{y_i} подгонки (и новые s_i). Действия повторяются до достижения сходимости.

s^2=\frac{1}{n-p}\sum{r_i^2}

r_i s_i=\sqrt{1-h_i}s

h_i i

r_i r_i^{\ast}=y_i^{\ast}- \hat y_i

s^2=\frac{1}{n-p}\sum{{r_i}^{\ast2}/(\frac{m}{n})^2},


Литература

  1. Хьюбер П. Робастность в статистике. — М.: Мир, 1984.

Ссылки


Данная статья является непроверенным учебным заданием.
Студент: Участник:Джумабекова Айнагуль
Преподаватель: Участник:Vokov
Срок: 6 января 2010

До указанного срока статья не должна редактироваться другими участниками проекта MachineLearning.ru. По его окончании любой участник вправе исправить данную статью по своему усмотрению и удалить данное предупреждение, выводимое с помощью шаблона {{Задание}}.

См. также методические указания по использованию Ресурса MachineLearning.ru в учебном процессе.


Личные инструменты