Робастное оценивание

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
Строка 25: Строка 25:
\right.
\right.
</tex>
</tex>
 +
 +
Константа <tex>с</tex> регулирует степень робастности, её значения хорошо выбирать из промежутка от 1 до 2, например, чаще всего <tex>с=1.5</tex>.
 +
 +
Затем по псевдонаблюдениям <tex>y_i^{\ast}</tex> вычисляются новые значения <tex>\hat{y_i}</tex> подгонки (и новые <tex>s_i</tex>).
 +
Действия повторяются до достижения сходимости.
 +
 +
<tex>s^2=\frac{1}{n-p}\sum{r_i^2}</tex>
 +
 +
<tex>r_i</tex> <tex>s_i=\sqrt{1-h_i}s</tex>
 +
 +
<tex>h_i</tex> <tex>i</tex>
 +
 +
<tex>r_i</tex> <tex>r_i^{\ast}=y_i^{\ast}- \hat y_i </tex>
 +
 +
<tex>s^2=\frac{1}{n-p}\sum{{r_i}^{\ast2}/(\frac{m}{n})^2}</tex>,
 +
 +
==Литература==
==Литература==

Версия 19:02, 5 января 2010

Содержание

Введение

Вычисление робастных оценок

Рассмотрим пример. Для оценки p неизвестных параметров \theta_1,\; \dots ,\theta_p используется n наблюдений y_1,\; \dots,y_n, причем они связаны между собой следующим неравенством \mathbf{y}=X\mathbf{\theta}+\mathbf{u}, где элементы матрицы X суть известные коэффициенты, а \mathbf{u} - вектор независимых случайных величин,имеющих (приблизительное)одинаковые функции распределения.

Тогда решение сводится к следующему: |\mathbf{y}-X\mathbf{\theta}|^2 \rightarrow \min

Если матрица X - матрица полного ранга p, то \hat \theta={(X^{T}X)}^{-1}X^T\mathbf{y}, а оценки \hat y_i будут высиляться по следующей формуле \hat{\mathbf{y}} = H\mathbf{y}, где H=X{(X^{T}X)}^{-1}X^T, далее H - матрица подгонки.

Допустим, что мы получили значения \hat y_i и остатки r_i=y_i-\hat y_i.

Пусть s_i - некоторая оценка стандартной ошибки наблюдений y_i (или стандартной ошибки остатков r_i)

Метрически винзоризуем наблюдения y_i, заменяя их псевдонаблюдениями {y_i}^{\ast}:


{y_i}^{\ast}=
\left{
y_i\,,   \;   \;\; |r_i| \le cs_i \\
\hat y_i - cs_i\,, \;\; r_i<-cs_i \\
\hat y_i + cs_i\,, \;\; r_i>cs_i
\right.

Константа с регулирует степень робастности, её значения хорошо выбирать из промежутка от 1 до 2, например, чаще всего с=1.5.

Затем по псевдонаблюдениям y_i^{\ast} вычисляются новые значения \hat{y_i} подгонки (и новые s_i). Действия повторяются до достижения сходимости.

s^2=\frac{1}{n-p}\sum{r_i^2}

r_i s_i=\sqrt{1-h_i}s

h_i i

r_i r_i^{\ast}=y_i^{\ast}- \hat y_i

s^2=\frac{1}{n-p}\sum{{r_i}^{\ast2}/(\frac{m}{n})^2},


Литература

  1. Хьюбер П. Робастность в статистике. — М.: Мир, 1984.

Ссылки


Данная статья является непроверенным учебным заданием.
Студент: Участник:Джумабекова Айнагуль
Преподаватель: Участник:Vokov
Срок: 6 января 2010

До указанного срока статья не должна редактироваться другими участниками проекта MachineLearning.ru. По его окончании любой участник вправе исправить данную статью по своему усмотрению и удалить данное предупреждение, выводимое с помощью шаблона {{Задание}}.

См. также методические указания по использованию Ресурса MachineLearning.ru в учебном процессе.


Личные инструменты