Робастное оценивание

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
Строка 35: Строка 35:
и стандартную ошибку остатка <tex>r_i</tex> можно в этом случае оценивать величиной <tex>s_i=\sqrt{1-h_i}s</tex>, где <tex>h_i</tex> есть <tex>i</tex>-й диагональный элемент матрицы <tex>H</tex>.
и стандартную ошибку остатка <tex>r_i</tex> можно в этом случае оценивать величиной <tex>s_i=\sqrt{1-h_i}s</tex>, где <tex>h_i</tex> есть <tex>i</tex>-й диагональный элемент матрицы <tex>H</tex>.
-
При сипользовании вместо сотатков <tex>r_i</tex> модифицированных остатков <tex>r_i^{\ast}=y_i^{\ast}- \hat y_i </tex>, как нетрудно видеть, получается заниженная оценка масштаба. Появившееся смещение можно ликивилировать, полагая (в превом приближении)
+
При использовании вместо остатков <tex>r_i</tex> модифицированных остатков <tex>r_i^{\ast}=y_i^{\ast}- \hat y_i </tex>, как нетрудно видеть, получается заниженная оценка масштаба. Появившееся смещение можно ликвидировать, полагая (в первом приближении)
<tex>s^2=\frac{1}{n-p}\sum{{r_i}^{\ast2}/(\frac{m}{n})^2}</tex>,
<tex>s^2=\frac{1}{n-p}\sum{{r_i}^{\ast2}/(\frac{m}{n})^2}</tex>,
 +
 +
где <tex>n-p</tex> <tex>m</tex> <tex>y_i=y_i^{\ast}</tex>

Версия 19:10, 5 января 2010

Содержание

Введение

Вычисление робастных оценок

Рассмотрим пример. Для оценки p неизвестных параметров \theta_1,\; \dots ,\theta_p используется n наблюдений y_1,\; \dots,y_n, причем они связаны между собой следующим неравенством \mathbf{y}=X\mathbf{\theta}+\mathbf{u}, где элементы матрицы X суть известные коэффициенты, а \mathbf{u} - вектор независимых случайных величин,имеющих (приблизительное)одинаковые функции распределения.

Тогда решение сводится к следующему: |\mathbf{y}-X\mathbf{\theta}|^2 \rightarrow \min

Если матрица X - матрица полного ранга p, то \hat \theta={(X^{T}X)}^{-1}X^T\mathbf{y}, а оценки \hat y_i будут высиляться по следующей формуле \hat{\mathbf{y}} = H\mathbf{y}, где H=X{(X^{T}X)}^{-1}X^T, далее H - матрица подгонки.

Допустим, что мы получили значения \hat y_i и остатки r_i=y_i-\hat y_i.

Пусть s_i - некоторая оценка стандартной ошибки наблюдений y_i (или стандартной ошибки остатков r_i)

Метрически винзоризуем наблюдения y_i, заменяя их псевдонаблюдениями {y_i}^{\ast}:


{y_i}^{\ast}=
\left{
y_i\,,   \;   \;\; |r_i| \le cs_i \\
\hat y_i - cs_i\,, \;\; r_i<-cs_i \\
\hat y_i + cs_i\,, \;\; r_i>cs_i
\right.

Константа c регулирует степень робастности, её значения хорошо выбирать из промежутка от 1 до 2, например, чаще всего c=1.5.

Затем по псевдонаблюдениям y_i^{\ast} вычисляются новые значения \hat{y_i} подгонки (и новые s_i). Действия повторяются до достижения сходимости.

Если все наблюдения совершенно точны, то классическая оценка дисперсии отдельного наблюдения имеет вид s^2=\frac{1}{n-p}\sum{r_i^2}, и стандартную ошибку остатка r_i можно в этом случае оценивать величиной s_i=\sqrt{1-h_i}s, где h_i есть i-й диагональный элемент матрицы H.

При использовании вместо остатков r_i модифицированных остатков r_i^{\ast}=y_i^{\ast}- \hat y_i , как нетрудно видеть, получается заниженная оценка масштаба. Появившееся смещение можно ликвидировать, полагая (в первом приближении)

s^2=\frac{1}{n-p}\sum{{r_i}^{\ast2}/(\frac{m}{n})^2},

где n-p m y_i=y_i^{\ast}


Литература

  1. Хьюбер П. Робастность в статистике. — М.: Мир, 1984.

Ссылки


Данная статья является непроверенным учебным заданием.
Студент: Участник:Джумабекова Айнагуль
Преподаватель: Участник:Vokov
Срок: 6 января 2010

До указанного срока статья не должна редактироваться другими участниками проекта MachineLearning.ru. По его окончании любой участник вправе исправить данную статью по своему усмотрению и удалить данное предупреждение, выводимое с помощью шаблона {{Задание}}.

См. также методические указания по использованию Ресурса MachineLearning.ru в учебном процессе.


Личные инструменты