Робастное оценивание

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
Строка 5: Строка 5:
Рассмотрим пример. Для оценки <tex>p</tex> неизвестных параметров <tex>\theta_1,\; \dots ,\theta_p</tex> используется <tex>n</tex> наблюдений <tex>y_1,\; \dots,y_n</tex>, причем они связаны между собой следующим неравенством <tex>\mathbf{y}=X\mathbf{\theta}+\mathbf{u}</tex>, где элементы матрицы <tex>X</tex> суть известные коэффициенты, а <tex>\mathbf{u}</tex> - вектор независимых случайных величин,имеющих (приблизительное)одинаковые функции распределения.
Рассмотрим пример. Для оценки <tex>p</tex> неизвестных параметров <tex>\theta_1,\; \dots ,\theta_p</tex> используется <tex>n</tex> наблюдений <tex>y_1,\; \dots,y_n</tex>, причем они связаны между собой следующим неравенством <tex>\mathbf{y}=X\mathbf{\theta}+\mathbf{u}</tex>, где элементы матрицы <tex>X</tex> суть известные коэффициенты, а <tex>\mathbf{u}</tex> - вектор независимых случайных величин,имеющих (приблизительное)одинаковые функции распределения.
-
<tex>|\mathbf{y}-X\mathbf{\theta}|^2 \rightarrow \min</tex>
+
Тогда решение сводится к следующему: <tex>|\mathbf{y}-X\mathbf{\theta}|^2 \rightarrow \min</tex>
-
<tex>X</tex> <tex>p</tex>
+
Если матрица <tex>X</tex> - матрица полного ранга <tex>p</tex>, то <tex>\hat \theta={(X^{T}X)}^{-1}X^T\mathbf{y}</tex>,
-
 
+
а оценки <tex>\hat y_i</tex> будут высиляться по следующей формуле <tex>\hat{\mathbf{y}} = H\mathbf{y}</tex>,
-
<tex>\hat y_i</tex>
+
где <tex>H=X{(X^{T}X)}^{-1}X^T</tex>, далее <tex>H</tex> - матрица подгонки.
-
 
+
-
<tex>\hat{\mathbf{y}} = H\mathbf{y}</tex>, <tex>H=X{(X^{T}X)}^{-1}X^T</tex>
+
-
 
+
-
<tex>H</tex>
+
<tex>\hat y_i</tex> <tex>r_i=y_i-\hat y_i</tex>
<tex>\hat y_i</tex> <tex>r_i=y_i-\hat y_i</tex>

Версия 18:55, 5 января 2010

Содержание

Введение

Вычисление робастных оценок

Рассмотрим пример. Для оценки p неизвестных параметров \theta_1,\; \dots ,\theta_p используется n наблюдений y_1,\; \dots,y_n, причем они связаны между собой следующим неравенством \mathbf{y}=X\mathbf{\theta}+\mathbf{u}, где элементы матрицы X суть известные коэффициенты, а \mathbf{u} - вектор независимых случайных величин,имеющих (приблизительное)одинаковые функции распределения.

Тогда решение сводится к следующему: |\mathbf{y}-X\mathbf{\theta}|^2 \rightarrow \min

Если матрица X - матрица полного ранга p, то \hat \theta={(X^{T}X)}^{-1}X^T\mathbf{y}, а оценки \hat y_i будут высиляться по следующей формуле \hat{\mathbf{y}} = H\mathbf{y}, где H=X{(X^{T}X)}^{-1}X^T, далее H - матрица подгонки.

\hat y_i r_i=y_i-\hat y_i

s_i y_i (r_i)

y_i {y_i}^{\ast}


{y_i}^{\ast}=
\left{
y_i\,,   \;   \;\; |r_i| \le cs_i \\
\hat y_i - cs_i\,, \;\; r_i<-cs_i \\
\hat y_i + cs_i\,, \;\; r_i>cs_i
\right.

Литература

  1. Хьюбер П. Робастность в статистике. — М.: Мир, 1984.

Ссылки


Данная статья является непроверенным учебным заданием.
Студент: Участник:Джумабекова Айнагуль
Преподаватель: Участник:Vokov
Срок: 6 января 2010

До указанного срока статья не должна редактироваться другими участниками проекта MachineLearning.ru. По его окончании любой участник вправе исправить данную статью по своему усмотрению и удалить данное предупреждение, выводимое с помощью шаблона {{Задание}}.

См. также методические указания по использованию Ресурса MachineLearning.ru в учебном процессе.


Личные инструменты