Робастное оценивание
Материал из MachineLearning.
Строка 5: | Строка 5: | ||
Рассмотрим пример. Для оценки <tex>p</tex> неизвестных параметров <tex>\theta_1,\; \dots ,\theta_p</tex> используется <tex>n</tex> наблюдений <tex>y_1,\; \dots,y_n</tex>, причем они связаны между собой следующим неравенством <tex>\mathbf{y}=X\mathbf{\theta}+\mathbf{u}</tex>, где элементы матрицы <tex>X</tex> суть известные коэффициенты, а <tex>\mathbf{u}</tex> - вектор независимых случайных величин,имеющих (приблизительное)одинаковые функции распределения. | Рассмотрим пример. Для оценки <tex>p</tex> неизвестных параметров <tex>\theta_1,\; \dots ,\theta_p</tex> используется <tex>n</tex> наблюдений <tex>y_1,\; \dots,y_n</tex>, причем они связаны между собой следующим неравенством <tex>\mathbf{y}=X\mathbf{\theta}+\mathbf{u}</tex>, где элементы матрицы <tex>X</tex> суть известные коэффициенты, а <tex>\mathbf{u}</tex> - вектор независимых случайных величин,имеющих (приблизительное)одинаковые функции распределения. | ||
- | <tex>|\mathbf{y}-X\mathbf{\theta}|^2 \rightarrow \min</tex> | + | Тогда решение сводится к следующему: <tex>|\mathbf{y}-X\mathbf{\theta}|^2 \rightarrow \min</tex> |
- | <tex>X</tex> <tex>p</tex> | + | Если матрица <tex>X</tex> - матрица полного ранга <tex>p</tex>, то <tex>\hat \theta={(X^{T}X)}^{-1}X^T\mathbf{y}</tex>, |
- | + | а оценки <tex>\hat y_i</tex> будут высиляться по следующей формуле <tex>\hat{\mathbf{y}} = H\mathbf{y}</tex>, | |
- | <tex>\hat y_i</tex> | + | где <tex>H=X{(X^{T}X)}^{-1}X^T</tex>, далее <tex>H</tex> - матрица подгонки. |
- | + | ||
- | <tex>\hat{\mathbf{y}} = H\mathbf{y}</tex>, <tex>H=X{(X^{T}X)}^{-1}X^T</tex> | + | |
- | + | ||
- | <tex>H</tex> | + | |
<tex>\hat y_i</tex> <tex>r_i=y_i-\hat y_i</tex> | <tex>\hat y_i</tex> <tex>r_i=y_i-\hat y_i</tex> |
Версия 18:55, 5 января 2010
Содержание |
Введение
Вычисление робастных оценок
Рассмотрим пример. Для оценки неизвестных параметров используется наблюдений , причем они связаны между собой следующим неравенством , где элементы матрицы суть известные коэффициенты, а - вектор независимых случайных величин,имеющих (приблизительное)одинаковые функции распределения.
Тогда решение сводится к следующему:
Если матрица - матрица полного ранга , то , а оценки будут высиляться по следующей формуле , где , далее - матрица подгонки.
()
Литература
- Хьюбер П. Робастность в статистике. — М.: Мир, 1984.
Ссылки
- Робастность в статистике.
- Робастность статистических процедур.
- Публикации по робастным методам оценивания параметров и проверке статистических гипотез на сайте профессора НГТУ Лемешко Б.Ю..
- Robust statistics.
Данная статья является непроверенным учебным заданием.
До указанного срока статья не должна редактироваться другими участниками проекта MachineLearning.ru. По его окончании любой участник вправе исправить данную статью по своему усмотрению и удалить данное предупреждение, выводимое с помощью шаблона {{Задание}}. См. также методические указания по использованию Ресурса MachineLearning.ru в учебном процессе. |