Робастное оценивание
Материал из MachineLearning.
Строка 31: | Строка 31: | ||
Действия повторяются до достижения сходимости. | Действия повторяются до достижения сходимости. | ||
- | <tex>s^2=\frac{1}{n-p}\sum{r_i^2}</tex> | + | Если все наблюдения совершенно точны, то классическая оценка дисперсии отдельного наблюдения имеет вид |
+ | <tex>s^2=\frac{1}{n-p}\sum{r_i^2}</tex>, | ||
+ | и стандартную ошибку остатка <tex>r_i</tex> можно в этом случае оценивать величиной <tex>s_i=\sqrt{1-h_i}s</tex>, где <tex>h_i</tex> есть <tex>i</tex>-й диагональный элемент матрицы <tex>H</tex>. | ||
- | <tex>r_i</tex> | + | При сипользовании вместо сотатков <tex>r_i</tex> модифицированных остатков <tex>r_i^{\ast}=y_i^{\ast}- \hat y_i </tex>, как нетрудно видеть, получается заниженная оценка масштаба. Появившееся смещение можно ликивилировать, полагая (в превом приближении) |
- | + | ||
- | + | ||
- | + | ||
- | + | ||
<tex>s^2=\frac{1}{n-p}\sum{{r_i}^{\ast2}/(\frac{m}{n})^2}</tex>, | <tex>s^2=\frac{1}{n-p}\sum{{r_i}^{\ast2}/(\frac{m}{n})^2}</tex>, |
Версия 19:08, 5 января 2010
Содержание[убрать] |
Введение
Вычисление робастных оценок
Рассмотрим пример. Для оценки неизвестных параметров
используется
наблюдений
, причем они связаны между собой следующим неравенством
, где элементы матрицы
суть известные коэффициенты, а
- вектор независимых случайных величин,имеющих (приблизительное)одинаковые функции распределения.
Тогда решение сводится к следующему:
Если матрица - матрица полного ранга
, то
,
а оценки
будут высиляться по следующей формуле
,
где
, далее
- матрица подгонки.
Допустим, что мы получили значения и остатки
.
Пусть - некоторая оценка стандартной ошибки наблюдений
(или стандартной ошибки остатков
)
Метрически винзоризуем наблюдения , заменяя их псевдонаблюдениями
:
Константа регулирует степень робастности, её значения хорошо выбирать из промежутка от 1 до 2, например, чаще всего
.
Затем по псевдонаблюдениям вычисляются новые значения
подгонки (и новые
).
Действия повторяются до достижения сходимости.
Если все наблюдения совершенно точны, то классическая оценка дисперсии отдельного наблюдения имеет вид
,
и стандартную ошибку остатка
можно в этом случае оценивать величиной
, где
есть
-й диагональный элемент матрицы
.
При сипользовании вместо сотатков модифицированных остатков
, как нетрудно видеть, получается заниженная оценка масштаба. Появившееся смещение можно ликивилировать, полагая (в превом приближении)
,
Литература
- Хьюбер П. Робастность в статистике. — М.: Мир, 1984.
Ссылки
- Робастность в статистике.
- Робастность статистических процедур.
- Публикации по робастным методам оценивания параметров и проверке статистических гипотез на сайте профессора НГТУ Лемешко Б.Ю..
- Robust statistics.
![]() | Данная статья является непроверенным учебным заданием.
До указанного срока статья не должна редактироваться другими участниками проекта MachineLearning.ru. По его окончании любой участник вправе исправить данную статью по своему усмотрению и удалить данное предупреждение, выводимое с помощью шаблона {{Задание}}. См. также методические указания по использованию Ресурса MachineLearning.ru в учебном процессе. |