Робастное оценивание
Материал из MachineLearning.
Строка 31: | Строка 31: | ||
Действия повторяются до достижения сходимости. | Действия повторяются до достижения сходимости. | ||
- | <tex>s^2=\frac{1}{n-p}\sum{r_i^2}</tex> | + | Если все наблюдения совершенно точны, то классическая оценка дисперсии отдельного наблюдения имеет вид |
+ | <tex>s^2=\frac{1}{n-p}\sum{r_i^2}</tex>, | ||
+ | и стандартную ошибку остатка <tex>r_i</tex> можно в этом случае оценивать величиной <tex>s_i=\sqrt{1-h_i}s</tex>, где <tex>h_i</tex> есть <tex>i</tex>-й диагональный элемент матрицы <tex>H</tex>. | ||
- | <tex>r_i</tex> | + | При сипользовании вместо сотатков <tex>r_i</tex> модифицированных остатков <tex>r_i^{\ast}=y_i^{\ast}- \hat y_i </tex>, как нетрудно видеть, получается заниженная оценка масштаба. Появившееся смещение можно ликивилировать, полагая (в превом приближении) |
- | + | ||
- | + | ||
- | + | ||
- | + | ||
<tex>s^2=\frac{1}{n-p}\sum{{r_i}^{\ast2}/(\frac{m}{n})^2}</tex>, | <tex>s^2=\frac{1}{n-p}\sum{{r_i}^{\ast2}/(\frac{m}{n})^2}</tex>, |
Версия 19:08, 5 января 2010
Содержание |
Введение
Вычисление робастных оценок
Рассмотрим пример. Для оценки неизвестных параметров используется наблюдений , причем они связаны между собой следующим неравенством , где элементы матрицы суть известные коэффициенты, а - вектор независимых случайных величин,имеющих (приблизительное)одинаковые функции распределения.
Тогда решение сводится к следующему:
Если матрица - матрица полного ранга , то , а оценки будут высиляться по следующей формуле , где , далее - матрица подгонки.
Допустим, что мы получили значения и остатки .
Пусть - некоторая оценка стандартной ошибки наблюдений (или стандартной ошибки остатков )
Метрически винзоризуем наблюдения , заменяя их псевдонаблюдениями :
Константа регулирует степень робастности, её значения хорошо выбирать из промежутка от 1 до 2, например, чаще всего .
Затем по псевдонаблюдениям вычисляются новые значения подгонки (и новые ). Действия повторяются до достижения сходимости.
Если все наблюдения совершенно точны, то классическая оценка дисперсии отдельного наблюдения имеет вид , и стандартную ошибку остатка можно в этом случае оценивать величиной , где есть -й диагональный элемент матрицы .
При сипользовании вместо сотатков модифицированных остатков , как нетрудно видеть, получается заниженная оценка масштаба. Появившееся смещение можно ликивилировать, полагая (в превом приближении)
,
Литература
- Хьюбер П. Робастность в статистике. — М.: Мир, 1984.
Ссылки
- Робастность в статистике.
- Робастность статистических процедур.
- Публикации по робастным методам оценивания параметров и проверке статистических гипотез на сайте профессора НГТУ Лемешко Б.Ю..
- Robust statistics.
Данная статья является непроверенным учебным заданием.
До указанного срока статья не должна редактироваться другими участниками проекта MachineLearning.ru. По его окончании любой участник вправе исправить данную статью по своему усмотрению и удалить данное предупреждение, выводимое с помощью шаблона {{Задание}}. См. также методические указания по использованию Ресурса MachineLearning.ru в учебном процессе. |