Статистические свойства МНК-оценок коэффициентов регрессии
Материал из MachineLearning.
Tatira (Обсуждение | вклад)
(Новая: Для того, чтобы '''МНК-оценки коэффициентов [[многомерная линейная регре...)
К следующему изменению →
Версия 22:12, 28 января 2009
Для того, чтобы МНК-оценки коэффициентов многомерной регрессии обладали полезными статистическими свойствами необходимо выполнение ряда предпосылок относительно оцениваемой регрессионной модели, называемых Основными Положениями.
Основные Положения
- ОП.0 (модель линейна по параметрам);
- ОП.1 - детерминированная матрица, (признаки линейно независимы);
- ОП.2 Регрессионные остатки
- 2.1. одинаково распределены;
- 2.2. (модель несмещенная);
- 2.3. (гомоскедастичность);
- 2.4. (некореллированность).
- Дополнительное Предположение 3 (ДП3):
- ,
- т.е регрессионные остатки имеют нормальное распределение , где - единичная матрица размера .
Свойства МНК-оценок без предположения о нормальности
Теорема Гаусса-Маркова. Пусть выполнены основные положения 0-2. Тогда оценка полученная по методу наименьших квадратов является эффективной в классе линейных (вида ) несмещенных оценок (Best Linear Unbiased Estimator, BLUE).
Исходя из этой теоремы можно выделить несколько основных свойств МНК-оценки
- Линейность:
- где
- Несмещенность:
- Матрица ковариации равна:
- МНК-оценка эффективна.
Итак, теорема Гаусса-Маркова утверждает, что любая другая линейная несмещенная оценка будет иметь большую дисперсию, чем МНК-оценка:
Нетрудно показать, что для любого вектора оценка будет обладать теми же свойствами, что и МНК-оценка . Поэтому:
- если взять то получим что
- - несмещенная, эффективная оценка
- если то
- - несмещенная, эффективная оценка