Статистические свойства МНК-оценок коэффициентов регрессии
Материал из MachineLearning.
(Новая: Для того, чтобы '''МНК-оценки коэффициентов [[многомерная линейная регре...) |
|||
Строка 9: | Строка 9: | ||
::'''2.3.''' <tex>D\varepsilon_i = \sigma^2</tex> (гомоскедастичность); | ::'''2.3.''' <tex>D\varepsilon_i = \sigma^2</tex> (гомоскедастичность); | ||
::'''2.4.''' <tex>E\varepsilon_i\varepsilon_j = 0, \; i\neq j</tex> (некореллированность). | ::'''2.4.''' <tex>E\varepsilon_i\varepsilon_j = 0, \; i\neq j</tex> (некореллированность). | ||
- | *'''Дополнительное Предположение 3 (ДП3):''' | + | *'''Дополнительное Предположение 3 (ДП3):''' <tex>\; \; \varepsilon \sim N(0,\sigma^2I_n)</tex>, |
- | + | :т.е вектор регрессионных остатков <tex>\varepsilon</tex> - [[нормальное распределение|нормально распределенный]] [[многомерная случайная величина|случайный вектор]] со [[многомерная случайная величина|средним]] 0 и [[ковариационная матрица|матрицей ковариации]] <tex>\sigma^2I_n</tex> (<tex>I_n</tex> - единичная матрица размера <tex>n\times n</tex>). В этом случаем модель называется ''нормальной линейной регрессионной моделью''. | |
- | :т.е | + | |
==Свойства МНК-оценок без предположения о нормальности== | ==Свойства МНК-оценок без предположения о нормальности== | ||
Строка 35: | Строка 34: | ||
* если <tex>c = (x_{i1},\cdots,x_{ik}),</tex> то | * если <tex>c = (x_{i1},\cdots,x_{ik}),</tex> то | ||
::<tex>c^T\hat\theta = \hat y_i</tex> - несмещенная, эффективная оценка <tex>y(x_i)_k.</tex> | ::<tex>c^T\hat\theta = \hat y_i</tex> - несмещенная, эффективная оценка <tex>y(x_i)_k.</tex> | ||
- | |||
==Свойства МНК-оценок с предположением о нормальности== | ==Свойства МНК-оценок с предположением о нормальности== | ||
+ | |||
+ | Пусть теперь к тому же выполнено ДП3, т.е. <tex>\varepsilon</tex> - многомерная [[нормальное распределение|нормально распределенная]] [[многомерная случайная величина|случайная величина]], или, что то же самое <tex>y_i</tex> имеют совместное нормальное распределение. Тогда к перечисленным выше свойствам добавятся следующие: | ||
+ | |||
+ | * МНК-оценка коэффициентов регрессии <tex>\hat\theta</tex> имеет нормальное распределение: | ||
+ | ::<tex> \hat\theta \sim N(\theta, \sigma^2(X^TX)^{-1});</tex> | ||
+ | |||
+ | * Несмещенная оценка для дисперсии шума <tex>\sigma^2</tex> имеет вид: | ||
+ | ::<tex>\hat\sigma^2 = \frac{RSS}{n-k},</tex> | ||
+ | :где RSS есть [[остаточная сумма квадратов]]; | ||
+ | |||
+ | * Случайная величина <tex>\frac{RSS}{\sigma^2}</tex> распределена по закону [[распределение хи-квадрат|хи-квадрат]] с <tex>n-k</tex> степенями свободы <tex>\chi^2_{n-k}.</tex> | ||
+ | |||
+ | * Оценки <tex>\hat\theta</tex> и <tex>s^2</tex> линейно независимы. Откуда получается, что величина | ||
+ | ::<tex>\frac{\hat\theta-\theta}{\hat\sigma\sqrt{(X^TX)^{-1}}} \sim t_{n-k}</tex> | ||
+ | :имеет [[распределение Стьюдента]] с <tex>n-k</tex> степенями свободы. |
Версия 01:19, 29 января 2009
Для того, чтобы МНК-оценки коэффициентов многомерной регрессии обладали полезными статистическими свойствами необходимо выполнение ряда предпосылок относительно оцениваемой регрессионной модели, называемых Основными Положениями.
Основные Положения
- ОП.0 (модель линейна по параметрам);
- ОП.1 - детерминированная матрица, (признаки линейно независимы);
- ОП.2 Регрессионные остатки
- 2.1. одинаково распределены;
- 2.2. (модель несмещенная);
- 2.3. (гомоскедастичность);
- 2.4. (некореллированность).
- Дополнительное Предположение 3 (ДП3): ,
- т.е вектор регрессионных остатков - нормально распределенный случайный вектор со средним 0 и матрицей ковариации ( - единичная матрица размера ). В этом случаем модель называется нормальной линейной регрессионной моделью.
Свойства МНК-оценок без предположения о нормальности
Теорема Гаусса-Маркова. Пусть выполнены основные положения 0-2. Тогда оценка полученная по методу наименьших квадратов является эффективной в классе линейных (вида ) несмещенных оценок (Best Linear Unbiased Estimator, BLUE).
Исходя из этой теоремы можно выделить несколько основных свойств МНК-оценки
- Линейность:
- где
- Несмещенность:
- Матрица ковариации равна:
- МНК-оценка эффективна.
Итак, теорема Гаусса-Маркова утверждает, что любая другая линейная несмещенная оценка будет иметь большую дисперсию, чем МНК-оценка:
Нетрудно показать, что для любого вектора оценка будет обладать теми же свойствами, что и МНК-оценка . Поэтому:
- если взять то получим что
- - несмещенная, эффективная оценка
- если то
- - несмещенная, эффективная оценка
Свойства МНК-оценок с предположением о нормальности
Пусть теперь к тому же выполнено ДП3, т.е. - многомерная нормально распределенная случайная величина, или, что то же самое имеют совместное нормальное распределение. Тогда к перечисленным выше свойствам добавятся следующие:
- МНК-оценка коэффициентов регрессии имеет нормальное распределение:
- Несмещенная оценка для дисперсии шума имеет вид:
- где RSS есть остаточная сумма квадратов;
- Случайная величина распределена по закону хи-квадрат с степенями свободы
- Оценки и линейно независимы. Откуда получается, что величина
- имеет распределение Стьюдента с степенями свободы.