Статистические свойства МНК-оценок коэффициентов регрессии
Материал из MachineLearning.
(Новая: Для того, чтобы '''МНК-оценки коэффициентов [[многомерная линейная регре...) |
|||
(7 промежуточных версий не показаны.) | |||
Строка 1: | Строка 1: | ||
- | + | Статистическое исследование [[многомерная линейная регрессия|линейной регрессии]] включает в себя построение [[доверительные интервалы для параметров регрессии|доверительных интервалов для параметров регрессии]]. Однако прежде чем переходить к решению поставленной задачи, необходимо выяснить, какими '''статистическими свойствами''' обладают '''[[Метод наименьших квадратов|МНК-оценки]] коэффициентов регрессии.''' | |
- | ==Основные | + | ==Основные обозначения== |
- | * | + | |
- | + | Ввдедем матричные обозначения: | |
- | *''' | + | |
+ | *<tex>X=\(x_{11}\ \ \ldots\ \ x_{1k}<br>\ \vdots\ \ \ \ \ \ddots\ \ \ \ \vdots<br>x_{n1}\ \ \ldots\ \ x_{nk}\)\;</tex> - матрица, столбцами которой являются векторы признаков (регрессоров), а строками - объекты; | ||
+ | |||
+ | *<tex> y= \left[ y_1 \\ ...\\ y_n\right] </tex> – зависимая переменная (отклик); | ||
+ | |||
+ | *<tex> \theta= \left[\theta_1 \\ ...\\\theta_k \right] </tex> - коэффициенты линейной регрессии; | ||
+ | |||
+ | Модель линейной регрессии имеет вид: | ||
+ | ::<tex>y = X\theta + \varepsilon = \hat y + \varepsilon;</tex> | ||
+ | |||
+ | *<tex>\varepsilon = y - \hat y \; </tex> - вектор регрессионных остатков; | ||
+ | |||
+ | * <tex>\hat\theta = (X^TX)^{-1}X^Ty \; </tex>- МНК-оценка коэффициентов регрессии. | ||
+ | |||
+ | ==Основные Предположения== | ||
+ | Для того, чтобы МНК-оценки коэффициентов регрессии обладали хорошими свойствами, необходимо выполнение ряда предпосылок, называемых ''Основными Предположениями''. | ||
+ | |||
+ | *'''ОП1:''' <tex>X</tex> - детерминированная <tex>n\times k</tex> матрица, <tex>rkX = k</tex> (признаки линейно-независимы); | ||
+ | *'''ОП2:''' Регрессионные остатки <tex>\varepsilon_i, \; i=\overline{1,n}</tex> | ||
::'''2.1.''' одинаково распределены; | ::'''2.1.''' одинаково распределены; | ||
::'''2.2.''' <tex>E\varepsilon_i = 0</tex> (модель несмещенная); | ::'''2.2.''' <tex>E\varepsilon_i = 0</tex> (модель несмещенная); | ||
::'''2.3.''' <tex>D\varepsilon_i = \sigma^2</tex> (гомоскедастичность); | ::'''2.3.''' <tex>D\varepsilon_i = \sigma^2</tex> (гомоскедастичность); | ||
::'''2.4.''' <tex>E\varepsilon_i\varepsilon_j = 0, \; i\neq j</tex> (некореллированность). | ::'''2.4.''' <tex>E\varepsilon_i\varepsilon_j = 0, \; i\neq j</tex> (некореллированность). | ||
- | *'''Дополнительное Предположение 3 (ДП3):''' | + | |
- | + | *'''Дополнительное Предположение 3 (ДП3):''' <tex>\; \; \varepsilon \sim N(0,\sigma^2I_n)</tex>, | |
- | :т.е | + | :т.е вектор регрессионных остатков <tex>\varepsilon</tex> - [[нормальное распределение|нормально распределенный]] [[многомерная случайная величина|случайный вектор]] со [[многомерная случайная величина|средним]] 0 и [[ковариационная матрица|матрицей ковариации]] <tex>\sigma^2I_n</tex> (<tex>I_n</tex> - единичная матрица размера <tex>n\times n</tex>). В этом случаем модель называется ''нормальной линейной регрессионной моделью''. |
+ | |||
+ | Проверки этих предположений занимается [[Анализ регрессионных остатков]]. | ||
==Свойства МНК-оценок без предположения о нормальности== | ==Свойства МНК-оценок без предположения о нормальности== | ||
- | '''Теорема Гаусса-Маркова.''' Пусть выполнены | + | '''Теорема Гаусса-Маркова.''' Пусть выполнены ОП1 и ОП2. Тогда оценка <tex>\hat\theta,</tex> полученная по [[метод наименьших квадратов|методу наименьших квадратов]] является [[статистическое оценивание|эффективной]] в классе линейных [[статистическое оценивание|несмещенных]] оценок (Best Linear Unbiased Estimator, BLUE). |
Исходя из этой теоремы можно выделить несколько основных '''свойств МНК-оценки <tex>\hat\theta:</tex>''' | Исходя из этой теоремы можно выделить несколько основных '''свойств МНК-оценки <tex>\hat\theta:</tex>''' | ||
Строка 22: | Строка 42: | ||
::<tex>E\hat\theta = E((X^TX)^{-1}X^Ty) = (X^TX)^{-1}X^TEy = (X^TX)^{-1}X^TE(X\theta+\varepsilon) = (X^TX)^{-1}X^TX\theta + (X^TX)^{-1}X^TE\varepsilon = \theta;</tex> | ::<tex>E\hat\theta = E((X^TX)^{-1}X^Ty) = (X^TX)^{-1}X^TEy = (X^TX)^{-1}X^TE(X\theta+\varepsilon) = (X^TX)^{-1}X^TX\theta + (X^TX)^{-1}X^TE\varepsilon = \theta;</tex> | ||
* Матрица ковариации равна: | * Матрица ковариации равна: | ||
- | ::<tex>cov\hat\theta = ||cov(\hat\theta_i,\hat\theta_j)||_{i=1,\cdots,k}^{j=1,\cdots,k} = \sigma^2(X^TX)^{-1} | + | ::<tex>cov\hat\theta = ||cov(\hat\theta_i,\hat\theta_j)||_{i=1,\cdots,k}^{j=1,\cdots,k} = \sigma^2(X^TX)^{-1};</tex> |
* МНК-оценка <tex>\hat\theta</tex> '''эффективна'''. | * МНК-оценка <tex>\hat\theta</tex> '''эффективна'''. | ||
Строка 35: | Строка 55: | ||
* если <tex>c = (x_{i1},\cdots,x_{ik}),</tex> то | * если <tex>c = (x_{i1},\cdots,x_{ik}),</tex> то | ||
::<tex>c^T\hat\theta = \hat y_i</tex> - несмещенная, эффективная оценка <tex>y(x_i)_k.</tex> | ::<tex>c^T\hat\theta = \hat y_i</tex> - несмещенная, эффективная оценка <tex>y(x_i)_k.</tex> | ||
- | |||
==Свойства МНК-оценок с предположением о нормальности== | ==Свойства МНК-оценок с предположением о нормальности== | ||
+ | |||
+ | Пусть теперь к тому же выполнено ДП3, т.е. <tex>\varepsilon</tex> - многомерная [[нормальное распределение|нормально распределенная]] [[многомерная случайная величина|случайная величина]], или, что то же самое <tex>y_i</tex> имеют совместное нормальное распределение. Тогда к перечисленным выше свойствам добавятся следующие: | ||
+ | |||
+ | * МНК-оценка коэффициентов регрессии <tex>\hat\theta</tex> имеет нормальное распределение: | ||
+ | ::<tex> \hat\theta \sim N(\theta, \sigma^2(X^TX)^{-1});</tex> | ||
+ | |||
+ | * Несмещенная оценка для дисперсии шума <tex>\sigma^2</tex> имеет вид: | ||
+ | ::<tex>\hat\sigma^2 = \frac{RSS}{n-k},</tex> | ||
+ | :где RSS есть [[остаточная сумма квадратов]]; | ||
+ | |||
+ | * Случайная величина | ||
+ | ::<tex>\frac{RSS}{\sigma^2} \sim \chi^2_{n-k}</tex> | ||
+ | :распределена по [[распределение хи-квадрат|закону хи-квадрат]] с <tex>n-k</tex> степенями свободы; | ||
+ | |||
+ | * Оценки <tex>\hat\theta</tex> и <tex>s^2</tex> линейно независимы. Откуда получается, что величина | ||
+ | ::<tex>\frac{\hat\theta-\theta}{\hat\sigma\sqrt{(X^TX)^{-1}}} \sim t_{n-k}</tex> | ||
+ | :имеет [[распределение Стьюдента]] с <tex>n-k</tex> степенями свободы. | ||
+ | :А значит <tex>\;\forall c\in R^k \;</tex> величина | ||
+ | ::<tex>\frac{c^T(\hat\theta-\theta)}{\hat\sigma\sqrt{c^T(X^TX)^{-1}c}} \sim t_{n-k}</tex> | ||
+ | :также имеет распределение Стьюдента с <tex>n-k</tex> степенями свободы. | ||
+ | |||
+ | ==Литература== | ||
+ | # ''Лагутин М. Б.'' Наглядная математическая статистика. — М.: Бином, 2007. | ||
+ | # ''Кобзарь А. И.'' Прикладная математическая статистика. — М.: Физматлит, 2006. | ||
+ | # ''Магнус Я. Р., Катышев П. К., Пересецкий А. А.'' Эконометрика. Начальный курс: Учеб. — 7-е изд., испр. — М.: Дело, 2005. | ||
+ | |||
+ | ==См. также== | ||
+ | * [[Многомерная линейная регрессия]] | ||
+ | * [[Метод наименьших квадратов]] | ||
+ | * [[Доверительные интервалы для параметров регрессии]] | ||
+ | |||
+ | ==Ссылки== | ||
+ | |||
+ | [[Категория:Прикладная статистика]] | ||
+ | [[Категория:Регрессионный анализ]] |
Текущая версия
Статистическое исследование линейной регрессии включает в себя построение доверительных интервалов для параметров регрессии. Однако прежде чем переходить к решению поставленной задачи, необходимо выяснить, какими статистическими свойствами обладают МНК-оценки коэффициентов регрессии.
Содержание |
Основные обозначения
Ввдедем матричные обозначения:
- - матрица, столбцами которой являются векторы признаков (регрессоров), а строками - объекты;
- – зависимая переменная (отклик);
- - коэффициенты линейной регрессии;
Модель линейной регрессии имеет вид:
- - вектор регрессионных остатков;
- - МНК-оценка коэффициентов регрессии.
Основные Предположения
Для того, чтобы МНК-оценки коэффициентов регрессии обладали хорошими свойствами, необходимо выполнение ряда предпосылок, называемых Основными Предположениями.
- ОП1: - детерминированная матрица, (признаки линейно-независимы);
- ОП2: Регрессионные остатки
- 2.1. одинаково распределены;
- 2.2. (модель несмещенная);
- 2.3. (гомоскедастичность);
- 2.4. (некореллированность).
- Дополнительное Предположение 3 (ДП3): ,
- т.е вектор регрессионных остатков - нормально распределенный случайный вектор со средним 0 и матрицей ковариации ( - единичная матрица размера ). В этом случаем модель называется нормальной линейной регрессионной моделью.
Проверки этих предположений занимается Анализ регрессионных остатков.
Свойства МНК-оценок без предположения о нормальности
Теорема Гаусса-Маркова. Пусть выполнены ОП1 и ОП2. Тогда оценка полученная по методу наименьших квадратов является эффективной в классе линейных несмещенных оценок (Best Linear Unbiased Estimator, BLUE).
Исходя из этой теоремы можно выделить несколько основных свойств МНК-оценки
- Линейность:
- где
- Несмещенность:
- Матрица ковариации равна:
- МНК-оценка эффективна.
Итак, теорема Гаусса-Маркова утверждает, что любая другая линейная несмещенная оценка будет иметь большую дисперсию, чем МНК-оценка:
Нетрудно показать, что для любого вектора оценка будет обладать теми же свойствами, что и МНК-оценка . Поэтому:
- если взять то получим что
- - несмещенная, эффективная оценка
- если то
- - несмещенная, эффективная оценка
Свойства МНК-оценок с предположением о нормальности
Пусть теперь к тому же выполнено ДП3, т.е. - многомерная нормально распределенная случайная величина, или, что то же самое имеют совместное нормальное распределение. Тогда к перечисленным выше свойствам добавятся следующие:
- МНК-оценка коэффициентов регрессии имеет нормальное распределение:
- Несмещенная оценка для дисперсии шума имеет вид:
- где RSS есть остаточная сумма квадратов;
- Случайная величина
- распределена по закону хи-квадрат с степенями свободы;
- Оценки и линейно независимы. Откуда получается, что величина
- имеет распределение Стьюдента с степенями свободы.
- А значит величина
- также имеет распределение Стьюдента с степенями свободы.
Литература
- Лагутин М. Б. Наглядная математическая статистика. — М.: Бином, 2007.
- Кобзарь А. И. Прикладная математическая статистика. — М.: Физматлит, 2006.
- Магнус Я. Р., Катышев П. К., Пересецкий А. А. Эконометрика. Начальный курс: Учеб. — 7-е изд., испр. — М.: Дело, 2005.
См. также
- Многомерная линейная регрессия
- Метод наименьших квадратов
- Доверительные интервалы для параметров регрессии