Статистическое оценивание

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Пример: достаточной статистики)
Строка 81: Строка 81:
====Пример====
====Пример====
 +
Рассмотрим задачу оценивания неизвестной вероятности некоторого события <tex>p</tex> по результатам серии из <tex>n</tex> испытаний Бернулли.
 +
Выборка <tex>X^n=(X_1,\ldots,X_n)</tex> состоит из независимых бернуллиевских случайных величин, каждая из которых равна 1 с вероятностью <tex>p</tex> и 0 с вероятностью <tex>1-p</tex>. Эти величины являются индикаторами того, произошло или нет в соответствующем испытании заданное событие.
 +
Вероятность того, что в результате серии получится заданная двоичная последовательность <tex>(x_1,\ldots,x_n)</tex>, <tex>x_i\in\{0,1\}</tex>, равна
 +
 +
<center><tex>p(x_1,\ldits,x_n)=p^S(1-p)^{n-S}</tex>, где <tex>S=\sum_{i=1}^nx_i</tex>.</center>
 +
 +
Таким образом, вероятность зависит от выборки только через сумму элементов выборки <tex>S</tex>, которая, согласно критерию факторизации, является достаточной статистикой для параметра <tex>p</tex> (сомножитель <tex>h</tex> в данном случае равен 1).
 +
 +
Действительно, если зафиксировать некоторое значение <tex>S</tex>, то мы знаем, сколько в проведенной серии должно быть единиц и нулей. Для того, чтобы полностью описать результаты наблюдений, остается указать порядок, в котором эти элементы должны следовать. Поскольку наблюдения независимы, то легко показать, что все возможные перестановки будут равновероятны, т.е. от значения <tex>p</tex> распределение уже зависеть не будет.
 +
 +
Таким образом, статистика <tex>S</tex>, равная количеству экспериментов, в которых данное событие произошло, содержит в себе всю информацию о неизвестной вероятности <tex>p</tex>. Эффективную оценку этой вероятности следует искать в виде функции от этой статистики. В данной задаче такой оценкой будет <tex>\widehat p=S/n</tex>, т.е. частота, с которой искомое событие происходило в наблюденной серии. А порядок, в котором происходили эти события, для оценки учитывать не нужно, он о данном параметре информацию не несет.
-
''...to be continued...''
 

Версия 11:23, 12 ноября 2009

Содержание

Постановка задачи

Задача статистического оценивания неизвестных параметров - одна из двух основных (наряду с задачей проверки статистических гипотез) задач математической статистики.

Предположим, что имеется параметрическое семейство распределений вероятностей F(t,\theta) (для простоты будем рассматривать распределение случайных величин и случай одного параметра). Здесь \theta\in\mathbb{R} - числовой параметр, значение которого неизвестно. Требуется оценить его по имеющейся выборке X^n=(X_1,\ldots,X_n) значений, порожденной данным распределением.

Различают два основных типа оценок: точечные оценки и доверительные интервалы.

Точечное оценивание

Точечное оценивание - это вид статистического оценивания, при котором значение неизвестного параметра \theta приближается отдельным числом. То есть необходимо указать функцию от выборки (статистику)

\widehat\theta_n=\widehat\theta_n(X^n),

значение которой будет рассматриваться в качестве приближения к неизвестному истинному значению \theta.

Ниже приводятся некоторые свойства, которыми могут обладать или не обладать точечные оценки.

Состоятельность

Одно из самых очевидных требований к точечной оценке заключается в том, чтобы можно было ожидать достаточно хорошего приближения к истинному значению параметра при достаточно больших значениях объема выборки n. Это означает, что оценка \widehat\theta_n должна сходиться к истинному значению \theta при n\to\infty. Это свойство оценки и называется состоятельностью. Поскольку речь идет о случайных величинах, для которых имеются разные виды сходимости, то и данное свойство может быть точно сформулировано по-разному:

  • если \widehat\theta_n сходится к истинному значению \theta с вероятностью 1 (почти наверное), то тогда оценка называется сильно состоятельной;
  • если имеет место сходимость по вероятности \widehat{\theta}_n\stackrel{P}{\longrightarrow}\theta, то тогда оценка называется слабо состоятельной.

Когда употребляют просто термин состоятельность, то обычно имеется в виду слабая состоятельность, т.е. сходимость по вероятности.

Условие состоятельности является практически обязательным для всех используемых на практике оценок. Несостоятельные оценки используются крайне редко.

Несмещенность и асимптотическая несмещенность

Оценка \widehat\theta_n параметра \theta называется несмещенной, если ее математическое ожидание равно истинному значению оцениваемого параметра:

\mathbb{E}\widehat\theta_n=\theta.

Более слабым условием является асимптотическая несмещенность, которая означает, что математическое ожидание оценки сходится к истинному значению параметра с ростом объема выборки:

\lim_{n\to\infty}\mathbb{E}\widehat\theta_n=\theta.

Несмещенность является рекомендуемым свойством оценок. Однако не следует слишком переоценивать его значимость. Чаще всего несмещенные оценки параметров существуют и тогда стараются рассматривать только их. Однако могут быть такие статистические задачи, в которых несмещенных оценок не существует. Наиболее известным примером является следующий: рассмотрим распределение Пуассона с параметром \lambda и поставим задачу оценки параметра \theta=1/\lambda. Можно доказать, что для этой задачи не существует несмещенной оценки.

Сравнение оценок и эффективность

Для сравнения между собой различных оценок одного и того же параметра применяют следующий метод: выбирают некоторую функцию риска, которая измеряет отклонение оценки от истинного значения параметра, и лучшей считают ту, для которой эта функция принимает меньшее значение.

Чаще всего в качестве функции риска рассматривают математическое ожидание квадрата отклонения оценки от истинного значения

\mathbb{E}(\widehat\theta_n-\theta)^2

Для несмещенных оценок это есть просто дисперсия D\widehat\theta_n.

Существует нижняя граница на данную функцию риска, называемая неравенство Крамера-Рао.

(Несмещенные) оценки, для которых достигается эта нижняя граница (т.е. имеющие минимально возможную дисперсию), называются эффективными. Однако существование эффективной оценки есть довольно сильное требование на задачу, которое имеет место далеко не всегда.

Более слабым является условие асимптотической эффективности, которое означает, что отношение дисперсии несмещенной оценки к нижней границе Крамера-Рао стремится к единице при n\to\infty.

Заметим, что при достаточно широких предположениях относительно исследуемого распределения, метод максимального правдоподобия дает асимптотически эффективную оценку параметра, а если существует эффективная оценка - тогда он дает эффективную оценку.

Достаточные статистики

Статистика T_n=T_n(X_1,\ldots,X_n) назвается достаточной для параметра \theta, если условное распределение выборки X^n=(X_1,\ldots,X_n) при условии того, что T_n=a, не зависит от параметра \theta для всех a\in\mathbb{R}.

Важность понятия достаточной статистики обуславливается следующим утверждением. Если T_n - достаточная статистика, а \widehat\theta_n - несмещенная оценка параметра \theta, тогда условное математическое ожидание \mathbb{E}(\widehat\theta_n|T_n) является также несмещенной оценкой параметра \theta, причем ее дисперсия меньше или равна дисперсии исходной оценки \widehat\theta_n.

Напомним, что условное математическое ожидание \mathbb{E}(\widehat\theta_n|T_n) есть случайная величина, являющаяся функцией от T_n. Таким образом, в классе несмещенных оценок достаточно рассматривать только такие, которые являются функциями от достаточной статистики (при условии, что такая существует для данной задачи).

(Несмещенная) эффективная оценка параметра всегда является достаточной статистикой.

Можно сказать, что достаточная статистика содержит в себе всю информацию об оцениваемом параметре, которая содержится в выборке X^n.

Критерий факторизации

Пусть p(X^n,\theta) - плотность распределения выборки в абсолютно непрерывном случае или вероятность в дискретном случае. Тогда статистика T_n(X^n) является достаточной для параметра \theta тогда и только тогда, когда p может быть представлена в виде произведения двух сомножителей:

p(X^n,\theta)=g(T_n(X^n),\theta)\cdot h(X^n),

первый из которых зависит от выборки только через значение статистики T_n, а второй не зависит от параметра \theta.

Проиллюстрируем идею доказательства достаточности критерия. Если принять условие T_n(X^n)=a, то первый сомножитель уже не будет зависеть от выборки, т.е. будет константой, которая однозначно определяется из условия нормировки вероятности. Таким образом, вся вероятность оказывается не зависящей от \theta, что и требуется.

Пример

Рассмотрим задачу оценивания неизвестной вероятности некоторого события p по результатам серии из n испытаний Бернулли.

Выборка X^n=(X_1,\ldots,X_n) состоит из независимых бернуллиевских случайных величин, каждая из которых равна 1 с вероятностью p и 0 с вероятностью 1-p. Эти величины являются индикаторами того, произошло или нет в соответствующем испытании заданное событие.

Вероятность того, что в результате серии получится заданная двоичная последовательность (x_1,\ldots,x_n), x_i\in\{0,1\}, равна

p(x_1,\ldits,x_n)=p^S(1-p)^{n-S}, где S=\sum_{i=1}^nx_i.

Таким образом, вероятность зависит от выборки только через сумму элементов выборки S, которая, согласно критерию факторизации, является достаточной статистикой для параметра p (сомножитель h в данном случае равен 1).

Действительно, если зафиксировать некоторое значение S, то мы знаем, сколько в проведенной серии должно быть единиц и нулей. Для того, чтобы полностью описать результаты наблюдений, остается указать порядок, в котором эти элементы должны следовать. Поскольку наблюдения независимы, то легко показать, что все возможные перестановки будут равновероятны, т.е. от значения p распределение уже зависеть не будет.

Таким образом, статистика S, равная количеству экспериментов, в которых данное событие произошло, содержит в себе всю информацию о неизвестной вероятности p. Эффективную оценку этой вероятности следует искать в виде функции от этой статистики. В данной задаче такой оценкой будет \widehat p=S/n, т.е. частота, с которой искомое событие происходило в наблюденной серии. А порядок, в котором происходили эти события, для оценки учитывать не нужно, он о данном параметре информацию не несет.



К общим методам построения точечных оценок параметров относятся: метод максимального правдоподобия, метод моментов, метод квантилей.

Доверительные интервалы

Литература

  1. Кобзарь А. И. Прикладная математическая статистика. — М.: Физматлит, 2006. — 816 с.
  1. Гарольд Крамер. Математические методы статистики. — М.: Гос. изд-во иностр. лит-ры, 1948. — 631 с.
  1. под ред. В.С. Королюка. Справочник по теории вероятностей и математической статистике. — Киев: Наукова думка, 1978. — 582 с.

Ссылки

Личные инструменты