Достаточная статистика

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск

Riabenko (Обсуждение | вклад)
(Новая: Статистика <tex>T_n=T_n(X_1,\ldots,X_n)</tex> назвается '''достаточной''' для параметра <tex>\theta</tex>, если условное распр...)
К следующему изменению →

Версия 11:46, 8 ноября 2010

Статистика T_n=T_n(X_1,\ldots,X_n) назвается достаточной для параметра \theta, если условное распределение выборки X^n=(X_1,\ldots,X_n) при условии того, что T_n=a, не зависит от параметра \theta для всех a\in\mathbb{R}.

Важность понятия достаточной статистики обуславливается следующим утверждением. Если T_n - достаточная статистика, а \widehat\theta_n - несмещенная оценка параметра \theta, тогда условное математическое ожидание \mathbb{E}(\widehat\theta_n|T_n) является также несмещенной оценкой параметра \theta, причем ее дисперсия меньше или равна дисперсии исходной оценки \widehat\theta_n.

Напомним, что условное математическое ожидание \mathbb{E}(\widehat\theta_n|T_n) есть случайная величина, являющаяся функцией от T_n. Таким образом, в классе несмещенных оценок достаточно рассматривать только такие, которые являются функциями от достаточной статистики (при условии, что такая существует для данной задачи).

(Несмещенная) эффективная оценка параметра всегда является достаточной статистикой.

Можно сказать, что достаточная статистика содержит в себе всю информацию об оцениваемом параметре, которая содержится в выборке X^n.

Критерий факторизации

Пусть p(X^n,\theta) - плотность распределения выборки в абсолютно непрерывном случае или вероятность в дискретном случае. Тогда статистика T_n(X^n) является достаточной для параметра \theta тогда и только тогда, когда p может быть представлена в виде произведения двух сомножителей:

p(X^n,\theta)=g(T_n(X^n),\theta)\cdot h(X^n),

первый из которых зависит от выборки только через значение статистики T_n, а второй не зависит от параметра \theta.


Пример

Рассмотрим задачу оценивания неизвестной вероятности некоторого события p по результатам серии из n испытаний Бернулли.

Выборка X^n=(X_1,\ldots,X_n) состоит из независимых бернуллиевских случайных величин, каждая из которых равна 1 с вероятностью p и 0 с вероятностью 1-p. Эти величины являются индикаторами того, произошло или нет в соответствующем испытании заданное событие.

Вероятность того, что в результате серии получится заданная двоичная последовательность (x_1,\ldots,x_n), x_i\in\{0,1\}, равна

p(x_1,\ldots,x_n)=p^S(1-p)^{n-S}, где S=\sum_{i=1}^nx_i.

Таким образом, вероятность зависит от выборки только через сумму элементов выборки S, которая, согласно критерию факторизации, является достаточной статистикой для параметра p (сомножитель h в данном случае равен 1).

Действительно, если зафиксировать некоторое значение S, то мы знаем, сколько в проведенной серии должно быть единиц и нулей. Для того, чтобы полностью описать результаты наблюдений, остается указать порядок, в котором эти элементы должны следовать. Поскольку наблюдения независимы, то легко показать, что все возможные перестановки будут равновероятны, т.е. от значения p распределение уже зависеть не будет.

Таким образом, статистика S, равная количеству экспериментов, в которых данное событие произошло, содержит в себе всю информацию о неизвестной вероятности p. Эффективную оценку этой вероятности следует искать в виде функции от этой статистики. В данной задаче такой оценкой будет \widehat p=S/n, т.е. частота, с которой искомое событие происходило в наблюденной серии. А порядок, в котором происходили эти события, для оценки учитывать не нужно, он о данном параметре информацию не несет.

Личные инструменты