Проверка статистических гипотез

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
м (уточнение)
м (уточнение)
Строка 27: Строка 27:
Тому есть две причины.
Тому есть две причины.
* По мере увеличения длины выборки нулевая гипотеза может сначала приниматься, но потом выявятся более тонкие несоответствия данных гипотезе, и она будет отвергнута. То есть многое зависит от объёма данных; если данных не хватает, можно принять даже самую неправдоподобную гипотезу.
* По мере увеличения длины выборки нулевая гипотеза может сначала приниматься, но потом выявятся более тонкие несоответствия данных гипотезе, и она будет отвергнута. То есть многое зависит от объёма данных; если данных не хватает, можно принять даже самую неправдоподобную гипотезу.
-
* Выбранная статистика <tex>T</tex> может отражать не всю информацию, содержащуюся в гипотезе&nbsp;<tex>H_0</tex>. В&nbsp;таком случае увеличивается вероятность ошибки второго рода — нулевая гипотеза может быть принята, хотя на самом деле она не верна. Допустим, например, что <tex>H_0</tex> = «распределение нормально»; <tex>T(X^m)</tex> = [[коэффициент асимметрии]]; тогда выборка с любым симметричным распределением будет признана нормальной. Чтобы избегать таких ошибок, следует пользоваться более [[Мощность критерия|мощными критериями]].
+
* Выбранная статистика <tex>T</tex> может отражать не всю информацию, содержащуюся в гипотезе&nbsp;<tex>H_0</tex>. В&nbsp;таком случае увеличивается вероятность ошибки второго рода — нулевая гипотеза может быть принята, хотя на самом деле она не верна. Допустим, например, что <tex>H_0</tex> = «распределение нормально»; <tex>T(X^m)</tex> = «[[коэффициент асимметрии]]»; тогда выборка с любым симметричным распределением будет признана нормальной. Чтобы избегать таких ошибок, следует пользоваться более [[Мощность критерия|мощными критериями]].
== Типы критической области ==
== Типы критической области ==
-
Обозначим через <tex>t_z</tex> значение, которое находится из уравнения <tex>F(t_z) = z</tex>, где&nbsp;<tex>F(t) = \mathbb{P}\left\{ T<t \right\}</tex> — функция распределения статистики&nbsp;<tex>T</tex>.
+
Обозначим через <tex>t_\alpha</tex> значение, которое находится из уравнения <tex>F(t_\alpha) = \alpha</tex>, где&nbsp;<tex>F(t) = \mathbb{P}\left\{ T<t \right\}</tex> — функция распределения статистики&nbsp;<tex>T</tex>.
-
Фактически, <tex>t_z</tex> есть обратная к ней функция: <tex>t_z = F^{-1}(z)</tex>.
+
Фактически, <tex>t_\alpha</tex> есть обратная к ней функция: <tex>t_\alpha = F^{-1}(\alpha)</tex>.
 +
Значение <tex>t_\alpha</tex> называется также <tex>\alpha</tex>-''[[квантиль]]ю распределения''&nbsp;<tex>F(t)</tex>.
-
На практике, как правило, используются статистики&nbsp;<tex>T</tex> с унимодальной плотностью распределения, то есть плотностью, имеющей форму пика.
+
На практике, как правило, используются статистики&nbsp;<tex>T</tex> с унимодальной (имеющей форму пика) плотностью распределения.
-
Критические области (наименее вероятные значения статистики) соответствуют хвостам распределения.
+
Критические области (наименее вероятные значения статистики) соответствуют «хвостам» этого распределения.
Поэтому чаще всего возникают критические области одного из трёх типов:
Поэтому чаще всего возникают критические области одного из трёх типов:

Версия 13:34, 11 августа 2008

Содержание

Статистическая гипотеза (statistical hypothesys) — это определённое предположение о распределении вероятностей, лежащем в основе наблюдаемой выборки данных.

Проверка статистической гипотезы (testing statistical hypotheses) — это процесс принятия решения о том, что рассматриваемая статистическая гипотеза не противоречит наблюдаемой выборке данных.

Статистический тест или статистический критерий — строгое математическое правило, по которому принимается или отвергается статистическая гипотеза.

Методика проверки статистических гипотез

Пусть задана случайная выборка x^m = (x_1,\ldots,x_m) — последовательность m объектов из множества X. Предполагается, что на множестве X существует некоторая неизвестная вероятностная мера \mathbb{P}.

Методика состоит в следующем.

  1. Формулируется нулевая гипотеза H_0 о распределении вероятностей на множестве X. Гипотеза формулируется исходя из требований прикладной задачи. Чаще всего рассматриваются две гипотезы — основная или нулевая H_0 и альтернативная H_1. Иногда альтернатива не формулируется в явном виде; тогда предполагается, что H_1 означает «не H_0». Иногда рассматривается сразу несколько альтернатив. В математической статистике хорошо изучено несколько десятков «наиболее часто встречающихся» типов гипотез, и известны ещё сотни специальных вариантов и разновидностей. Примеры приводятся ниже.
  2. Задаётся некоторая статистика (функция выборки) T:\: X^m \to \mathbb{R}, для которой в условиях справедливости гипотезы H_0 выводится функция распределения F(T) и/или плотность распределения p(T). Вопрос о том, какую статистику надо взять для проверки той или иной гипотезы, часто не имеет однозначного ответа. Есть целый ряд требований, которым должна удовлетворять «хорошая» статистика T. Вывод функции распределения F(T) при заданных H_0 и T является строгой математической задачей, которая решается методами теории вероятностей; в справочниках приводятся готовые формулы для F(T); в статистических пакетах имеются готовые вычислительные процедуры.
  3. Фиксируется уровень значимости — допустимая для данной задачи вероятность ошибки первого рода, то есть того, что гипотеза на самом деле верна, но будет отвергнута процедурой проверки. Это должно быть достаточно малое число \alpha \in [0,1]. На практике часто полагают \alpha=0.05.
  4. На множестве допустимых значений статистики T выделяется критическое множество \Omega наименее вероятных значений статистики T, такое, что \mathbb{P}\{T\in\Omega\} = \alpha. Вычисление границ критического множества является строгой математической задачей, которая в большинстве практических случаев имеет готовое простое решение.
  5. Собственно статистический тест (статистический критерий) заключается в проверке условия:
    • если T(X^m)\in\Omega, то делается вывод «данные противоречат нулевой гипотезе при уровне значимости \alpha». Гипотеза отвергается.
    • если T(X^m)\notin\Omega, то делается вывод «данные не противоречат нулевой гипотезе при уровне значимости \alpha». Гипотеза принимается.

Итак, статистический критерий определяется статистикой T и критическим множеством \Omega, которое зависит от уровня значимости.

Замечание. Если данные не противоречат нулевой гипотезе, это ещё не значит, что гипотеза верна. Тому есть две причины.

  • По мере увеличения длины выборки нулевая гипотеза может сначала приниматься, но потом выявятся более тонкие несоответствия данных гипотезе, и она будет отвергнута. То есть многое зависит от объёма данных; если данных не хватает, можно принять даже самую неправдоподобную гипотезу.
  • Выбранная статистика T может отражать не всю информацию, содержащуюся в гипотезе H_0. В таком случае увеличивается вероятность ошибки второго рода — нулевая гипотеза может быть принята, хотя на самом деле она не верна. Допустим, например, что H_0 = «распределение нормально»; T(X^m) = «коэффициент асимметрии»; тогда выборка с любым симметричным распределением будет признана нормальной. Чтобы избегать таких ошибок, следует пользоваться более мощными критериями.

Типы критической области

Обозначим через t_\alpha значение, которое находится из уравнения F(t_\alpha) = \alpha, где F(t) = \mathbb{P}\left\{ T<t \right\} — функция распределения статистики T. Фактически, t_\alpha есть обратная к ней функция: t_\alpha = F^{-1}(\alpha). Значение t_\alpha называется также \alpha-квантилью распределения F(t).

На практике, как правило, используются статистики T с унимодальной (имеющей форму пика) плотностью распределения. Критические области (наименее вероятные значения статистики) соответствуют «хвостам» этого распределения. Поэтому чаще всего возникают критические области одного из трёх типов:

  • Двусторонняя критическая область определяется двумя интервалами \Omega = (-\infty,\;t_{\alpha/2})\cup(t_{1-\alpha/2}\;+\infty).
  • Левосторонняя критическая область определяется интервалом \Omega = (-\infty,\; t_\alpha).
  • Правосторонняя критическая область определяется интервалом \Omega = (t_{1-\alpha},\;+\infty).


Ошибки первого и второго рода

  • Ошибка первого рода или «ложная тревога» (англ. type I error, \alpha error, false positive) — когда нулевая гипотеза отвергается, хотя на самом деле она верна. Вероятность ошибки первого рода:
\alpha = \mathbb{P}\left\{ T\in\Omega | H_0 \right\}.
  • Ошибка второго рода или «пропуск цели» (англ. type II error, \beta error, false negative) — когда нулевая гипотеза принимается, хотя на самом деле она не верна. Вероятность ошибки второго рода:
\beta(H_1) = \mathbb{P}\left\{ T\notin\Omega | H_1 \right\}.
  Верная гипотеза
 H_0   H_1 
Результат
 применения 
критерия
 H_0  H_0 верно принята H_1 неверно отвергнута 
(Ошибка второго рода)
 H_1  H_0 неверно отвергнута 
(Ошибка первого рода)
H_1 верно принята

Свойства статистических критериев

Мощность критерия: 1 - \beta(H) = \mathbb{P}\left\{ T\in\Omega | H \right\} — вероятность отклонить гипотезу H_0, если на самом деле верна альтернативная гипотеза H. Мощность критерия является числовой функцией от альтернативной гипотезы H.

Несмещённый критерий: 1-\beta(H) > \alpha для всех альтернатив H.

Состоятельный критерий: \beta(H) \to 0 при m\to\infty для всех альтернатив H.

Равномерно более мощный критерий. Говорят, что критерий с мощностью 1-\beta(H) является равномерно более мощным, чем критерий с мощностью 1-\beta'(H), если выполняются два условия:

  1. \beta(H_0) = \beta'(H_0);
  2. \beta(H_1) \leq \beta'(H_1) для всех рассматриваемых альтернатив H_1\neq H_0, причём хотя бы для одной альтернативы неравенство строгое.

Типы статистических гипотез

  • Простая гипотеза однозначно определяет функцию распределения на множестве X. Простые гипотезы имеют узкую область применения, ограниченную критериями согласия (см. ниже). Для простых гипотез известен общий вид равномерно более мощного критерия (Теорема Неймана-Пирсона).
  • Сложная гипотеза утверждает принадлежность распределения к некоторому множеству распределений на X. Для сложных гипотез вывести равномерно более мощный критерий удаётся лишь в некоторых специальных случаях.

Типы статистических критериев

В зависимости от проверяемой нулевой гипотезы статистические критерии делятся на группы, перечисленные ниже по разделам.

Наряду с нулевой гипотезой, которая принимается или отвергается по результату анализа выборки, статистические критерии могут опираться на дополнительные предположения, которые априори предпологаются выполненными.

  • Параметрические критерии предполагают, что выборка порождена распределением из заданного параметрического семейства. В частности, существует много критериев, предназначенных для анализа выборок из нормального распределения. Преимущество этих критериев в том, что они более мощные. Однако если выборка не удовлетворяет дополнительным предположениям, то вероятность ошибок (как I, так и II рода) резко возрастает. Прежде чем применять такие критерии, необходимо проверить дополнительную гипотезу о распределении с помощью критериев согласия.
  • Непараметрические критерии не опираются на дополнительные предположения о распределении. В частности, к этому типу критериев относятся ранговые критерии.

Критерии согласия

Критерии согласия проверяют, согласуется ли заданная выборка с заданным фиксированным распределением, с заданным параметрическим семейством распределений, или с другой выборкой.

Критерии нормальности

Критерии нормальности — это выделенный частный случай критериев согласия. Нормально распределённые величины часто встречаются в прикладных задачах, что обусловлено действием закона больших чисел. Если про выборки заранее известно, что они подчиняются нормальному распределению, то к ним становится возможно применять более мощные параметрические критерии. Проверка нормальность часто выполняется на первом шаге анализа выборки, чтобы решить, использовать далее параметрические методы или непараметрические. В справочнике А. И. Кобзаря приведена сравнительная таблица мощности для 21 критерия нормальности.

Критерии однородности

Критерии однородности предназначены для проверки нулевой гипотезы о том, что две выборки (или несколько) взяты из одного распределения, либо их распределения имеют одинаковые значения математического ожидания, дисперсии, или других параметров.

Критерии тренда, стационарности и случайности

Критерии тренда и случайности предназначены для проверки нулевой гипотезы об отсутствии зависимости между выборочными данными и номером наблюдения в выборке. Они часто применяются в анализе временных рядов, в частности, при анализе регрессионных остатков.

Критерии выбросов

Критерии дисперсионного анализа

Критерии корреляционного анализа

Критерии регрессионного анализа

Литература

  1. Вероятность и математическая статистика: Энциклопедия / Под ред. Ю.В.Прохорова. — М.: Большая российская энциклопедия, 2003. — 912 с.
  2. Кобзарь А. И. Прикладная математическая статистика. — М.: Физматлит, 2006.

Ссылки