Проверка статистических гипотез

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Типы критической области)
м (Альтернативная методика на основе достигаемого уровня значимости)
 
(10 промежуточных версий не показаны.)
Строка 15: Строка 15:
# Задаётся некоторая [[статистика (функция выборки)]] <tex>T:\: X^m \to \mathbb{R}</tex>, для которой в условиях справедливости гипотезы <tex>H_0</tex> выводится [[функция распределения]] <tex>F(T)</tex> и/или [[плотность распределения]]&nbsp;<tex>p(T)</tex>. Вопрос о том, какую статистику надо взять для проверки той или иной гипотезы, часто не имеет однозначного ответа. Есть целый ряд требований, которым должна удовлетворять «хорошая» статистика&nbsp;<tex>T</tex>. Вывод функции распределения <tex>F(T)</tex> при заданных&nbsp;<tex>H_0</tex> и&nbsp;<tex>T</tex> является строгой математической задачей, которая решается методами теории вероятностей; в&nbsp;справочниках приводятся готовые формулы для&nbsp;<tex>F(T)</tex>; в&nbsp;статистических пакетах имеются готовые вычислительные процедуры.
# Задаётся некоторая [[статистика (функция выборки)]] <tex>T:\: X^m \to \mathbb{R}</tex>, для которой в условиях справедливости гипотезы <tex>H_0</tex> выводится [[функция распределения]] <tex>F(T)</tex> и/или [[плотность распределения]]&nbsp;<tex>p(T)</tex>. Вопрос о том, какую статистику надо взять для проверки той или иной гипотезы, часто не имеет однозначного ответа. Есть целый ряд требований, которым должна удовлетворять «хорошая» статистика&nbsp;<tex>T</tex>. Вывод функции распределения <tex>F(T)</tex> при заданных&nbsp;<tex>H_0</tex> и&nbsp;<tex>T</tex> является строгой математической задачей, которая решается методами теории вероятностей; в&nbsp;справочниках приводятся готовые формулы для&nbsp;<tex>F(T)</tex>; в&nbsp;статистических пакетах имеются готовые вычислительные процедуры.
# Фиксируется ''[[уровень значимости]]'' — допустимая для данной задачи вероятность ''ошибки первого рода'', то есть того, что гипотеза на самом деле верна, но будет отвергнута процедурой проверки. Это должно быть достаточно малое число <tex>\alpha \in [0,1]</tex>. На&nbsp;практике часто полагают <tex>\alpha=0.05</tex>.
# Фиксируется ''[[уровень значимости]]'' — допустимая для данной задачи вероятность ''ошибки первого рода'', то есть того, что гипотеза на самом деле верна, но будет отвергнута процедурой проверки. Это должно быть достаточно малое число <tex>\alpha \in [0,1]</tex>. На&nbsp;практике часто полагают <tex>\alpha=0.05</tex>.
-
# На множестве допустимых значений статистики&nbsp;<tex>T</tex> выделяется ''критическое множество''&nbsp;<tex>\Omega_\alpha</tex> наименее вероятных значений статистики&nbsp;<tex>T</tex>, такое, что <tex>\mathbb{P}\{T\in\Omega_\alpha\} = \alpha</tex>. Вычисление границ критического множества как функции от уровня значимости <tex>\alpha</tex> является строгой математической задачей, которая в большинстве практических случаев имеет готовое простое решение.
+
# На множестве допустимых значений статистики&nbsp;<tex>T</tex> выделяется ''критическое множество''&nbsp;<tex>\Omega_\alpha</tex> наименее вероятных значений статистики&nbsp;<tex>T</tex>, такое, что <tex>\mathbb{P}\{T\in\Omega_\alpha\left|H_0\right.\} = \alpha</tex>. Вычисление границ критического множества как функции от уровня значимости <tex>\alpha</tex> является строгой математической задачей, которая в большинстве практических случаев имеет готовое простое решение.
# Собственно ''статистический тест'' (''статистический критерий'') заключается в проверке условия:
# Собственно ''статистический тест'' (''статистический критерий'') заключается в проверке условия:
#* если <tex>T(X^m)\in\Omega_\alpha</tex>, то делается вывод «данные противоречат нулевой гипотезе при уровне значимости&nbsp;<tex>\alpha</tex>». Гипотеза отвергается.
#* если <tex>T(X^m)\in\Omega_\alpha</tex>, то делается вывод «данные противоречат нулевой гипотезе при уровне значимости&nbsp;<tex>\alpha</tex>». Гипотеза отвергается.
Строка 31: Строка 31:
== Альтернативная методика на основе достигаемого уровня значимости ==
== Альтернативная методика на основе достигаемого уровня значимости ==
-
Широкое распространение методики фиксированного уровня значимости было вызвано сложностью вычисления многих статистики критерия. Чаще всего использовались таблицы, в которых для некоторых априорных уровней значимости были выписаны критические значения. Более современный способ представления результатов проверки гипотез - использование так называемого [[Достигаемый уровень значимости|достигаемого уровня значимости]] (p-value).
+
Широкое распространение методики фиксированного уровня значимости было вызвано сложностью вычисления многих статистических критериев в докомпьютерную эпоху. Чаще всего использовались таблицы, в которых для некоторых априорных уровней значимости были выписаны критические значения. В&nbsp;настоящее время результаты проверки гипотез чаще представляют с помощью [[Достигаемый уровень значимости|достигаемого уровня значимости]].
-
'''Достигаемый уровень значимости''' (p-value) — это наименьшая величина [[уровень значимости|уровня значимости]],
+
'''Достигаемый уровень значимости''' (пи-величина, англ. p-value) — это наименьшая величина уровня значимости,
-
при которой [[нулевая гипотеза]] отвергается для данного значения статистики критерия&nbsp;<tex>T</tex>.
+
при которой нулевая гипотеза отвергается для данного значения статистики критерия&nbsp;<tex>T:</tex>
-
::<tex>\p(T) = \min \left\{ \alpha:\: T\in\Omega_\alpha \right\},</tex>
+
::<tex>p(T) = \min \{ \alpha:\: T\in\Omega_\alpha \},</tex>
где
где
-
<tex>\Omega_\alpha</tex> — критическое множество.
+
<tex>\Omega_\alpha</tex> — критическая область критерия.
Другая интерпретация:
Другая интерпретация:
-
''достигаемый уровень значимости''&nbsp;<tex>\p(T)</tex> — это вероятность, с которой (при условии истинности нулевой гипотезы) могла бы реализоваться наблюдаемая выборка, или любая другая выборка с ещё более вероятным значением статистики&nbsp;<tex>T</tex>.
+
достигаемый уровень значимости <tex>p(T)</tex> — это вероятность при справедливости нулевой гипотезы получить значение статистики, такое же или ещё более экстремальное, чем&nbsp;<tex>T.</tex>
-
Если достигаемый уровень значимости достаточно велик (близок к единице), нулевая гипотеза отвергается.
+
Если достигаемый уровень значимости достаточно мал (близок к нулю), то нулевая гипотеза отвергается.
В&nbsp;частности, его можно сравнивать с фиксированным уровнем значимости;
В&nbsp;частности, его можно сравнивать с фиксированным уровнем значимости;
-
тогда данная методика эквивалентна использованию фиксированного уровня значимости&nbsp;<tex>\alpha</tex>.
+
тогда альтернативная методика будет эквивалентна классической.
== Типы критической области ==
== Типы критической области ==
Строка 60: Строка 60:
* '''Левосторонняя критическая область:'''
* '''Левосторонняя критическая область:'''
:: определяется интервалом <tex>\Omega_\alpha = (-\infty,\, t_\alpha)</tex>.
:: определяется интервалом <tex>\Omega_\alpha = (-\infty,\, t_\alpha)</tex>.
-
:: пи-величина: <tex>\p(T) = F(T).</tex>
+
:: пи-величина: <tex>p(T) = F(T).</tex>
* '''Правосторонняя критическая область:'''
* '''Правосторонняя критическая область:'''
:: определяется интервалом <tex>\Omega_\alpha = (t_{1-\alpha},\,+\infty)</tex>.
:: определяется интервалом <tex>\Omega_\alpha = (t_{1-\alpha},\,+\infty)</tex>.
-
:: пи-величина: <tex>\p(T) = 1-F(T).</tex>
+
:: пи-величина: <tex>p(T) = 1-F(T).</tex>
* '''Двусторонняя критическая область:'''
* '''Двусторонняя критическая область:'''
:: определяется двумя интервалами <tex>\Omega_\alpha = (-\infty,\, t_{\alpha/2}) \cup (t_{1-\alpha/2},\,+\infty);</tex>
:: определяется двумя интервалами <tex>\Omega_\alpha = (-\infty,\, t_{\alpha/2}) \cup (t_{1-\alpha/2},\,+\infty);</tex>
-
:: пи-величина: <tex>\p(T) = \min \left\{ 2F(T),\; 2(F(T)-1) \right\}.</tex>
+
:: пи-величина: <tex>p(T) = \min \left\{ 2F(T),\; 2(1-F(T)) \right\}.</tex>
== Ошибки первого и второго рода ==
== Ошибки первого и второго рода ==
Строка 90: Строка 90:
! |&nbsp;<tex>H_0</tex>&nbsp;
! |&nbsp;<tex>H_0</tex>&nbsp;
| style="background: #ddffdd;" | <tex>H_0</tex> верно принята
| style="background: #ddffdd;" | <tex>H_0</tex> верно принята
-
| style="background: #ffdddd;" | <tex>H_1</tex> неверно отвергнута&nbsp;<br/>(Ошибка ''второго'' рода)
+
| style="background: #ffdddd;" | <tex>H_0</tex> неверно принята&nbsp;<br/>(Ошибка ''второго'' рода)
|-
|-
! |&nbsp;<tex>H_1</tex>&nbsp;
! |&nbsp;<tex>H_1</tex>&nbsp;
| style="background: #ffdddd;" | <tex>H_0</tex> неверно отвергнута&nbsp;<br/>(Ошибка ''первого'' рода)
| style="background: #ffdddd;" | <tex>H_0</tex> неверно отвергнута&nbsp;<br/>(Ошибка ''первого'' рода)
-
| style="background: #ddffdd;" | <tex>H_1</tex> верно принята
+
| style="background: #ddffdd;" | <tex>H_0</tex> верно отвергнута
|}
|}
</center>
</center>
-
+
 
== Свойства статистических критериев ==
== Свойства статистических критериев ==
Строка 130: Строка 130:
Наряду с ''нулевой гипотезой'', которая принимается или отвергается по результату анализа выборки, статистические критерии могут опираться на ''дополнительные предположения'', которые априори предпологаются выполненными.
Наряду с ''нулевой гипотезой'', которая принимается или отвергается по результату анализа выборки, статистические критерии могут опираться на ''дополнительные предположения'', которые априори предпологаются выполненными.
-
* ''Параметрические критерии'' предполагают, что выборка порождена распределением из заданного параметрического семейства. В&nbsp;частности, существует много критериев, предназначенных для анализа выборок из нормального распределения. Преимущество этих критериев в том, что они более мощные. Если выборка действительно удовлетворяет дополнительным предположениям, то параметрические критерии дают более точные результаты. Однако если выборка им не удовлетворяет, то вероятность ошибок (как I, так и II рода) может резко возрасти. Прежде чем применять такие критерии, необходимо убедиться, что выборока удовлетворяет дополнительным предположениям. Гипотезы о виде распределения проверяются с помощью критериев согласия.
+
* ''Параметрические критерии'' предполагают, что выборка порождена распределением из заданного параметрического семейства. В&nbsp;частности, существует много критериев, предназначенных для анализа выборок из нормального распределения. Преимущество этих критериев в том, что они более мощные. Если выборка действительно удовлетворяет дополнительным предположениям, то параметрические критерии дают более точные результаты. Однако если выборка им не удовлетворяет, то вероятность ошибок (как I, так и II рода) может резко возрасти. Прежде чем применять такие критерии, необходимо убедиться, что выборка удовлетворяет дополнительным предположениям. Гипотезы о виде распределения проверяются с помощью критериев согласия.
* ''Непараметрические критерии'' не опираются на дополнительные предположения о распределении. В&nbsp;частности, к этому типу критериев относится большинство [[:Категория:Ранговые критерии|ранговых критериев]].
* ''Непараметрические критерии'' не опираются на дополнительные предположения о распределении. В&nbsp;частности, к этому типу критериев относится большинство [[:Категория:Ранговые критерии|ранговых критериев]].
Строка 188: Строка 188:
{{Stub}}
{{Stub}}
[[Категория:Математическая статистика]]
[[Категория:Математическая статистика]]
 +
[[Категория:Статистические тесты]]
[[Категория:Прикладная статистика]]
[[Категория:Прикладная статистика]]
[[Категория:Популярные и обзорные статьи]]
[[Категория:Популярные и обзорные статьи]]
[[Категория:Энциклопедия анализа данных]]
[[Категория:Энциклопедия анализа данных]]

Текущая версия

Содержание

Статистическая гипотеза (statistical hypothesys) — это определённое предположение о распределении вероятностей, лежащем в основе наблюдаемой выборки данных.

Проверка статистической гипотезы (testing statistical hypotheses) — это процесс принятия решения о том, противоречит ли рассматриваемая статистическая гипотеза наблюдаемой выборке данных.

Статистический тест или статистический критерий — строгое математическое правило, по которому принимается или отвергается статистическая гипотеза.

Методика проверки статистических гипотез

Пусть задана случайная выборка x^m = (x_1,\ldots,x_m) — последовательность m объектов из множества X. Предполагается, что на множестве X существует некоторая неизвестная вероятностная мера \mathbb{P}.

Методика состоит в следующем.

  1. Формулируется нулевая гипотеза H_0 о распределении вероятностей на множестве X. Гипотеза формулируется исходя из требований прикладной задачи. Чаще всего рассматриваются две гипотезы — основная или нулевая H_0 и альтернативная H_1. Иногда альтернатива не формулируется в явном виде; тогда предполагается, что H_1 означает «не H_0». Иногда рассматривается сразу несколько альтернатив. В математической статистике хорошо изучено несколько десятков «наиболее часто встречающихся» типов гипотез, и известны ещё сотни специальных вариантов и разновидностей. Примеры приводятся ниже.
  2. Задаётся некоторая статистика (функция выборки) T:\: X^m \to \mathbb{R}, для которой в условиях справедливости гипотезы H_0 выводится функция распределения F(T) и/или плотность распределения p(T). Вопрос о том, какую статистику надо взять для проверки той или иной гипотезы, часто не имеет однозначного ответа. Есть целый ряд требований, которым должна удовлетворять «хорошая» статистика T. Вывод функции распределения F(T) при заданных H_0 и T является строгой математической задачей, которая решается методами теории вероятностей; в справочниках приводятся готовые формулы для F(T); в статистических пакетах имеются готовые вычислительные процедуры.
  3. Фиксируется уровень значимости — допустимая для данной задачи вероятность ошибки первого рода, то есть того, что гипотеза на самом деле верна, но будет отвергнута процедурой проверки. Это должно быть достаточно малое число \alpha \in [0,1]. На практике часто полагают \alpha=0.05.
  4. На множестве допустимых значений статистики T выделяется критическое множество \Omega_\alpha наименее вероятных значений статистики T, такое, что \mathbb{P}\{T\in\Omega_\alpha\left|H_0\right.\} = \alpha. Вычисление границ критического множества как функции от уровня значимости \alpha является строгой математической задачей, которая в большинстве практических случаев имеет готовое простое решение.
  5. Собственно статистический тест (статистический критерий) заключается в проверке условия:
    • если T(X^m)\in\Omega_\alpha, то делается вывод «данные противоречат нулевой гипотезе при уровне значимости \alpha». Гипотеза отвергается.
    • если T(X^m)\notin\Omega_\alpha, то делается вывод «данные не противоречат нулевой гипотезе при уровне значимости \alpha». Гипотеза принимается.

Итак, статистический критерий определяется статистикой T и критическим множеством \Omega_\alpha, которое зависит от уровня значимости \alpha.

Замечание. Если данные не противоречат нулевой гипотезе, это ещё не значит, что гипотеза верна. Тому есть две причины.

  • По мере увеличения длины выборки нулевая гипотеза может сначала приниматься, но потом выявятся более тонкие несоответствия данных гипотезе, и она будет отвергнута. То есть многое зависит от объёма данных; если данных не хватает, можно принять даже самую неправдоподобную гипотезу.
  • Выбранная статистика T может отражать не всю информацию, содержащуюся в гипотезе H_0. В таком случае увеличивается вероятность ошибки второго рода — нулевая гипотеза может быть принята, хотя на самом деле она не верна. Допустим, например, что H_0 = «распределение нормально»; T(X^m) = «коэффициент асимметрии»; тогда выборка с любым симметричным распределением будет признана нормальной. Чтобы избегать таких ошибок, следует пользоваться более мощными критериями.

Альтернативная методика на основе достигаемого уровня значимости

Широкое распространение методики фиксированного уровня значимости было вызвано сложностью вычисления многих статистических критериев в докомпьютерную эпоху. Чаще всего использовались таблицы, в которых для некоторых априорных уровней значимости были выписаны критические значения. В настоящее время результаты проверки гипотез чаще представляют с помощью достигаемого уровня значимости.

Достигаемый уровень значимости (пи-величина, англ. p-value) — это наименьшая величина уровня значимости, при которой нулевая гипотеза отвергается для данного значения статистики критерия T:

p(T) = \min \{ \alpha:\: T\in\Omega_\alpha \},

где \Omega_\alpha — критическая область критерия.

Другая интерпретация: достигаемый уровень значимости p(T) — это вероятность при справедливости нулевой гипотезы получить значение статистики, такое же или ещё более экстремальное, чем T.

Если достигаемый уровень значимости достаточно мал (близок к нулю), то нулевая гипотеза отвергается. В частности, его можно сравнивать с фиксированным уровнем значимости; тогда альтернативная методика будет эквивалентна классической.

Типы критической области

Обозначим через t_\alpha значение, которое находится из уравнения F(t_\alpha) = \alpha, где F(t) = \mathbb{P}\left\{ T<t \right\} — функция распределения статистики T. Если функция распределения непрерывная строго монотонная, то t_\alpha есть обратная к ней функция:

t_\alpha = F^{-1}(\alpha).

Значение t_\alpha называется также \alpha-квантилем распределения F(t).

На практике, как правило, используются статистики T с унимодальной (имеющей форму пика) плотностью распределения. Критические области (наименее вероятные значения статистики) соответствуют «хвостам» этого распределения. Поэтому чаще всего возникают критические области одного из трёх типов:

  • Левосторонняя критическая область:
определяется интервалом \Omega_\alpha = (-\infty,\, t_\alpha).
пи-величина: p(T) = F(T).
  • Правосторонняя критическая область:
определяется интервалом \Omega_\alpha = (t_{1-\alpha},\,+\infty).
пи-величина: p(T) = 1-F(T).
  • Двусторонняя критическая область:
определяется двумя интервалами \Omega_\alpha = (-\infty,\, t_{\alpha/2}) \cup (t_{1-\alpha/2},\,+\infty);
пи-величина: p(T) = \min \left\{ 2F(T),\; 2(1-F(T)) \right\}.

Ошибки первого и второго рода

  • Ошибка первого рода или «ложная тревога» (англ. type I error, \alpha error, false positive) — когда нулевая гипотеза отвергается, хотя на самом деле она верна. Вероятность ошибки первого рода:
\alpha = \mathbb{P}\left\{ T\in\Omega_\alpha | H_0 \right\}.
  • Ошибка второго рода или «пропуск цели» (англ. type II error, \beta error, false negative) — когда нулевая гипотеза принимается, хотя на самом деле она не верна. Вероятность ошибки второго рода:
\beta(H_1) = \mathbb{P}\left\{ T\notin\Omega_\alpha | H_1 \right\}.
  Верная гипотеза
 H_0   H_1 
Результат
 применения 
критерия
 H_0  H_0 верно принята H_0 неверно принята 
(Ошибка второго рода)
 H_1  H_0 неверно отвергнута 
(Ошибка первого рода)
H_0 верно отвергнута

Свойства статистических критериев

Мощность критерия: 1 - \beta(H) = \mathbb{P}\left\{ T\in\Omega_\alpha | H \right\} — вероятность отклонить гипотезу H_0, если на самом деле верна альтернативная гипотеза H. Мощность критерия является числовой функцией от альтернативной гипотезы H.

Несмещённый критерий: 1-\beta(H) \geq \alpha для всех альтернатив H или, что то же самое, \mathbb{P}\left\{ T\in\Omega_\alpha | H \right\} \geq \mathbb{P}\left\{ T\in\Omega_\alpha | H_0 \right\} для всех альтернатив H.

Состоятельный критерий: \beta(H) \to 0 при m\to\infty для всех альтернатив H.

Равномерно более мощный критерий. Говорят, что критерий с мощностью 1-\beta(H) является равномерно более мощным, чем критерий с мощностью 1-\beta'(H), если выполняются два условия:

  1. \beta(H_0) = \beta'(H_0);
  2. \beta(H_1) \leq \beta'(H_1) для всех рассматриваемых альтернатив H_1\neq H_0, причём хотя бы для одной альтернативы неравенство строгое.

Типы статистических гипотез

  • Простая гипотеза однозначно определяет функцию распределения на множестве X. Простые гипотезы имеют узкую область применения, ограниченную критериями согласия (см. ниже). Для простых гипотез известен общий вид равномерно более мощного критерия (Теорема Неймана-Пирсона).
  • Сложная гипотеза утверждает принадлежность распределения к некоторому множеству распределений на X. Для сложных гипотез вывести равномерно более мощный критерий удаётся лишь в некоторых специальных случаях.

Типы статистических критериев

В зависимости от проверяемой нулевой гипотезы статистические критерии делятся на группы, перечисленные ниже по разделам.

Наряду с нулевой гипотезой, которая принимается или отвергается по результату анализа выборки, статистические критерии могут опираться на дополнительные предположения, которые априори предпологаются выполненными.

  • Параметрические критерии предполагают, что выборка порождена распределением из заданного параметрического семейства. В частности, существует много критериев, предназначенных для анализа выборок из нормального распределения. Преимущество этих критериев в том, что они более мощные. Если выборка действительно удовлетворяет дополнительным предположениям, то параметрические критерии дают более точные результаты. Однако если выборка им не удовлетворяет, то вероятность ошибок (как I, так и II рода) может резко возрасти. Прежде чем применять такие критерии, необходимо убедиться, что выборка удовлетворяет дополнительным предположениям. Гипотезы о виде распределения проверяются с помощью критериев согласия.
  • Непараметрические критерии не опираются на дополнительные предположения о распределении. В частности, к этому типу критериев относится большинство ранговых критериев.

Критерии согласия

Критерии согласия проверяют, согласуется ли заданная выборка с заданным фиксированным распределением, с заданным параметрическим семейством распределений, или с другой выборкой.

Критерии сдвига

Специальный случай двухвыборочных критериев согласия. Проверяется гипотеза сдвига, согласно которой распределения двух выборок имеют одинаковую форму и отличаются только сдвигом на константу.

Критерии нормальности

Критерии нормальности — это выделенный частный случай критериев согласия. Нормально распределённые величины часто встречаются в прикладных задачах, что обусловлено действием закона больших чисел. Если про выборки заранее известно, что они подчиняются нормальному распределению, то к ним становится возможно применять более мощные параметрические критерии. Проверка нормальность часто выполняется на первом шаге анализа выборки, чтобы решить, использовать далее параметрические методы или непараметрические. В справочнике А. И. Кобзаря приведена сравнительная таблица мощности для 21 критерия нормальности.

Критерии однородности

Критерии однородности предназначены для проверки нулевой гипотезы о том, что две выборки (или несколько) взяты из одного распределения, либо их распределения имеют одинаковые значения математического ожидания, дисперсии, или других параметров.

Критерии симметричности

Критерии симметричности позволяют проверить симметричность распределения.

Критерии тренда, стационарности и случайности

Критерии тренда и случайности предназначены для проверки нулевой гипотезы об отсутствии зависимости между выборочными данными и номером наблюдения в выборке. Они часто применяются в анализе временных рядов, в частности, при анализе регрессионных остатков.

Критерии выбросов

Критерии дисперсионного анализа

Критерии корреляционного анализа

Критерии регрессионного анализа

Литература

  1. Вероятность и математическая статистика: Энциклопедия / Под ред. Ю.В.Прохорова. — М.: Большая российская энциклопедия, 2003. — 912 с.
  2. Кобзарь А. И. Прикладная математическая статистика. Справочник для инженеров и научных работников. — М.: Физматлит, 2006. — 816 с.

Ссылки

Личные инструменты