Метод Бенджамини-Хохберга

Материал из MachineLearning.

Перейти к: навигация, поиск

Метод Бенджамини-Хохберга[1][1] — один из методов контроля ожидаемой доли ложных отклонений гипотез (FDR) который утверждает, что при определенных ограничениях на статистики гипотез  T_i для достижения контроля FDR на уровне \alpha достаточно, чтобы отвергались гипотезы H_i, для которых p_i \le \frac{i\alpha}{m}, где m — количество гипотез.

Содержание

Определение

Пусть H_{1},...,H_{m} — семейство гипотез, а p_{1},...,p_{m} — соответствующие им достигаемые уровни значимости. Обозначим за R - число отвергнутых гипотез, а за V - число неверно отвергнутых гипотез, т.е. число ошибок первого рода.

Ожидаемая доля ложных отклонений гипотез, или FDR, определяется следующим образом

FDR\:=\: \operator{E}\left(\frac{V}{R}[R > 0]\right)

Контроль над FDR на уровне \alpha означает, что

FDR\:=\: \operator{E}\left(\frac{V}{R}[R > 0]\right) \leq \alpha

Метод Бенджамини-Хохберга

Это нисходящая процедура(по аналогии с методом Холма и методом Шидака-Холма) со следующими уровнями значимости

\alpha_1 = \frac{\alpha}{m}\:,\:\dots\:,\:\alpha_i = \frac{i\alpha}{m}\:, \:\dots\:, \:\alpha_m = \alpha

Пусть p_{(1)}\leq \ldots \leq p_{(m)} — уровни значимости p_i, упорядоченные по неубыванию, H_{(1)}, \ldots, H_{(m)} — соответствующие p_{(i)} гипотезы. Процедура метода Бенджамини-Хохберга определена следующим образом.

Шаг 1. Если p_{(1)}\geq\frac{\alpha}{m}, принять гипотезы H_{(1)}, \ldots, H_{(m)} и остановиться. Иначе, если p_{(1)}<\frac{\alpha}{m}, отвергнуть гипотезу H_{(1)} и продолжить проверку оставшихся гипотез на уровне значимости \frac{2\alpha}{m}.
Шаг 2. Если p_{(2)}\geq\frac{2\alpha}{m}, принять гипотезы H_{(2)}, \ldots, H_{(m)} и остановиться. Иначе, если p_{(2)}<\frac{2\alpha}{m}, отвергнуть гипотезу H_{(2)} и продолжить проверку оставшихся гипотез на уровне значимости \frac{3\alpha}{m}.
И т.д.

Метод обеспечивает контроль над FDR на уровне \alpha при нижеследующих условиях.

Ограничения

Статистики T_i независимы или выполняется следующее свойство (PRDS[1] on T_i,\: i \in M_0):

\operator{P}(X\in D|T_i=x) не убывает по x\:\forall i\in M_0,

где M_0 - множество индексов верных гипотез, D - произвольное возрастающее множество, то есть, такое, что из x\in D и y \geq x следует y\in D

Альтернативная постановка

Переходим к модифицированным достигаемым уровням значимости:

\tilde p_{(i)}\: =\: \min(1,\: \max(\frac{mp_{(i)}}{i}, \:\tilde p_{(i-1)}))

Пример

n=20, \;m=200, \;m_0 = 150;

X_{ij} \sim N(0,1), \;i=1,\ldots,m_0, \;j=1,\ldots,n;

X_{ij} \sim N(1,1),\; i=m_0+1,\ldots,m, \;j=1,\ldots,n;

H_i: EX_{ij} = 0, \;H_i': EX_{ij} \ne 0;

для проверки используем одновыборочный критерий Стьюдента.

С поправкой Холма(метод Холма):

Верных H_i Неверных H_i Всего
Принятых H_i 150 24 174
Отвергнутых H_i 0 26 26
Всего 150 50 200


С методом Бенджамини-Хохберга:

Верных H_i Неверных H_i Всего
Принятых H_i 148 4 152
Отвергнутых H_i 2 46 48
Всего 150 50 200

Реализации

  • MATLAB: Benjamini and Hochberg/Yekutieli Procedure for Controlling False Discovery Rate [1] - реализация на MathWorks.com
  • R: функция p.adjust[1] (с параметром method="BH") из стандартного пакета stats позволяет получить модифицированные уровни значимости с учетом поправки метода Бенджамини-Хохберга.

Ссылки


См. также

Метод Холма

Метод Бенджамини-Иекутиели

Личные инструменты