М-оценка
Материал из MachineLearning.
м (Новая: М-оценки — широкий класс статистических оценок, доставляющих минимум суммы каких-либо функций от дан...) |
м |
||
Строка 16: | Строка 16: | ||
::<tex>\sum_{i=1}^n \psi\left(x_i-\theta\right)=0.</tex> | ::<tex>\sum_{i=1}^n \psi\left(x_i-\theta\right)=0.</tex> | ||
- | + | Чтобы сделать М-оценку независимой от коэффициента масштаба распределения, можно перейти к задаче | |
- | ::<tex>\min_{\displaystyle\theta}\sum_{i=1}^n\rho\left(\frac{x_i - \theta}{s}\right), \,\!</tex>--> | + | ::<tex>\min_{\displaystyle\theta}\sum_{i=1}^n\rho\left(\frac{x_i - \theta}{s}\right), \,\!</tex> |
+ | ::<tex>\sum_{i=1}^n\psi\left(\frac{x_i - \theta}{s}\right)=0,</tex> | ||
+ | где значение параметра <tex>s</tex> можно находить вместе с <tex>\theta</tex>, а можно считать в данной задаче известным, используя какую-либо оценку (например, [[абсолютное отклонение среднего]]). | ||
+ | |||
+ | Иногда от этой задаче переходят к задаче вида | ||
+ | ::<tex>\sum_{i=1}^n w\left(r_i\right) r_i = 0, </tex> | ||
+ | где <tex>r_i=\frac{x_i - \theta}{s}</tex>, <tex>w\left(r_i\right)=\frac{\psi\left(r_i\right)}{r_i}</tex> — весовая функция. Оценка параметра тогда получается как решение итерационно перевзвешиваемой задачи наименьших квадратов: | ||
+ | ::<tex>\sum_{i=1}^n w\left(r_i^{(k-1)}\right)r_i^{(k)},</tex> | ||
+ | где k — номер итерации. | ||
[[Изображение:M-estimator_rho.png|thumb|460px|Вид функции <tex>\rho</tex> для некоторых популярных М-оценок.]] | [[Изображение:M-estimator_rho.png|thumb|460px|Вид функции <tex>\rho</tex> для некоторых популярных М-оценок.]] | ||
{| class="wikitable" | {| class="wikitable" | ||
Строка 24: | Строка 32: | ||
! <tex>\rho(x)</tex> | ! <tex>\rho(x)</tex> | ||
! <tex>\psi(x)</tex> | ! <tex>\psi(x)</tex> | ||
- | + | ! <tex>w(x)</tex> | |
|- | |- | ||
! Huber | ! Huber | ||
| <tex>\begin{cases}x^2/2, & |x|\leq k \\ k\left(|x|-k/2\right), & |x|>k \end{cases}</tex> | | <tex>\begin{cases}x^2/2, & |x|\leq k \\ k\left(|x|-k/2\right), & |x|>k \end{cases}</tex> | ||
| <tex>\begin{cases}x, & |x|\leq k \\ k\operatorname{sgn}(x), & |x|>k \end{cases}</tex> | | <tex>\begin{cases}x, & |x|\leq k \\ k\operatorname{sgn}(x), & |x|>k \end{cases}</tex> | ||
- | + | | <tex>\begin{cases}1, & |x|\leq k \\ \frac{k}{x}, & |x|>k\end{cases}</tex> | |
|- | |- | ||
! "fair" | ! "fair" | ||
| <tex>c^2\left(\frac{|x|}{c}-\log\left(1+\frac{|x|}{c}\right)\right)</tex> | | <tex>c^2\left(\frac{|x|}{c}-\log\left(1+\frac{|x|}{c}\right)\right)</tex> | ||
| <tex>\frac{x}{1+\frac{|x|}{c}}</tex> | | <tex>\frac{x}{1+\frac{|x|}{c}}</tex> | ||
- | + | | <tex>\frac{1}{1+\frac{|x|}{c}}</tex> | |
|- | |- | ||
! Cauchy | ! Cauchy | ||
| <tex>\frac{c}{2}\log\left(1+\left(x/c\right)^2\right)</tex> | | <tex>\frac{c}{2}\log\left(1+\left(x/c\right)^2\right)</tex> | ||
| <tex>\frac{x}{1+\left(x/c\right)^2}</tex> | | <tex>\frac{x}{1+\left(x/c\right)^2}</tex> | ||
- | + | | <tex>\frac{1}{1+\left(x/c\right)^2}</tex> | |
|- | |- | ||
! Geman-McClure | ! Geman-McClure | ||
| <tex>\frac{x^2/2}{1+x^2}</tex> | | <tex>\frac{x^2/2}{1+x^2}</tex> | ||
| <tex>\frac{x}{\left(1+x^2\right)^2}</tex> | | <tex>\frac{x}{\left(1+x^2\right)^2}</tex> | ||
- | + | | <tex>\frac{1}{\left(1+x^2\right)^2}</tex> | |
|- | |- | ||
! Welsch | ! Welsch | ||
| <tex>\frac{c^2}{2}\left(1-\exp\left(-\left(x/c\right)^2\right)\right)</tex> | | <tex>\frac{c^2}{2}\left(1-\exp\left(-\left(x/c\right)^2\right)\right)</tex> | ||
| <tex>x\exp\left(-\left(x/c\right)^2\right)</tex> | | <tex>x\exp\left(-\left(x/c\right)^2\right)</tex> | ||
- | + | | <tex>\exp\left(-\left(x/c\right)^2\right)</tex> | |
|- | |- | ||
- | ! Tukey | + | ! [[Взвешенное среднее Тьюки|Tukey]] |
| <tex>\begin{cases}\frac{c^2}{6}\left(1-\left(1-\left(x/c\right)^2\right)^3\right), & |x|\leq c \\ \frac{c^2}{6}, & |x|>c \end{cases}</tex> | | <tex>\begin{cases}\frac{c^2}{6}\left(1-\left(1-\left(x/c\right)^2\right)^3\right), & |x|\leq c \\ \frac{c^2}{6}, & |x|>c \end{cases}</tex> | ||
| <tex>\begin{cases}x\left(1\left(x/c\right)^2\right)^2 , & |x|\leq c \\ 0 , & |x|>c \end{cases}</tex> | | <tex>\begin{cases}x\left(1\left(x/c\right)^2\right)^2 , & |x|\leq c \\ 0 , & |x|>c \end{cases}</tex> | ||
- | + | | <tex>\begin{cases}\left(1\left(x/c\right)^2\right)^2, & |x|\leq c \\ 0, & |x|>c \end{cases}</tex> | |
|- | |- | ||
! Andrews | ! Andrews | ||
| <tex>\begin{cases}k^2\left(1-\cos\left(x/k\right)\right), & |x|\leq k\pi \\ 2k^2, & |x|>k\pi \end{cases}</tex> | | <tex>\begin{cases}k^2\left(1-\cos\left(x/k\right)\right), & |x|\leq k\pi \\ 2k^2, & |x|>k\pi \end{cases}</tex> | ||
| <tex>\begin{cases}k\sin\left(x/k\right), & |x|\leq k\pi \\ 0, & |x|>k\pi \end{cases}</tex> | | <tex>\begin{cases}k\sin\left(x/k\right), & |x|\leq k\pi \\ 0, & |x|>k\pi \end{cases}</tex> | ||
- | + | | <tex>\begin{cases}\frac{\sin\left(x/k\right)}{x/k}, & |x|\leq k\pi \\ 0, & |x|>k\pi \end{cases}</tex> | |
|} | |} | ||
Следующая таблица содержит значения параметров методов, подобранные таким образом, чтобы при применении к стандартному нормальному распределению оценки имели асимптотическую эффективность 95%. | Следующая таблица содержит значения параметров методов, подобранные таким образом, чтобы при применении к стандартному нормальному распределению оценки имели асимптотическую эффективность 95%. |
Текущая версия
М-оценки — широкий класс статистических оценок, доставляющих минимум суммы каких-либо функций от данных:
М-оценками являются, в частности, оценки наименьших квадратов, а также многие оценки максимального правдоподобия.
Функция выбирается таким образом, чтобы обеспечить желаемые свойства оценки (несмещённость и эффективность) в условиях, когда данные взяты из известного распределения, и достаточную устойчивость к отклонениям от этого распределения.
M-оценки положения распределения
Для положения распределения М-оценки задаются следующим образом:
где функция должна удовлетворять требованиям
- при
Среднее и медиана распределения минимизируют, соответственно, функции и ; примеры других функций , рассматриваемых в теории робастного оценивания, приведены в таблице ниже.
Если имеет производную , задача минимизации приводит к уравнению
Чтобы сделать М-оценку независимой от коэффициента масштаба распределения, можно перейти к задаче
где значение параметра можно находить вместе с , а можно считать в данной задаче известным, используя какую-либо оценку (например, абсолютное отклонение среднего).
Иногда от этой задаче переходят к задаче вида
где , — весовая функция. Оценка параметра тогда получается как решение итерационно перевзвешиваемой задачи наименьших квадратов:
где k — номер итерации.
М-оценка | |||
---|---|---|---|
Huber | |||
"fair" | |||
Cauchy | |||
Geman-McClure | |||
Welsch | |||
Tukey | |||
Andrews |
Следующая таблица содержит значения параметров методов, подобранные таким образом, чтобы при применении к стандартному нормальному распределению оценки имели асимптотическую эффективность 95%.
М-оценка | Значение параметра |
---|---|
Huber | 1.345 |
"fair" | 1.3998 |
Cauchy | 2.3849 |
Welsch | 2.9846 |
Tukey | 4.6851 |
Andrews | 1.339 |
Ссылки
- M-estimator - статья из английской Википедии