Обсуждение участника:Riabenko
Материал из MachineLearning.
м |
м |
||
Строка 16: | Строка 16: | ||
::<tex>\sum_{i=1}^N \psi(x_i-\theta)=0,</tex> | ::<tex>\sum_{i=1}^N \psi(x_i-\theta)=0,</tex> | ||
где <tex>\psi</tex> – производная <tex>\rho</tex>. | где <tex>\psi</tex> – производная <tex>\rho</tex>. | ||
- | |||
- | |||
{| class="wikitable" | {| class="wikitable" | ||
Строка 26: | Строка 24: | ||
! <tex>w(x)</tex> | ! <tex>w(x)</tex> | ||
|- | |- | ||
- | ! Huber <tex>\left\ | + | ! Huber |
- | | | + | | <tex>\begin{cases}x^2/2, & |x|\leq k \\ k\left(|x|-k/2\right), & |x|>k \end{cases}</tex> |
- | | | + | | <tex>\begin{cases}x, & |x|\leq k \\ k\operatorname{sgn}(x), & |x|>k \end{cases}</tex> |
- | | | + | | <tex>\begin{cases}1, & |x|\leq k \\ \frac{k}{x}, & |x|>k\end{cases}</tex> |
|- | |- | ||
! "Fair" | ! "Fair" | ||
Строка 36: | Строка 34: | ||
| <tex>\frac{1}{1+\frac{|x|}{c}}</tex> | | <tex>\frac{1}{1+\frac{|x|}{c}}</tex> | ||
|- | |- | ||
- | ! Cauchy | + | ! Cauchy |
- | | <tex>\frac{c}{2}\log\left(1+\left(x/c\right)^2\right</tex> | + | | <tex>\frac{c}{2}\log\left(1+\left(x/c\right)^2\right)</tex> |
| <tex>\frac{x}{1+\left(x/c\right)^2}</tex> | | <tex>\frac{x}{1+\left(x/c\right)^2}</tex> | ||
| <tex>\frac{1}{1+\left(x/c\right)^2}</tex> | | <tex>\frac{1}{1+\left(x/c\right)^2}</tex> | ||
Строка 47: | Строка 45: | ||
|- | |- | ||
! Welsch | ! Welsch | ||
- | | | + | | <tex>\frac{c^2}{2}\left(1-\exp\left(-\left(x/c\right)^2\right)\right)</tex> |
- | | | + | | <tex>x\exp\left(-\left(x/c\right)^2\right)</tex> |
- | | | + | | <tex>\exp\left(-\left(x/c\right)^2\right)</tex> |
|- | |- | ||
- | ! | + | ! Tukey |
- | | | + | | <tex>\begin{cases}\frac{c^2}{6}\left(1-\left(1-\left(x/c\right)^2\right)^3\right), & |x|\leq c \\ \frac{c^2}{6}, & |x|>c \end{cases}</tex> |
- | | | + | | <tex>\begin{cases}x\left(1\left(x/c\right)^2\right)^2 , & |x|\leq c \\ 0 , & |x|>c \end{cases}</tex> |
- | | | + | | <tex>\begin{cases}\left(1\left(x/c\right)^2\right)^2, & |x|\leq c \\ 0, & |x|>c \end{cases}</tex> |
|- | |- | ||
! Andrews | ! Andrews | ||
- | | | + | | <tex>\begin{cases}k^2\left(1-\cos\left(x/k\right)\right), & |x|\leq k\pi \\ 2k^2, & |x|>k\pi \end{cases}</tex> |
- | | | + | | <tex>\begin{cases}k\sin\left(x/k\right), & |x|\leq k\pi \\ 0, & |x|>k\pi \end{cases}</tex> |
- | | | + | | <tex>\begin{cases}\frac{\sin\left(x/k\right)}{x/k}, & |x|\leq k\pi \\ 0, & |x|>k\pi \end{cases}</tex> |
|} | |} | ||
Версия 15:57, 22 октября 2011
Глоссарий статистических терминов ISI
М-оценки — широкий класс статистических оценок, доставляющих минимум суммы каких-либо функций от данных:
М-оценками являются, в частности, оценки наименьших квадратов, а также многие оценки максимального правдоподобия.
Функция выбирается таким образом, чтобы обеспечить желаемые свойства оценки (несмещённость и эффективность) в условиях, когда данные взяты из известного распределения, и достаточную устойчивость к отклонениям от этого распределения.
M-оценки положения распределения
Для положения распределения М-оценки задаются следующим образом:
при
Задача минимизации приводит к уравнению
где – производная .
М-оценка | |||
---|---|---|---|
Huber | |||
"Fair" | |||
Cauchy | |||
Geman-McClure | |||
Welsch | |||
Tukey | |||
Andrews |
Ссылки
- M-estimator - статья из английской Википедии
Категоризация статей
Женя, я вижу, ты активно работаешь над улучшением статей по статистике. Старайся уделять внимание категоризации статей, которые правишь. Необходимым является наличие хотя бы одной категории в статье, но их может быть и несколько. Подробнее о категоризации можно прочитать здесь: MachineLearning:Категоризация. И вообше, не стесняйся спрашивать, если нужна помощь или что-то не понятно. :) --Yury Chekhovich 22:17, 17 мая 2010 (MSD)
- Хорошо, спасибо! --Riabenko 11:03, 25 мая 2010 (MSD)