Обсуждение участника:Riabenko
Материал из MachineLearning.
м |
м |
||
Строка 2: | Строка 2: | ||
- | М-оценки | + | М-оценки — широкий класс статистических оценок, доставляющих минимум суммы каких-либо функций от данных: |
+ | ::<tex>\hat{\theta}=\arg\min_{\displaystyle\theta}\left(\sum_{i=1}^N\rho(x_i, \theta)\right) \,\!</tex> | ||
+ | М-оценками являются, в частности, оценки [[Метод наименьших квадратов|наименьших квадратов]], а также многие оценки [[Метод наибольшего правдоподобия|максимального правдоподобия]]. | ||
+ | |||
+ | Функция <tex>\rho</tex> выбирается таким образом, чтобы обеспечить желаемые свойства оценки (несмещённость и эффективность) в условиях, когда данные взяты из известного распределения, и достаточную устойчивость к отклонениям от этого распределения. | ||
+ | |||
+ | == M-оценки положения распределения == | ||
+ | Для положения распределения М-оценки задаются следующим образом: | ||
+ | ::<tex>\hat{\theta}=\arg\min_{\displaystyle\theta}\left(\sum_{i=1}^N\rho(x_i - \theta)\right), \,\!</tex> | ||
+ | <tex>\rho(0)=0, \;\; \rho(x)\geq 0 \forall x, \;\; \rho(-x)=\rho(x), \;\; \rho(x_1)\geq\rho(x_2)</tex> при <tex>|x_1|>|x_2|.</tex> | ||
+ | |||
+ | Задача минимизации приводит к уравнению | ||
+ | ::<tex>\sum_{i=1}^N \psi(x_i-\theta)=0,</tex> | ||
+ | где <tex>\psi</tex> – производная <tex>\rho</tex>. | ||
+ | |||
+ | |||
+ | |||
+ | {| class="wikitable" | ||
+ | |- | ||
+ | ! М-оценка | ||
+ | ! <tex>\rho(x)</tex> | ||
+ | ! <tex>\psi(x)</tex> | ||
+ | ! <tex>w(x)</tex> | ||
+ | |- | ||
+ | ! Huber <tex>\left\{ \begin{array}{l} \text{при} |x|\leq k \\ \text{при} |x|>k \end{array} \rignt.</tex> | ||
+ | | | ||
+ | | | ||
+ | | | ||
+ | |- | ||
+ | ! "Fair" | ||
+ | | <tex>c^2\left(\frac{|x|}{c}-\log\left(1+\frac{|x|}{c}\right)\right)</tex> | ||
+ | | <tex>\frac{x}{1+\frac{|x|}{c}}</tex> | ||
+ | | <tex>\frac{1}{1+\frac{|x|}{c}}</tex> | ||
+ | |- | ||
+ | ! Cauchy | ||
+ | | <tex>\frac{c}{2}\log\left(1+\left(x/c\right)^2\right</tex> | ||
+ | | <tex>\frac{x}{1+\left(x/c\right)^2}</tex> | ||
+ | | <tex>\frac{1}{1+\left(x/c\right)^2}</tex> | ||
+ | |- | ||
+ | ! Geman-McClure | ||
+ | | <tex>\frac{x^2/2}{1+x^2}</tex> | ||
+ | | <tex>\frac{x}{\left(1+x^2\right)^2}</tex> | ||
+ | | <tex>\frac{1}{\left(1+x^2\right)^2}</tex> | ||
+ | |- | ||
+ | ! Welsch | ||
+ | | | ||
+ | | | ||
+ | | | ||
+ | |- | ||
+ | ! Тьюки | ||
+ | | | ||
+ | | | ||
+ | | | ||
+ | |- | ||
+ | ! Andrews | ||
+ | | | ||
+ | | | ||
+ | | | ||
+ | |} | ||
+ | |||
+ | |||
+ | == Ссылки == | ||
+ | * [http://en.wikipedia.org/wiki/M-estimator M-estimator] - статья из английской Википедии | ||
+ | [[Категория:Прикладная статистика]] | ||
+ | |||
Версия 17:22, 21 октября 2011
Глоссарий статистических терминов ISI
М-оценки — широкий класс статистических оценок, доставляющих минимум суммы каких-либо функций от данных:
М-оценками являются, в частности, оценки наименьших квадратов, а также многие оценки максимального правдоподобия.
Функция выбирается таким образом, чтобы обеспечить желаемые свойства оценки (несмещённость и эффективность) в условиях, когда данные взяты из известного распределения, и достаточную устойчивость к отклонениям от этого распределения.
M-оценки положения распределения
Для положения распределения М-оценки задаются следующим образом:
при
Задача минимизации приводит к уравнению
где – производная .
М-оценка | |||
---|---|---|---|
Huber | |||
"Fair" | |||
Cauchy | |||
Geman-McClure | |||
Welsch | |||
Тьюки | |||
Andrews |
Ссылки
- M-estimator - статья из английской Википедии
Категоризация статей
Женя, я вижу, ты активно работаешь над улучшением статей по статистике. Старайся уделять внимание категоризации статей, которые правишь. Необходимым является наличие хотя бы одной категории в статье, но их может быть и несколько. Подробнее о категоризации можно прочитать здесь: MachineLearning:Категоризация. И вообше, не стесняйся спрашивать, если нужна помощь или что-то не понятно. :) --Yury Chekhovich 22:17, 17 мая 2010 (MSD)
- Хорошо, спасибо! --Riabenko 11:03, 25 мая 2010 (MSD)