Обсуждение участника:Riabenko
Материал из MachineLearning.
| м  | м  | ||
| Строка 16: | Строка 16: | ||
| ::<tex>\sum_{i=1}^N \psi(x_i-\theta)=0,</tex> | ::<tex>\sum_{i=1}^N \psi(x_i-\theta)=0,</tex> | ||
| где <tex>\psi</tex>  – производная <tex>\rho</tex>. | где <tex>\psi</tex>  – производная <tex>\rho</tex>. | ||
| + | |||
| {| class="wikitable" | {| class="wikitable" | ||
| Строка 29: | Строка 30: | ||
| | <tex>\begin{cases}1, & |x|\leq k  \\ \frac{k}{x}, & |x|>k\end{cases}</tex> | | <tex>\begin{cases}1, & |x|\leq k  \\ \frac{k}{x}, & |x|>k\end{cases}</tex> | ||
| |- | |- | ||
| - | ! " | + | ! "fair" | 
| | <tex>c^2\left(\frac{|x|}{c}-\log\left(1+\frac{|x|}{c}\right)\right)</tex> | | <tex>c^2\left(\frac{|x|}{c}-\log\left(1+\frac{|x|}{c}\right)\right)</tex> | ||
| | <tex>\frac{x}{1+\frac{|x|}{c}}</tex> | | <tex>\frac{x}{1+\frac{|x|}{c}}</tex> | ||
| Строка 58: | Строка 59: | ||
| | <tex>\begin{cases}k\sin\left(x/k\right), & |x|\leq k\pi \\ 0, & |x|>k\pi \end{cases}</tex> | | <tex>\begin{cases}k\sin\left(x/k\right), & |x|\leq k\pi \\ 0, & |x|>k\pi \end{cases}</tex> | ||
| | <tex>\begin{cases}\frac{\sin\left(x/k\right)}{x/k}, & |x|\leq k\pi \\ 0, & |x|>k\pi \end{cases}</tex> | | <tex>\begin{cases}\frac{\sin\left(x/k\right)}{x/k}, & |x|\leq k\pi \\ 0, & |x|>k\pi \end{cases}</tex> | ||
| + | |} | ||
| + | Следующая таблица содержит значения параметров методов, подобранные таким образом, чтобы при применении к стандартному нормальному распределению методы имели 95% эффективность. | ||
| + | |||
| + | {| class="wikitable" | ||
| + | |- | ||
| + | ! М-оценка | ||
| + | ! Значение параметра | ||
| + | |- | ||
| + | ! Huber | ||
| + | | 1.345 | ||
| + | |- | ||
| + | ! "fair" | ||
| + | | 1.3998 | ||
| + | |- | ||
| + | ! Cauchy | ||
| + | | 2.3849 | ||
| + | |- | ||
| + | ! Welsch | ||
| + | | 2.9846 | ||
| + | |- | ||
| + | ! Tukey | ||
| + | | 4.6851 | ||
| + | |- | ||
| + | ! Andrews | ||
| + | | 1.339 | ||
| |} | |} | ||
| Строка 64: | Строка 90: | ||
| * [http://en.wikipedia.org/wiki/M-estimator M-estimator] - статья из английской Википедии | * [http://en.wikipedia.org/wiki/M-estimator M-estimator] - статья из английской Википедии | ||
| [[Категория:Прикладная статистика]] | [[Категория:Прикладная статистика]] | ||
| - | |||
| - | |||
Версия 04:25, 24 октября 2011
Глоссарий статистических терминов ISI
М-оценки — широкий класс статистических оценок, доставляющих минимум суммы каких-либо функций от данных:
М-оценками являются, в частности, оценки наименьших квадратов, а также многие оценки максимального правдоподобия.
Функция  выбирается таким образом, чтобы обеспечить желаемые свойства оценки (несмещённость и эффективность) в условиях, когда данные взяты из известного распределения, и достаточную устойчивость к отклонениям от этого распределения. 
M-оценки положения распределения
Для положения распределения М-оценки задаются следующим образом:
 при  
Задача минимизации приводит к уравнению
где   – производная 
.
| М-оценка |  |  |  | 
|---|---|---|---|
| Huber |  |  |  | 
| "fair" |  |  |  | 
| Cauchy |  |  |  | 
| Geman-McClure |  |  |  | 
| Welsch |  |  |  | 
| Tukey |  |  |  | 
| Andrews |  |  |  | 
Следующая таблица содержит значения параметров методов, подобранные таким образом, чтобы при применении к стандартному нормальному распределению методы имели 95% эффективность.
| М-оценка | Значение параметра | 
|---|---|
| Huber | 1.345 | 
| "fair" | 1.3998 | 
| Cauchy | 2.3849 | 
| Welsch | 2.9846 | 
| Tukey | 4.6851 | 
| Andrews | 1.339 | 
Ссылки
- M-estimator - статья из английской Википедии
Категоризация статей
Женя, я вижу, ты активно работаешь над улучшением статей по статистике. Старайся уделять внимание категоризации статей, которые правишь. Необходимым является наличие хотя бы одной категории в статье, но их может быть и несколько. Подробнее о категоризации можно прочитать здесь: MachineLearning:Категоризация. И вообше, не стесняйся спрашивать, если нужна помощь или что-то не понятно. :) --Yury Chekhovich 22:17, 17 мая 2010 (MSD)
- Хорошо, спасибо! --Riabenko 11:03, 25 мая 2010 (MSD)

