Обсуждение участника:Riabenko

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
м
м
 
(16 промежуточных версий не показаны.)
Строка 1: Строка 1:
[http://isi.cbs.nl/glossary/index.htm Глоссарий статистических терминов ISI]
[http://isi.cbs.nl/glossary/index.htm Глоссарий статистических терминов ISI]
 +
== Категоризация статей ==
-
М-оценки — широкий класс статистических оценок, доставляющих минимум суммы каких-либо функций от данных:
+
Женя, я вижу, ты активно работаешь над улучшением статей по статистике. Старайся уделять внимание категоризации статей, которые правишь. Необходимым является наличие хотя бы одной категории в статье, но их может быть и несколько. Подробнее о категоризации можно прочитать здесь: [[MachineLearning:Категоризация]]. И вообше, не стесняйся спрашивать, если нужна помощь или что-то не понятно. :) --[[Участник:Yury Chekhovich|Yury Chekhovich]] 22:17, 17 мая 2010 (MSD)
-
::<tex>\hat{\theta}=\arg\min_{\displaystyle\theta}\left(\sum_{i=1}^N\rho(x_i, \theta)\right) \,\!</tex>
+
-
М-оценками являются, в частности, оценки [[Метод наименьших квадратов|наименьших квадратов]], а также многие оценки [[Метод наибольшего правдоподобия|максимального правдоподобия]].
+
-
Функция <tex>\rho</tex> выбирается таким образом, чтобы обеспечить желаемые свойства оценки (несмещённость и эффективность) в условиях, когда данные взяты из известного распределения, и достаточную устойчивость к отклонениям от этого распределения.
+
: Хорошо, спасибо! --[[Участник:Riabenko|Riabenko]] 11:03, 25 мая 2010 (MSD)
-
== M-оценки положения распределения ==
+
== Курсы Воронцова ==
-
Для положения распределения М-оценки задаются следующим образом:
+
-
::<tex>\hat{\theta}=\arg\min_{\displaystyle\theta}\left(\sum_{i=1}^N\rho(x_i - \theta)\right), \,\!</tex>
+
-
<tex>\rho(0)=0, \;\; \rho(x)\geq 0 \forall x, \;\; \rho(-x)=\rho(x), \;\; \rho(x_1)\geq\rho(x_2)</tex> при <tex>|x_1|>|x_2|.</tex>
+
-
Задача минимизации приводит к уравнению
+
Женя, привяжи, пожалуйста, страницы курсов Воронцова Статистический анализ данных за разные годы к проекту. Сейчас они — [[Special:Lonelypages|страницы-сироты]]. --[[Участник:Yury Chekhovich|Yury Chekhovich]] 10:21, 9 марта 2014 (MSK)
-
::<tex>\sum_{i=1}^N \psi(x_i-\theta)=0,</tex>
+
-
где <tex>\psi</tex> – производная <tex>\rho</tex>.
+
-
{| class="wikitable"
+
<tex>\mathbb{D}X</tex>
-
|-
+
-
! М-оценка
+
-
! <tex>\rho(x)</tex>
+
-
! <tex>\psi(x)</tex>
+
-
! <tex>w(x)</tex>
+
-
|-
+
-
! Huber
+
-
| <tex>\begin{cases}x^2/2, & |x|\leq k \\ k\left(|x|-k/2\right), & |x|>k \end{cases}</tex>
+
-
| <tex>\begin{cases}x, & |x|\leq k \\ k\operatorname{sgn}(x), & |x|>k \end{cases}</tex>
+
-
| <tex>\begin{cases}1, & |x|\leq k \\ \frac{k}{x}, & |x|>k\end{cases}</tex>
+
-
|-
+
-
! "fair"
+
-
| <tex>c^2\left(\frac{|x|}{c}-\log\left(1+\frac{|x|}{c}\right)\right)</tex>
+
-
| <tex>\frac{x}{1+\frac{|x|}{c}}</tex>
+
-
| <tex>\frac{1}{1+\frac{|x|}{c}}</tex>
+
-
|-
+
-
! Cauchy
+
-
| <tex>\frac{c}{2}\log\left(1+\left(x/c\right)^2\right)</tex>
+
-
| <tex>\frac{x}{1+\left(x/c\right)^2}</tex>
+
-
| <tex>\frac{1}{1+\left(x/c\right)^2}</tex>
+
-
|-
+
-
! Geman-McClure
+
-
| <tex>\frac{x^2/2}{1+x^2}</tex>
+
-
| <tex>\frac{x}{\left(1+x^2\right)^2}</tex>
+
-
| <tex>\frac{1}{\left(1+x^2\right)^2}</tex>
+
-
|-
+
-
! Welsch
+
-
| <tex>\frac{c^2}{2}\left(1-\exp\left(-\left(x/c\right)^2\right)\right)</tex>
+
-
| <tex>x\exp\left(-\left(x/c\right)^2\right)</tex>
+
-
| <tex>\exp\left(-\left(x/c\right)^2\right)</tex>
+
-
|-
+
-
! Tukey
+
-
| <tex>\begin{cases}\frac{c^2}{6}\left(1-\left(1-\left(x/c\right)^2\right)^3\right), & |x|\leq c \\ \frac{c^2}{6}, & |x|>c \end{cases}</tex>
+
-
| <tex>\begin{cases}x\left(1\left(x/c\right)^2\right)^2 , & |x|\leq c \\ 0 , & |x|>c \end{cases}</tex>
+
-
| <tex>\begin{cases}\left(1\left(x/c\right)^2\right)^2, & |x|\leq c \\ 0, & |x|>c \end{cases}</tex>
+
-
|-
+
-
! Andrews
+
-
| <tex>\begin{cases}k^2\left(1-\cos\left(x/k\right)\right), & |x|\leq k\pi \\ 2k^2, & |x|>k\pi \end{cases}</tex>
+
-
| <tex>\begin{cases}k\sin\left(x/k\right), & |x|\leq k\pi \\ 0, & |x|>k\pi \end{cases}</tex>
+
-
| <tex>\begin{cases}\frac{\sin\left(x/k\right)}{x/k}, & |x|\leq k\pi \\ 0, & |x|>k\pi \end{cases}</tex>
+
-
|}
+
-
Следующая таблица содержит значения параметров методов, подобранные таким образом, чтобы при применении к стандартному нормальному распределению методы имели 95% эффективность.
+
-
{| class="wikitable"
+
<tex>\mathbb{E}X</tex>
-
|-
+
-
! М-оценка
+
-
! Значение параметра
+
-
|-
+
-
! Huber
+
-
| 1.345
+
-
|-
+
-
! "fair"
+
-
| 1.3998
+
-
|-
+
-
! Cauchy
+
-
| 2.3849
+
-
|-
+
-
! Welsch
+
-
| 2.9846
+
-
|-
+
-
! Tukey
+
-
| 4.6851
+
-
|-
+
-
! Andrews
+
-
| 1.339
+
-
|}
+
-
== Ссылки ==
+
<tex>\LARGE P\left(A\left|B\right.\right) = \frac{P(A)P\left(A\left|B\right.\right)}{P(B)}, <br>
-
* [http://en.wikipedia.org/wiki/M-estimator M-estimator] - статья из английской Википедии
+
P(B) = P\left(B\left|A\right.\right)P(A) + P\left(B\left|\bar{A}\right.\right)P(\bar{A}) = 0.8\cdot0.01 + 0.096\cdot0.99 = 0.10304, <br>
-
[[Категория:Прикладная статистика]]
+
P\left(A\left|B\right.\right) = \frac{0.01\cdot0.8}{0.10304}\approx 0.078</tex>
-
 
+
-
 
+
-
== Категоризация статей ==
+
-
 
+
-
Женя, я вижу, ты активно работаешь над улучшением статей по статистике. Старайся уделять внимание категоризации статей, которые правишь. Необходимым является наличие хотя бы одной категории в статье, но их может быть и несколько. Подробнее о категоризации можно прочитать здесь: [[MachineLearning:Категоризация]]. И вообше, не стесняйся спрашивать, если нужна помощь или что-то не понятно. :) --[[Участник:Yury Chekhovich|Yury Chekhovich]] 22:17, 17 мая 2010 (MSD)
+
-
 
+
-
: Хорошо, спасибо! --[[Участник:Riabenko|Riabenko]] 11:03, 25 мая 2010 (MSD)
+

Текущая версия

Глоссарий статистических терминов ISI

Категоризация статей

Женя, я вижу, ты активно работаешь над улучшением статей по статистике. Старайся уделять внимание категоризации статей, которые правишь. Необходимым является наличие хотя бы одной категории в статье, но их может быть и несколько. Подробнее о категоризации можно прочитать здесь: MachineLearning:Категоризация. И вообше, не стесняйся спрашивать, если нужна помощь или что-то не понятно. :) --Yury Chekhovich 22:17, 17 мая 2010 (MSD)

Хорошо, спасибо! --Riabenko 11:03, 25 мая 2010 (MSD)

Курсы Воронцова

Женя, привяжи, пожалуйста, страницы курсов Воронцова Статистический анализ данных за разные годы к проекту. Сейчас они — страницы-сироты. --Yury Chekhovich 10:21, 9 марта 2014 (MSK)


\mathbb{D}X

\mathbb{E}X


\LARGE P\left(A\left|B\right.\right) = \frac{P(A)P\left(A\left|B\right.\right)}{P(B)}, <br>
P(B) = P\left(B\left|A\right.\right)P(A) + P\left(B\left|\bar{A}\right.\right)P(\bar{A}) = 0.8\cdot0.01 + 0.096\cdot0.99 = 0.10304, <br>
P\left(A\left|B\right.\right) = \frac{0.01\cdot0.8}{0.10304}\approx 0.078

Личные инструменты