Обсуждение:Парадоксы мультиномиального распределения

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Новая: 1. Если убрать математические ошибки, то оставшееся, похоже, не сообщает ничего нового и не противореч...)
Текущая версия (18:58, 7 сентября 2015) (править) (отменить)
(Новая: 1. Если убрать математические ошибки, то оставшееся, похоже, не сообщает ничего нового и не противореч...)
 

Текущая версия

1. Если убрать математические ошибки, то оставшееся, похоже, не сообщает ничего нового и не противоречит общепринятым взглядам. Да, биномиальное распределение определено на двух переменных (частота успехов и неуспехов), но поскольку они связаны, достаточно задать распределение одной. А про вторую вообще нет смысла упоминать, как это и принято. Да, случайные величины, представляющие частоты разных исходов, в мультиномиальном распределении зависимы, поскольку сумма фиксирована. Да, аналогично случаю биномиального распределения, можно избавиться от одной переменной, но это неоправданно, т.к. неудобно.

2. Вполне возможно, что рассмотрение указанных частот в виде случайного процесса в чём-то интересно и полезно, например, для генерирования выборки из распределения. Правда, подобный процесс не принято называть марковским. И такое рассмотрение вовсе не обязательно включать в базовую справку по распределению, а как отдельная статья оправдана.

3. Приведённая статья вполне может оказаться интересной и полезной, если переписать её сугубо в историческом ключе: о Буняковском, его вкладе в ТВ, и исторических интерпретациях современных понятий.

--В.М. Неделько 22:58, 7 сентября 2015 (MSD)

Личные инструменты