Обсуждение:Парадоксы мультиномиального распределения
Материал из MachineLearning.
(Новая: 1. Если убрать математические ошибки, то оставшееся, похоже, не сообщает ничего нового и не противореч...) |
(Новая: 1. Если убрать математические ошибки, то оставшееся, похоже, не сообщает ничего нового и не противореч...) |
Текущая версия
1. Если убрать математические ошибки, то оставшееся, похоже, не сообщает ничего нового и не противоречит общепринятым взглядам. Да, биномиальное распределение определено на двух переменных (частота успехов и неуспехов), но поскольку они связаны, достаточно задать распределение одной. А про вторую вообще нет смысла упоминать, как это и принято. Да, случайные величины, представляющие частоты разных исходов, в мультиномиальном распределении зависимы, поскольку сумма фиксирована. Да, аналогично случаю биномиального распределения, можно избавиться от одной переменной, но это неоправданно, т.к. неудобно.
2. Вполне возможно, что рассмотрение указанных частот в виде случайного процесса в чём-то интересно и полезно, например, для генерирования выборки из распределения. Правда, подобный процесс не принято называть марковским. И такое рассмотрение вовсе не обязательно включать в базовую справку по распределению, а как отдельная статья оправдана.
3. Приведённая статья вполне может оказаться интересной и полезной, если переписать её сугубо в историческом ключе: о Буняковском, его вкладе в ТВ, и исторических интерпретациях современных понятий.
--В.М. Неделько 22:58, 7 сентября 2015 (MSD)