Обсуждение:Оценивание дискретных распределений при дополнительных ограничениях на вероятности некоторых событий (виртуальный семинар)

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Дальнейшее обобщение задачи)
(Полностью удалено содержимое страницы)
 
(39 промежуточных версий не показаны.)
Строка 1: Строка 1:
-
== Обсуждение ==
 
-
* > ...Время считается дискретным...
 
-
*# Подход, в котором плотность вначале представляется как непрерывная функция времени, мне представляется лучшим. Поскольку в таком подходе можно выбирать различное число интервалов разбиения. Интересно, что
 
-
<tex>\omega = \int_{0}^{T} {w_t dt} = (i_1, ...,i_D) = super(seq_{l=1,M} {\int_{T/M*(l-1)+\delta_+}^{T/M*l} {w_t dt}}) = super ( (s^{(1)}_1,...,s^{(1)}_D),...,(s^{(M)}_1,...,s^{(M)}_D)) = (s^{(1)}_1,...,s^{(1)}_D) | ... | (s^{(M)}_1,...,s^{(M)}_D) </tex>, где seq - операция построения последовательности, а super (или <tex>|</tex>) - операция суперпозиции (сложения) многомерных дискретных элементарных исходов (<tex>s^{(r)}_k</tex> - число исходов типа k в интервале r).| [[Участник:ADY|ADY]] 11:31, 6 августа 2008 (MSD)
 
-
* > ...это приводит к появлению дополнительных ограничений типа равенств в задаче максимизации правдоподобия;...
 
-
*# Это справедливо только в параметрическом случае и в случае, когда обратные функции (которые появятся при решении связей) будут удовлетворять некоторым условиям? | [[Участник:ADY|ADY]] 11:31, 6 августа 2008 (MSD)
 
-
*# Максимизация правдоподобия - только один из методов получения оценок (пусть даже и с "хорошими" свойствами).
 
-
* > ...выборка может быть «немного» неоднородной;...
 
-
*# Если вводить веса (через ядро), то, такое впечатление, это эквивалентно тому, что мы делаем выборку однородной, но во всех функционалах учитываем веса. Если решение пойдет по этому пути, тогда можно подумать на тему введения весов для каждого элемента эмпирических данных? | [[Участник:ADY|ADY]] 11:31, 6 августа 2008 (MSD)
 
-
 
-
== Дальнейшее обобщение задачи. Другие проблемы ==
 
-
 
-
* При восстановлении плотности (для выбранного числа интервалов) в качестве функционала качества хотелось бы принять описанный функционал:
 
-
<tex>q(Pr')= 1/M \sum_{l=1,M}(1/n_l \sum_ {X_l \in \Omega_{X_l}} {Pr_l\{ X \} / Pr_l'\{ X_l \} } - 1)^2</tex>.
 
-
Возможно, этот функционал можно как-то упростить.
 
-
* Нужны критерии для сравнения различных плотностей и схема тестирования.
 
-
* Хотелось бы построить доверительные интервалы для оценок плотностей. При построении доверительных интервалов можно отказаться от квадратичного функционала при оценки вероятностей сверху использовать минимизацию:
 
-
<tex>q(Pr')= 1/M \sum_{l=1,M}(1/n_l \sum_ {X_l \in \Omega_{X_l}} {Pr_l\{ X \} / Pr_l'\{ X_l \} } - 1)</tex>,
 
-
а при оценки снизу минимизировать: <tex>q(Pr')= - 1/M \sum_{l=1,M}(1/n_l \sum_ {X_l \in \Omega_{X_l}} {Pr_l\{ X \} / Pr_l'\{ X_l \} } - 1)</tex>, для <tex>Pr_l'\{ X_l \} > \epsilon</tex> (где <tex>\epsilon</tex> - мин. допустимая оценка на вероятность).
 
-
* В задаче, оценки на вероятность всегда имеют некоторую естественную ошибку (обозначим ее <tex>\epsilon_0</tex>), не связанную с величиной выборки. Ее природа в невозможности точно отнести эмпирические данные к одному из семейству распределений. Поэтому, нет смысла строить бесконечно точные оценки (точные оценки в пределе): достаточно строить оценки, точноcть которых быстро стремиться к <tex>\epsilon_0</tex> при росте числа элементов выборки. В частной постановке задачи <tex>\epsilon_0 = 10^{-3}</tex>.
 
-
| [[Участник:ADY|ADY]] 12:13, 6 августа 2008 (MSD)
 
-
* Условие задачи можно расширить, учитывая дополнительное условие, что со всеми эмпирическими данными (то есть данными о реализациях изучаемого случайного процесса) идут некоторые оценки значений связей <tex>P_j</tex>. Следовательно, выборки и выделение различных распределений, можно генерировать на основе этих данных о связях (и, соответственно, появляется новая задача - разбиение всех эмпирических данных на классы, согласно эмпирических данным и оценкам на значения <tex>P_j</tex>). | [[Участник:ADY|ADY]] 16:18, 11 августа 2008 (MSD)
 
-
* Стоит также задача, как наиболее оптимально, выделить маргинальные частотные плотности <tex>\nu_i(\{i\})</tex> и <tex>\nu_j(\{j\})</tex> из совместной эмпирической плотности <tex>\nu_{i,j}(\{i,j\})</tex>. Допустимость независимого выделения этих плотностей, например, как <tex>\nu_i(\{i\}) = \nu_i(\{i,∨ j∈\{0,1,...\}\})</tex>, требует дополнительного анализа, поскольку в этом случае <tex>\nu_i(\{0}\) \nu_j(\{0}\) ≠ \nu_i(\{0,0\})</tex>, хотя известно, что <tex>\nu_i(\{0,0\})</tex> - вполне нормальная оценка для <tex>P_{i,j}(\{0,0\})</tex>.
 
-
 
-
== Особенности восстановления плотности через максимизацию правдоподобия (для интегральных исходов) ==
 
-
 
-
* Есть впечатление, что восстановления плотности через максимизацию правдоподобия для интегральных исходов имеет некоторые особенности. Например, в следующей картинке видно, что оценка "угадывает" наличие "горба", но "не угадывает" локальные свойства горба (что, в самом деле, вполне логично). Видно, что оценкой плотности для последнего интервала пользоваться скорей всего нельзя.
 
-
* Синим закрашена область - плотность события <tex>P\{\omega_{i,i+1} = 0\}</tex> (где <tex>\omega_{i,i+1}</tex> - число событий в i-ом интервале). Точками показана та же самая плотность, параметры которой оценены по максимуму правдоподобия.
 
-
[[Изображение:Density figure1.JPG]]
 
-
 
-
| [[Участник:ADY|ADY]] 11:44, 8 августа 2008 (MSD)
 
-
 
-
== Полезные статьи ==
 
-
 
-
[[Изображение:MDL Histogram density estimation.pdf]]
 

Текущая версия

Личные инструменты