Обсуждение:Тематическое моделирование

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
м
Строка 12: Строка 12:
Спасибо, Константин! Постараюсь дочитать до конца праздников пересказ. Уж больно тема полезная. Обычно смысловых повторов не миновать, особенно, если обзор большой, авторов несколько, а написать надо быстро. — ''[[Участник:Dmitry|machine]] 16:10, 3 января 2012 (MSK)''
Спасибо, Константин! Постараюсь дочитать до конца праздников пересказ. Уж больно тема полезная. Обычно смысловых повторов не миновать, особенно, если обзор большой, авторов несколько, а написать надо быстро. — ''[[Участник:Dmitry|machine]] 16:10, 3 января 2012 (MSK)''
 +
 +
Простите что придираюсь, но почему это метод максимизации правдоподобия в PLSA ведет к минимизации функционала
 +
::<tex>\sum_{d\in D} \sum_{w\in d} n_{dw}\log p(d,w) \to \min_{\Phi,\Theta}</tex> ?
 +
Ведь плотность вероятности нужно наоборот увеличивать

Версия 13:17, 29 января 2012

Костя, нашел у вас в переводном обзоре

http://www.machinelearning.ru/wiki/images/9/90/Daud2009survey-rus.pdf

"В терминах кластерного анализа тема (topic) — это результат би-кластеризации, то есть одновременной кластеризации и слов, и документов по их семантической близости."

А говорили, что не совсем то :)

Участник:Dmitry

Дмитрий, мы старались не делать дословный перевод, а правильно передавать идеи, смысл. Есть и отсебятина. В частности, би-кластеризация в исходном тексте не упоминалась. Вообще, исходный текст содержит слишком много воды и повторов (пакистанско-китайский менталитет?). Это редкий случай, когда русский перевод получился короче английского исходника без потери смысла :) — К.В.Воронцов 15:28, 3 января 2012 (MSK)

Спасибо, Константин! Постараюсь дочитать до конца праздников пересказ. Уж больно тема полезная. Обычно смысловых повторов не миновать, особенно, если обзор большой, авторов несколько, а написать надо быстро. — machine 16:10, 3 января 2012 (MSK)

Простите что придираюсь, но почему это метод максимизации правдоподобия в PLSA ведет к минимизации функционала

\sum_{d\in D} \sum_{w\in d} n_{dw}\log p(d,w) \to \min_{\Phi,\Theta} ?

Ведь плотность вероятности нужно наоборот увеличивать

Личные инструменты