Обсуждение:Тематическое моделирование

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Новая: Костя, нашел у вас в обзоре http://www.machinelearning.ru/wiki/images/9/90/Daud2009survey-rus.pdf "В терминах кластерного анализа тем...)
 
(5 промежуточных версий не показаны.)
Строка 1: Строка 1:
-
Костя, нашел у вас в обзоре
+
Костя, нашел у вас в переводном обзоре
http://www.machinelearning.ru/wiki/images/9/90/Daud2009survey-rus.pdf
http://www.machinelearning.ru/wiki/images/9/90/Daud2009survey-rus.pdf
Строка 7: Строка 7:
А говорили, что не совсем то :)
А говорили, что не совсем то :)
-
[[Участник:Dmitry|machine]]
+
[[Участник:Dmitry]]
 +
 
 +
: Дмитрий, мы старались не делать дословный перевод, а правильно передавать идеи, смысл. Есть и отсебятина. В частности, би-кластеризация в исходном тексте не упоминалась. Вообще, исходный текст содержит слишком много воды и повторов (пакистанско-китайский менталитет?). Это редкий случай, когда русский перевод получился короче английского исходника без потери смысла :) — ''[[Участник:Vokov|К.В.Воронцов]] 15:28, 3 января 2012 (MSK)''
 +
 
 +
Спасибо, Константин! Постараюсь дочитать до конца праздников пересказ. Уж больно тема полезная. Обычно смысловых повторов не миновать, особенно, если обзор большой, авторов несколько, а написать надо быстро. — ''[[Участник:Dmitry|machine]] 16:10, 3 января 2012 (MSK)''
 +
 
 +
Простите что придираюсь, но почему это метод максимизации правдоподобия в PLSA ведет к минимизации функционала
 +
::<tex>\sum_{d\in D} \sum_{w\in d} n_{dw}\log p(d,w) \to \min_{\Phi,\Theta}</tex> ?
 +
Ведь плотность вероятности нужно наоборот увеличивать
 +
: Очевидно, минус забыт, либо мин с максом перепутан... все люди ашыпаюца —&nbsp;''[[Участник:Vokov|К.В.Воронцов]] 02:23, 8 октября 2012 (MSD)''

Текущая версия

Костя, нашел у вас в переводном обзоре

http://www.machinelearning.ru/wiki/images/9/90/Daud2009survey-rus.pdf

"В терминах кластерного анализа тема (topic) — это результат би-кластеризации, то есть одновременной кластеризации и слов, и документов по их семантической близости."

А говорили, что не совсем то :)

Участник:Dmitry

Дмитрий, мы старались не делать дословный перевод, а правильно передавать идеи, смысл. Есть и отсебятина. В частности, би-кластеризация в исходном тексте не упоминалась. Вообще, исходный текст содержит слишком много воды и повторов (пакистанско-китайский менталитет?). Это редкий случай, когда русский перевод получился короче английского исходника без потери смысла :) — К.В.Воронцов 15:28, 3 января 2012 (MSK)

Спасибо, Константин! Постараюсь дочитать до конца праздников пересказ. Уж больно тема полезная. Обычно смысловых повторов не миновать, особенно, если обзор большой, авторов несколько, а написать надо быстро. — machine 16:10, 3 января 2012 (MSK)

Простите что придираюсь, но почему это метод максимизации правдоподобия в PLSA ведет к минимизации функционала

\sum_{d\in D} \sum_{w\in d} n_{dw}\log p(d,w) \to \min_{\Phi,\Theta} ?

Ведь плотность вероятности нужно наоборот увеличивать

Очевидно, минус забыт, либо мин с максом перепутан... все люди ашыпаюца — К.В.Воронцов 02:23, 8 октября 2012 (MSD)
Личные инструменты