Обсуждение:Тематическое моделирование
Материал из MachineLearning.
(Различия между версиями)
м |
|||
(4 промежуточные версии не показаны) | |||
Строка 7: | Строка 7: | ||
А говорили, что не совсем то :) | А говорили, что не совсем то :) | ||
- | [[Участник:Dmitry|machine]] | + | [[Участник:Dmitry]] |
+ | |||
+ | : Дмитрий, мы старались не делать дословный перевод, а правильно передавать идеи, смысл. Есть и отсебятина. В частности, би-кластеризация в исходном тексте не упоминалась. Вообще, исходный текст содержит слишком много воды и повторов (пакистанско-китайский менталитет?). Это редкий случай, когда русский перевод получился короче английского исходника без потери смысла :) — ''[[Участник:Vokov|К.В.Воронцов]] 15:28, 3 января 2012 (MSK)'' | ||
+ | |||
+ | Спасибо, Константин! Постараюсь дочитать до конца праздников пересказ. Уж больно тема полезная. Обычно смысловых повторов не миновать, особенно, если обзор большой, авторов несколько, а написать надо быстро. — ''[[Участник:Dmitry|machine]] 16:10, 3 января 2012 (MSK)'' | ||
+ | |||
+ | Простите что придираюсь, но почему это метод максимизации правдоподобия в PLSA ведет к минимизации функционала | ||
+ | ::<tex>\sum_{d\in D} \sum_{w\in d} n_{dw}\log p(d,w) \to \min_{\Phi,\Theta}</tex> ? | ||
+ | Ведь плотность вероятности нужно наоборот увеличивать | ||
+ | : Очевидно, минус забыт, либо мин с максом перепутан... все люди ашыпаюца — ''[[Участник:Vokov|К.В.Воронцов]] 02:23, 8 октября 2012 (MSD)'' |
Текущая версия
Костя, нашел у вас в переводном обзоре
http://www.machinelearning.ru/wiki/images/9/90/Daud2009survey-rus.pdf
"В терминах кластерного анализа тема (topic) — это результат би-кластеризации, то есть одновременной кластеризации и слов, и документов по их семантической близости."
А говорили, что не совсем то :)
- Дмитрий, мы старались не делать дословный перевод, а правильно передавать идеи, смысл. Есть и отсебятина. В частности, би-кластеризация в исходном тексте не упоминалась. Вообще, исходный текст содержит слишком много воды и повторов (пакистанско-китайский менталитет?). Это редкий случай, когда русский перевод получился короче английского исходника без потери смысла :) — К.В.Воронцов 15:28, 3 января 2012 (MSK)
Спасибо, Константин! Постараюсь дочитать до конца праздников пересказ. Уж больно тема полезная. Обычно смысловых повторов не миновать, особенно, если обзор большой, авторов несколько, а написать надо быстро. — machine 16:10, 3 января 2012 (MSK)
Простите что придираюсь, но почему это метод максимизации правдоподобия в PLSA ведет к минимизации функционала
- ?
Ведь плотность вероятности нужно наоборот увеличивать
- Очевидно, минус забыт, либо мин с максом перепутан... все люди ашыпаюца — К.В.Воронцов 02:23, 8 октября 2012 (MSD)