Вероятностные тематические модели (курс лекций, К.В.Воронцов)

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Литература)
Строка 1: Строка 1:
-
{{well|
 
-
Весной 2021г. на факльтете ВМК МГУ спецкурс проводится дистанционно через Zoom по четвергам в 18:00.
 
-
Первое занятие 25 февраля (если пропустите — смотрите видео).
 
-
Доступ к конференции через онлайн-расписание.
 
-
}}
 
{{TOCright}}
{{TOCright}}
-
'''[https://us02web.zoom.us/j/83115465289?pwd=UE5qZ0hPME92UDM5Zk1POUtLV3VGQT09 Подключиться к конференции Zoom]'''
 
-
Спецкурс читается студентам 2—5 курсов на кафедре «[[Математические методы прогнозирования (кафедра ВМиК МГУ)|Математические методы прогнозирования]]» [[ВМиК]] [[МГУ]] с 2013 года и студентам 4 и 6 курсов на кафедре «[[Интеллектуальные системы (кафедра МФТИ)|Интеллектуальные системы]]» [[ФУПМ]] [[МФТИ]] с 2019 года.
+
Спецкурс читается студентам 2—5 курсов на кафедре «[[Математические методы прогнозирования (кафедра ВМиК МГУ)|Математические методы прогнозирования]]» [[ВМиК]] [[МГУ]] с 2013 года и студентам 6 курса на кафедре «[[Интеллектуальные системы (кафедра МФТИ)|Интеллектуальные системы]]» [[ФУПМ]] [[МФТИ]] с 2019 года.
В спецкурсе изучается вероятностное [[тематическое моделирование]] (topic modeling) коллекций текстовых документов. Тематическая модель определяет, какие темы содержатся в большой текстовой коллекции, и к каким темам относится каждый документ. Тематические модели позволяют искать тексты по смыслу, а не по ключевым словам, и создавать информационно-поисковые системы нового поколения, основанные на парадигме семантического разведочного поиска (exploratory search). Рассматриваются тематические модели для классификации, категоризации, сегментации, суммаризации текстов естественного языка, а также для рекомендательных систем, анализа банковских транзакционных данных, анализа биомедицинских сигналов. В спецкурсе развивается многокритериальный подход к построению моделей с заданными свойствами — [[аддитивная регуляризация тематических моделей]] (АРТМ). Он основан на регуляризации некорректно поставленных задач стохастического матричного разложения. Особое внимание уделяется методам лингвистической регуляризации для моделирования связности текста. Предполагается проведение студентами численных экспериментов на модельных и реальных данных с помощью библиотеки тематического моделирования [[BigARTM]].
В спецкурсе изучается вероятностное [[тематическое моделирование]] (topic modeling) коллекций текстовых документов. Тематическая модель определяет, какие темы содержатся в большой текстовой коллекции, и к каким темам относится каждый документ. Тематические модели позволяют искать тексты по смыслу, а не по ключевым словам, и создавать информационно-поисковые системы нового поколения, основанные на парадигме семантического разведочного поиска (exploratory search). Рассматриваются тематические модели для классификации, категоризации, сегментации, суммаризации текстов естественного языка, а также для рекомендательных систем, анализа банковских транзакционных данных, анализа биомедицинских сигналов. В спецкурсе развивается многокритериальный подход к построению моделей с заданными свойствами — [[аддитивная регуляризация тематических моделей]] (АРТМ). Он основан на регуляризации некорректно поставленных задач стохастического матричного разложения. Особое внимание уделяется методам лингвистической регуляризации для моделирования связности текста. Предполагается проведение студентами численных экспериментов на модельных и реальных данных с помощью библиотеки тематического моделирования [[BigARTM]].
Строка 14: Строка 8:
Краткая ссылка на эту страницу: [http://bit.ly/2EGWcjA bit.ly/2EGWcjA].
Краткая ссылка на эту страницу: [http://bit.ly/2EGWcjA bit.ly/2EGWcjA].
-
 
-
<!--* [https://us04web.zoom.us/j/954421011?pwd=ODBlaXZIcW40ZkJSK2ZvWFFBR2dkQT09 Подключиться к конференции Zoom]
 
-
* Идентификатор конференции: 954 421 011
 
-
* Пароль: 4krAt1
 
-
 
-
* [https://zoom.us/j/2140504487?pwd=MWkwRDRIREdUQzZrOVJLekM1ekNGZz09 Подключиться к конференции Zoom] {{важно|— ссылка обновлена 11.12.2020}}.
 
-
-->
 
-
 
-
'''Материалы для первого ознакомления:'''
 
-
* ''[[Media:BigARTM-short-intro.pdf|Тематический анализ больших данных]]''. Краткое популярное введение в BigARTM.
 
-
* ''[http://postnauka.ru/video/61910 Разведочный информационный поиск]''. Видеолекция на ПостНауке.
 
-
* ''[https://postnauka.ru/faq/86373 Тематическое моделирование]''. FAQ на ПостНауке, совместно с Корпоративным университетом Сбербанка.
 
-
* ''[https://www.youtube.com/watch?v=MhNbccnVk5Y Байесовская и классическая регуляризация в вероятностном тематическом моделировании]''. Научно-образовательный семинар «Актуальные проблемы прикладной математики» Новосибирского Государственного Университета, 19 февраля 2021. [[Media:Voron-2021-02-19.pdf|Презентация]].
 
-
* ''[https://habrahabr.ru/company/yandex/blog/313340 Тематическое моделирование на пути к разведочному информационному поиску]''. Лекция на DataFest3, 10 сентября 2016. [https://www.youtube.com/watch?v=frLW8UVp_Ik&index=5&list=PLJOzdkh8T5kqfhWXhtYevTUHIvrylDLYu Видеозапись].
 
'''Основной материал:'''
'''Основной материал:'''
-
* ''Воронцов К. В.'' [[Media:voron17survey-artm.pdf|Вероятностное тематическое моделирование: обзор моделей и аддитивная регуляризация]]. {{важно|— обновление 17.03.2020}}.
+
* ''Воронцов К. В.'' [[Media:voron17survey-artm.pdf|Вероятностное тематическое моделирование: обзор моделей и аддитивная регуляризация]]. {{важно|— обновление 22.02.2021}}.
= Программа курса =
= Программа курса =
== Задача тематического моделирования ==
== Задача тематического моделирования ==
-
Презентация: [[Media:Voron20ptm-intro.pdf|(PDF,&nbsp;6,4&nbsp;МБ)]] {{важно|— обновление 04.03.2021}}.
+
Презентация: [[Media:Voron21ptm-intro.pdf|(PDF,&nbsp;2,8&nbsp;МБ)]] {{важно|— обновление 18.09.2021}}.
[https://youtu.be/sBdFG8Rl-i8?t=159 Видеозапись]
[https://youtu.be/sBdFG8Rl-i8?t=159 Видеозапись]
Строка 51: Строка 31:
* Мультимодальные тематические модели.
* Мультимодальные тематические модели.
-
'''Библиотека [[BigARTM]].'''
+
'''Практика тематического моделирования.'''
 +
* Проект с открытым кодом BigARTM.
 +
* Этапы решения практических задач.
 +
* Методы предварительной обработки текста.
 +
* Датасеты и практические задания по курсу.
 +
 
 +
== Онлайновый ЕМ-алгоритм и часто используемые регуляризаторы ==
 +
Презентация: [[Media:Voron21ptm-regular.pdf|(PDF,&nbsp;1,0&nbsp;МБ)]] {{важно|— обновление 18.09.2021}}.
 +
[https://youtu.be/O2IYF2Mg6Cw?t=319 Видеозапись]
 +
 
 +
'''Онлайновый ЕМ-алгоритм.'''
* Рациональный ЕМ-алгоритм (встраивание Е-шага внутрь М-шага).
* Рациональный ЕМ-алгоритм (встраивание Е-шага внутрь М-шага).
* Оффлайновый регуляризованный EM-алгоритм.
* Оффлайновый регуляризованный EM-алгоритм.
-
* Онлайновый регуляризованный EM-алгоритм. Распараллеливание.
+
* Онлайновый пакетный мультимодальный регуляризованный EM-алгоритм. Распараллеливание.
-
* Проект с открытым кодом BigARTM.
+
* Как подбирать коэффициенты регуляризации.
 +
* Относительные коэффициенты регуляризации.
 +
* Библиотеки BigARTM и TopicNet.
 +
 
 +
'''Часто используемые регуляризаторы.'''
 +
* Сглаживание и разреживание.
 +
* Частичное обучение.
 +
* Декоррелирование тем.
 +
 
 +
'''Проблема определения числа тем.'''
 +
* Разреживающий регуляризатор для отбора тем.
 +
* Эксперименты на синтетических и реальных данных.
 +
* Сравнение с байесовской моделью HDP (Hierarchical Dirichlet Process).
 +
* Эффект отбрасывания малых, дублирующих и линейно зависимых тем.
== Разведочный информационный поиск ==
== Разведочный информационный поиск ==
-
Презентация: [[Media:Voron20ptm-exp.pdf|(PDF,&nbsp;10&nbsp;МБ)]] {{важно|— обновление 04.03.2021}}.
+
Презентация: [[Media:Voron21ptm-exp.pdf|(PDF,&nbsp;2,5&nbsp;МБ)]] {{важно|— обновление 18.09.2021}}.
[https://youtu.be/bA6wS6j6akU Видеозапись]
[https://youtu.be/bA6wS6j6akU Видеозапись]
Строка 64: Строка 67:
* Концепция разведочного поиска.
* Концепция разведочного поиска.
* Особенности разведочного поиска.
* Особенности разведочного поиска.
-
* Поисково-рекомендательная система KnowledgeFactory.
+
* Поисково-рекомендательная система SciSarch.AI
-
'''Часто используемые регуляризаторы.'''
+
'''Иерархические тематические модели.'''
-
* Сглаживание, разреживание, декоррелирование.
+
* Иерархии тем. Послойное построение иерархии.
-
* Модальности.
+
* Регуляризаторы для разделения тем на подтемы.
-
* Иерархии тем. Послойное построение иерархии. Псевдодокументы родительских тем.
+
* Псевдодокументы родительских тем.
 +
* Модальность родительских тем.
'''Эксперименты с тематическим поиском.'''
'''Эксперименты с тематическим поиском.'''
Строка 77: Строка 81:
== Оценивание качества тематических моделей ==
== Оценивание качества тематических моделей ==
-
Презентация: [[Media:Voron20ptm-quality.pdf|(PDF,&nbsp;1,6&nbsp;МБ)]] {{важно|— обновление 04.10.2020}}.
+
Презентация: [[Media:Voron21ptm-quality.pdf|(PDF,&nbsp;1,3&nbsp;МБ)]] {{важно|— обновление 18.09.2021}}.
[https://youtu.be/FfxuULD-TmU Видеозапись]
[https://youtu.be/FfxuULD-TmU Видеозапись]
Строка 86: Строка 90:
'''Эксперименты с регуляризацией.'''
'''Эксперименты с регуляризацией.'''
-
* Комбинирование регуляризаторов.
+
* Комбинирование регуляризаторов сглаживания, разреживания, декоррелирования и отбора тем.
-
* Проблема определения числа тем.
+
* Проблема несбалансированности тем.
* Проблема несбалансированности тем.
Строка 101: Строка 104:
'''Предварительная обработка текстов'''
'''Предварительная обработка текстов'''
-
* Парсинг "сырых" данных.
+
* Парсинг «сырых» данных.
* Токенизация, стемминг и лемматизация.
* Токенизация, стемминг и лемматизация.
* Выделение энграмм.
* Выделение энграмм.
Строка 117: Строка 120:
* [https://www.youtube.com/watch?v=2LEQuLRxaIY&t=1s '''Видео'''] {{важно|— обновление 22.03.2017}}.
* [https://www.youtube.com/watch?v=2LEQuLRxaIY&t=1s '''Видео'''] {{важно|— обновление 22.03.2017}}.
* Воркшоп по BigARTM на DataFest'4. [https://www.youtube.com/watch?v=oQcHEm2-7PM '''Видео'''].
* Воркшоп по BigARTM на DataFest'4. [https://www.youtube.com/watch?v=oQcHEm2-7PM '''Видео'''].
 +
 +
== Теория ЕМ-алгоритма ==
 +
Презентация: [[Media:Voron21mipt-ptm-emlda.pdf|(PDF,&nbsp;1,3&nbsp;МБ)]] {{важно|— обновление 18.09.2021}}.
 +
[https://youtu.be/R3QLN0-zlnw Видеозапись]
 +
 +
'''Классические модели PLSA, LDA.'''
 +
* Модель PLSA.
 +
* Модель LDA. Распределение Дирихле и его свойства.
 +
* Максимизация апостериорной вероятности для модели LDA.
 +
 +
'''Общий EM-алгоритм.'''
 +
* EM-алгоритм для максимизации неполного правдоподобия.
 +
* Регуляризованный EM-алгоритм. Сходимость в слабом смысле.
 +
* Альтернативный вывод формул ARTM.
 +
 +
'''Эксперименты с моделями PLSA, LDA.'''
 +
* Проблема неустойчивости (на синтетических данных).
 +
* Проблема неустойчивости (на реальных данных).
 +
* Проблема переобучения и робастные модели.
 +
 +
== Байесовское обучение модели LDA ==
 +
Презентация: [[Media:Voron21ptm-bayes.pdf|(PDF,&nbsp;1,5&nbsp;МБ)]] {{важно|— обновление 18.09.2021}}.
 +
[https://youtu.be/y-05-cbiUsg Видеозапись]
 +
 +
'''Вариационный байесовский вывод.'''
 +
* Основная теорема вариационного байесовского вывода.
 +
* [[Вариационный байесовский вывод]] для модели LDA.
 +
* VB ЕМ-алгоритм для модели LDA.
 +
 +
'''Сэмплирование Гиббса.'''
 +
* Основная теорема о сэмплировании Гиббса.
 +
* [[Сэмплирование Гиббса]] для модели LDA.
 +
* GS ЕМ-алгоритм для модели LDA.
 +
 +
'''Замечания о байесовском подходе.'''
 +
* Оптимизация гиперпараметров в LDA.
 +
* Графическая нотация (plate notation). [http://zinkov.com/posts/2013-07-28-stop-using-plates Stop using plate notation].
 +
* Сравнение байесовского подхода и ARTM.
 +
* Как читать статьи по баейсовским моделям и строить эквивалентные ARTM-модели.
== Тематические модели сочетаемости слов ==
== Тематические модели сочетаемости слов ==
-
Презентация: [[Media:Voron20ptm-cooc.pdf|(PDF,&nbsp;2,1&nbsp;МБ)]] {{важно|— обновление 07.10.2020}}.
+
Презентация: [[Media:Voron21ptm-cooc.pdf|(PDF,&nbsp;1,7&nbsp;МБ)]] {{важно|— обновление 18.09.2021}}.
[https://youtu.be/Gww_fbcb0SM Видеозапись]
[https://youtu.be/Gww_fbcb0SM Видеозапись]
Строка 138: Строка 180:
<!--* Модель всплесков BBTM (Bursty Biterm Topic Model). -->
<!--* Модель всплесков BBTM (Bursty Biterm Topic Model). -->
* Модели WNTM (Word Network Topic Model) и WTM (Word Topic Model). Связь с моделью word2vec.
* Модели WNTM (Word Network Topic Model) и WTM (Word Topic Model). Связь с моделью word2vec.
-
* Понятие когерентности (согласованности). Экспериментально установленная связь когерентности и интерпретируемости.
 
* Регуляризаторы когерентности.
* Регуляризаторы когерентности.
Строка 145: Строка 186:
== Анализ зависимостей ==
== Анализ зависимостей ==
-
Презентация: [[Media:Voron20ptm-rel.pdf|(PDF,&nbsp;1,9&nbsp;МБ)]] {{важно|— обновление 28.10.2020}}.
+
Презентация: [[Media:Voron21ptm-rel.pdf|(PDF,&nbsp;1,7&nbsp;МБ)]] {{важно|— обновление 18.09.2021}}.
[https://youtu.be/16CnS99t8Rc Видеозапись]
[https://youtu.be/16CnS99t8Rc Видеозапись]
Строка 164: Строка 205:
== Мультимодальные тематические модели ==
== Мультимодальные тематические модели ==
-
Презентация: [[Media:Voron20ptm-modal.pdf|(PDF,&nbsp;2,7&nbsp;МБ)]] {{важно|— обновление 28.10.2020}}.
+
Презентация: [[Media:Voron21ptm-modal.pdf|(PDF,&nbsp;2,7&nbsp;МБ)]] {{важно|— обновление 18.09.2021}}.
[https://youtu.be/Ux868k__lXA Видеозапись]
[https://youtu.be/Ux868k__lXA Видеозапись]
Строка 172: Строка 213:
* Кросс-язычный информационный поиск.
* Кросс-язычный информационный поиск.
-
'''Трёхматричные и гиперграфовые модели.'''
+
'''Трёхматричные модели.'''
* Модели трёхматричных разложений. Понятие порождающей модальности.
* Модели трёхматричных разложений. Понятие порождающей модальности.
* Автор-тематическая модель (author-topic model).
* Автор-тематическая модель (author-topic model).
Строка 180: Строка 221:
* Примеры транзакционных данных в рекомендательных системах, социальных и рекламных сетях.
* Примеры транзакционных данных в рекомендательных системах, социальных и рекламных сетях.
* Гиперграфовая модель ARTM. Теорема о необходимом условии максимума регуляризованного правдоподобия.
* Гиперграфовая модель ARTM. Теорема о необходимом условии максимума регуляризованного правдоподобия.
 +
* Транзакционные данные в рекомендательных системах. Симметризованная гиперграфовая модель ARTM.
* Анализ транзакционных данных для выявления паттернов экономического поведения клиентов банка. '''[https://youtu.be/0q5p7xP4cdA?t=15168 Видео]'''.
* Анализ транзакционных данных для выявления паттернов экономического поведения клиентов банка. '''[https://youtu.be/0q5p7xP4cdA?t=15168 Видео]'''.
* Анализ банковских транзакционных данных для выявления видов деятельности компаний.
* Анализ банковских транзакционных данных для выявления видов деятельности компаний.
-
== Моделирование связного текста ==
+
== Моделирование локального контекста ==
-
Презентация: [[Media:Voron20ptm-segm.pdf|(PDF,&nbsp;2,5&nbsp;МБ)]] {{важно|— обновление 28.10.2020}}.
+
Презентация: [[Media:Voron21ptm-segm.pdf|(PDF,&nbsp;2,5&nbsp;МБ)]] {{важно|— обновление 18.09.2021}}.
[https://youtu.be/XNCZr7Pyr0k Видеозапись]
[https://youtu.be/XNCZr7Pyr0k Видеозапись]
Строка 202: Строка 244:
* Примеры регуляризаторов Е-шага. Разреживание распределения p(t|d,w). Сглаживание тематики слов по контексту.
* Примеры регуляризаторов Е-шага. Разреживание распределения p(t|d,w). Сглаживание тематики слов по контексту.
-
== Теория ЕМ-алгоритма ==
+
'''Тематическое моделирование связного текста'''
-
Презентация: [[Media:Voron20mipt-ptm-emlda.pdf|(PDF,&nbsp;1,2&nbsp;МБ)]] {{важно|— обновление 18.11.2020}}.
+
* Тематизация фрагментов текста для суммаризации и именования тем.
-
[https://youtu.be/R3QLN0-zlnw Видеозапись]
+
* Тематическое моделирование без матрицы <tex>\Theta</tex>.
 +
* Двунаправленная тематическая модель контекста.
-
'''Классические модели PLSA, LDA.'''
+
== Суммаризация и визуализация ==
-
* Модель PLSA.
+
Презентация: [[Media:Voron21ptm-sum-vis.pdf|(PDF,&nbsp;3,0&nbsp;МБ)]] {{важно|— обновление 18.09.2021}}.
-
* Модель LDA. Распределение Дирихле и его свойства.
+
-
* Максимизация апостериорной вероятности для модели LDA.
+
-
 
+
-
'''Общий EM-алгоритм.'''
+
-
* EM-алгоритм для максимизации неполного правдоподобия.
+
-
* Регуляризованный EM-алгоритм. Сходимость в слабом смысле.
+
-
* Альтернативный вывод формул ARTM.
+
-
 
+
-
'''Эксперименты с моделями PLSA, LDA.'''
+
-
* Проблема неустойчивости (на синтетических данных).
+
-
* Проблема неустойчивости (на реальных данных).
+
-
* Проблема переобучения и робастные модели.
+
-
 
+
-
== Байесовское обучение модели LDA ==
+
-
Презентация: [[Media:Voron20ptm-bayes.pdf|(PDF,&nbsp;1,9&nbsp;МБ)]] {{важно|— обновление 18.11.2020}}.
+
-
[https://youtu.be/y-05-cbiUsg Видеозапись]
+
-
 
+
-
'''Вариационный байесовский вывод.'''
+
-
* Основная теорема вариационного байесовского вывода.
+
-
* [[Вариационный байесовский вывод]] для модели LDA.
+
-
* VB ЕМ-алгоритм для модели LDA.
+
-
 
+
-
'''Сэмплирование Гиббса.'''
+
-
* Основная теорема о сэмплировании Гиббса.
+
-
* [[Сэмплирование Гиббса]] для модели LDA.
+
-
* GS ЕМ-алгоритм для модели LDA.
+
-
 
+
-
'''Замечания о байесовском подходе.'''
+
-
* Оптимизация гиперпараметров в LDA.
+
-
* Графическая нотация (plate notation). [http://zinkov.com/posts/2013-07-28-stop-using-plates Stop using plate notation].
+
-
* Сравнение байесовского подхода и ARTM.
+
-
* Как читать статьи по баейсовским моделям и строить эквивалентные ARTM-модели.
+
-
 
+
-
== Суммаризация и автоматическое именование тем ==
+
-
Презентация: [[Media:Voron20ptm-sum.pdf|(PDF,&nbsp;3,0&nbsp;МБ)]] {{важно|— обновление 25.11.2020}}.
+
[https://youtu.be/bfAG-ZZDz3Q Видеозапись]
[https://youtu.be/bfAG-ZZDz3Q Видеозапись]
Строка 255: Строка 263:
* Релевантность, покрытие, различность.
* Релевантность, покрытие, различность.
* Оценивание качества именования тем.
* Оценивание качества именования тем.
-
 
-
'''Тематическое моделирование связного текста'''
 
-
* Тематизация фрагментов текста для суммаризации и именования тем.
 
-
* Тематическое моделирование без матрицы <tex>\Theta</tex>.
 
-
* Двунаправленная тематическая модель контекста.
 
-
 
-
== Визуализация ==
 
-
Презентация: [[Media:Voron20ptm-vis.pdf|(PDF,&nbsp;10,1&nbsp;МБ)]] {{важно|— обновление 11.01.2021}}.
 
-
[https://youtu.be/xc33THjavwk Видеозапись]
 
-
 
-
'''Визуализация больших текстовых коллекций'''
 
-
* Концепция distant reading
 
-
* Карты знаний
 
-
* Иерархии, взаимосвязи, динамика, сегментация
 
'''Визуализация тематических моделей'''
'''Визуализация тематических моделей'''
-
* Визуализация матричного разложения
+
* Концепция distant reading.
-
* Проект VisARTM
+
* Визуализация для научного разведочного поиска. Тематическая карта.
-
* Спектр тем
+
* Спектр тем.
-
 
+
* Карты знаний, иерархии, взаимосвязи, динамика, сегментация.
-
'''Визуализация для научного разведочного поиска'''
+
* Визуализация матричного разложения.
-
* Тематическая карта
+
-
* Задача оценивания когнитивной сложности текста
+
-
* Иерархическая тематическая суммаризация
+
=Отчетность по курсу=
=Отчетность по курсу=
Строка 333: Строка 324:
* [http://www.youtube.com/watch?v=vSzsuq7uHPE Видеозапись лекции на ТМШ, 19 июня 2015]
* [http://www.youtube.com/watch?v=vSzsuq7uHPE Видеозапись лекции на ТМШ, 19 июня 2015]
* ''Воронцов К.В.'' [[Media:voron-2014-task-PTM.pdf|Практическое задание по тематическому моделированию, 2014.]]
* ''Воронцов К.В.'' [[Media:voron-2014-task-PTM.pdf|Практическое задание по тематическому моделированию, 2014.]]
 +
 +
'''Материалы для первого ознакомления:'''
 +
* ''[[Media:BigARTM-short-intro.pdf|Тематический анализ больших данных]]''. Краткое популярное введение в BigARTM.
 +
* ''[http://postnauka.ru/video/61910 Разведочный информационный поиск]''. Видеолекция на ПостНауке.
 +
* ''[https://postnauka.ru/faq/86373 Тематическое моделирование]''. FAQ на ПостНауке, совместно с Корпоративным университетом Сбербанка.
 +
* ''[https://www.youtube.com/watch?v=MhNbccnVk5Y Байесовская и классическая регуляризация в вероятностном тематическом моделировании]''. Научно-образовательный семинар «Актуальные проблемы прикладной математики» Новосибирского Государственного Университета, 19 февраля 2021. [[Media:Voron-2021-02-19.pdf|Презентация]].
 +
* ''[https://habrahabr.ru/company/yandex/blog/313340 Тематическое моделирование на пути к разведочному информационному поиску]''. Лекция на DataFest3, 10 сентября 2016. [https://www.youtube.com/watch?v=frLW8UVp_Ik&index=5&list=PLJOzdkh8T5kqfhWXhtYevTUHIvrylDLYu Видеозапись].
= Подстраницы =
= Подстраницы =
Строка 341: Строка 339:
<!---------------------------------------------------
<!---------------------------------------------------
-
 
-
'''Внутренние метрики качества модели.'''
 
-
* Правдоподобие и перплексия.
 
-
* Интерпретируемость и когерентность.
 
-
* Разреженность и различность.
 
'''Эксперименты с регуляризаторами.'''
'''Эксперименты с регуляризаторами.'''
Строка 352: Строка 345:
* Проверка гипотезы условной независимости
* Проверка гипотезы условной независимости
-
'''Определение числа тем.'''
 
-
* Регуляризатор отбора тем. Эксперименты на синтетических и реальных данных.
 
-
* Эффект отбрасывания малых, дублирующих и линейно зависимых тем.
 
-
* Сравнение с байесовской моделью HDP (Hierarchical Dirichlet Process).
 
'''Расширяемые тематические модели.'''
'''Расширяемые тематические модели.'''

Версия 17:09, 18 сентября 2021

Содержание

Спецкурс читается студентам 2—5 курсов на кафедре «Математические методы прогнозирования» ВМиК МГУ с 2013 года и студентам 6 курса на кафедре «Интеллектуальные системы» ФУПМ МФТИ с 2019 года.

В спецкурсе изучается вероятностное тематическое моделирование (topic modeling) коллекций текстовых документов. Тематическая модель определяет, какие темы содержатся в большой текстовой коллекции, и к каким темам относится каждый документ. Тематические модели позволяют искать тексты по смыслу, а не по ключевым словам, и создавать информационно-поисковые системы нового поколения, основанные на парадигме семантического разведочного поиска (exploratory search). Рассматриваются тематические модели для классификации, категоризации, сегментации, суммаризации текстов естественного языка, а также для рекомендательных систем, анализа банковских транзакционных данных, анализа биомедицинских сигналов. В спецкурсе развивается многокритериальный подход к построению моделей с заданными свойствами — аддитивная регуляризация тематических моделей (АРТМ). Он основан на регуляризации некорректно поставленных задач стохастического матричного разложения. Особое внимание уделяется методам лингвистической регуляризации для моделирования связности текста. Предполагается проведение студентами численных экспериментов на модельных и реальных данных с помощью библиотеки тематического моделирования BigARTM.

От студентов требуются знания курсов линейной алгебры, математического анализа, теории вероятностей. Знание математической статистики, методов оптимизации, машинного обучения, языков программирования Python и С++ желательно, но не обязательно.

Краткая ссылка на эту страницу: bit.ly/2EGWcjA.

Основной материал:

Программа курса

Задача тематического моделирования

Презентация: (PDF, 2,8 МБ) — обновление 18.09.2021. Видеозапись

Цели и задачи тематического моделирования.

Аддитивная регуляризация тематических моделей.

  • Понятие некорректно поставленной задачи по Адамару. Регуляризация.
  • Лемма о максимизации на единичных симплексах. Условия Каруша–Куна–Таккера.
  • Теорема о необходимом условии максимума регуляризованного правдоподобия для ARTM.
  • Классические тематические модели PLSA и LDA как частные случаи ARTM.
  • Мультимодальные тематические модели.

Практика тематического моделирования.

  • Проект с открытым кодом BigARTM.
  • Этапы решения практических задач.
  • Методы предварительной обработки текста.
  • Датасеты и практические задания по курсу.

Онлайновый ЕМ-алгоритм и часто используемые регуляризаторы

Презентация: (PDF, 1,0 МБ) — обновление 18.09.2021. Видеозапись

Онлайновый ЕМ-алгоритм.

  • Рациональный ЕМ-алгоритм (встраивание Е-шага внутрь М-шага).
  • Оффлайновый регуляризованный EM-алгоритм.
  • Онлайновый пакетный мультимодальный регуляризованный EM-алгоритм. Распараллеливание.
  • Как подбирать коэффициенты регуляризации.
  • Относительные коэффициенты регуляризации.
  • Библиотеки BigARTM и TopicNet.

Часто используемые регуляризаторы.

  • Сглаживание и разреживание.
  • Частичное обучение.
  • Декоррелирование тем.

Проблема определения числа тем.

  • Разреживающий регуляризатор для отбора тем.
  • Эксперименты на синтетических и реальных данных.
  • Сравнение с байесовской моделью HDP (Hierarchical Dirichlet Process).
  • Эффект отбрасывания малых, дублирующих и линейно зависимых тем.

Разведочный информационный поиск

Презентация: (PDF, 2,5 МБ) — обновление 18.09.2021. Видеозапись

Разведочный информационный поиск.

  • Концепция разведочного поиска.
  • Особенности разведочного поиска.
  • Поисково-рекомендательная система SciSarch.AI

Иерархические тематические модели.

  • Иерархии тем. Послойное построение иерархии.
  • Регуляризаторы для разделения тем на подтемы.
  • Псевдодокументы родительских тем.
  • Модальность родительских тем.

Эксперименты с тематическим поиском.

  • Методика измерения качества поиска.
  • Тематическая модель для документного поиска.
  • Оптимизация гиперпараметров.

Оценивание качества тематических моделей

Презентация: (PDF, 1,3 МБ) — обновление 18.09.2021. Видеозапись

Измерение качества тематических моделей.

  • Правдоподобие и перплексия.
  • Интерпретируемость и когерентность.
  • Разреженность и различность.

Эксперименты с регуляризацией.

  • Комбинирование регуляризаторов сглаживания, разреживания, декоррелирования и отбора тем.
  • Проблема несбалансированности тем.

Проверка гипотезы условной независимости.

  • Статистики на основе KL-дивергенции и их обобщения.
  • Регуляризатор семантической однородности.
  • Применение статистических тестов условной независимости.

Обзор базовых инструментов

Мурат Апишев. Презентация: (zip, 0,6 МБ) — обновление 17.02.2017. Видеозапись

Предварительная обработка текстов

  • Парсинг «сырых» данных.
  • Токенизация, стемминг и лемматизация.
  • Выделение энграмм.
  • Законы Ципфа и Хипса. Фильтрация словаря коллекции. Удаление стоп-слов.

Библиотека BigARTM

  • Методологические рекоммендации по проведению экспериментов.
  • Установка BigARTM.
  • Формат и импорт входных данных.
  • Обучение простой модели (без регуляризации): создание, инициализация, настройка и оценивание модели.
  • Инструмент визуализации тематических моделей VisARTM. Основные возможности, демонстрация работы.

Дополнительный материал:

  • Презентация: (PDF, 1,5 МБ) — обновление 17.03.2017.
  • Видео — обновление 22.03.2017.
  • Воркшоп по BigARTM на DataFest'4. Видео.

Теория ЕМ-алгоритма

Презентация: (PDF, 1,3 МБ) — обновление 18.09.2021. Видеозапись

Классические модели PLSA, LDA.

  • Модель PLSA.
  • Модель LDA. Распределение Дирихле и его свойства.
  • Максимизация апостериорной вероятности для модели LDA.

Общий EM-алгоритм.

  • EM-алгоритм для максимизации неполного правдоподобия.
  • Регуляризованный EM-алгоритм. Сходимость в слабом смысле.
  • Альтернативный вывод формул ARTM.

Эксперименты с моделями PLSA, LDA.

  • Проблема неустойчивости (на синтетических данных).
  • Проблема неустойчивости (на реальных данных).
  • Проблема переобучения и робастные модели.

Байесовское обучение модели LDA

Презентация: (PDF, 1,5 МБ) — обновление 18.09.2021. Видеозапись

Вариационный байесовский вывод.

Сэмплирование Гиббса.

Замечания о байесовском подходе.

  • Оптимизация гиперпараметров в LDA.
  • Графическая нотация (plate notation). Stop using plate notation.
  • Сравнение байесовского подхода и ARTM.
  • Как читать статьи по баейсовским моделям и строить эквивалентные ARTM-модели.

Тематические модели сочетаемости слов

Презентация: (PDF, 1,7 МБ) — обновление 18.09.2021. Видеозапись

Мультиграммные модели.

  • Модель BigramTM.
  • Модель Topical N-grams (TNG).
  • Мультимодальная мультиграммная модель.

Автоматическое выделение терминов.

  • Алгоритм TopMine для быстрого поиска частых фраз. Критерии выделения коллокаций.
  • Синтаксический разбор. Нейросетевой синтаксический анализатор SyntaxNet.
  • Критерии тематичности фраз.
  • Комбинирование синтаксической, статистической и тематической фильтрации фраз.

Тематические модели дистрибутивной семантики.

  • Дистрибутивная гипотеза. Модели CBOW и SGNS в программе word2vec.
  • Модель битермов BTM (Biterm Topic Model) для тематизации коллекций коротких текстов.
  • Модели WNTM (Word Network Topic Model) и WTM (Word Topic Model). Связь с моделью word2vec.
  • Регуляризаторы когерентности.

Дополнительный материал:

  • Потапенко А. А. Векторные представления слов и документов. DataFest'4. Видео.

Анализ зависимостей

Презентация: (PDF, 1,7 МБ) — обновление 18.09.2021. Видеозапись

Зависимости, корреляции, связи.

  • Тематические модели классификации и регрессии.
  • Модель коррелированных тем CTM (Correlated Topic Model).
  • Регуляризаторы гиперссылок и цитирования. Выявление тематических влияний в научных публикациях.

Время и пространство.

  • Регуляризаторы времени.
  • Обнаружение и отслеживание тем.
  • Гео-пространственные модели.

Социальные сети.

  • Сфокусированный поиск в социальных медиа (пример: поиск этно-релевантного контента).
  • Выявление тематических сообществ. Регуляризаторы для направленных и ненаправленных связей.
  • Регуляризаторы для выявления социальных ролей пользователей.

Мультимодальные тематические модели

Презентация: (PDF, 2,7 МБ) — обновление 18.09.2021. Видеозапись

Мультиязычные тематические модели.

  • Параллельные и сравнимые коллекции.
  • Регуляризаторы для учёта двуязычных словарей.
  • Кросс-язычный информационный поиск.

Трёхматричные модели.

  • Модели трёхматричных разложений. Понятие порождающей модальности.
  • Автор-тематическая модель (author-topic model).
  • Модель для выделения поведений объектов в видеопотоке.

Тематические модели транзакционных данных.

  • Примеры транзакционных данных в рекомендательных системах, социальных и рекламных сетях.
  • Гиперграфовая модель ARTM. Теорема о необходимом условии максимума регуляризованного правдоподобия.
  • Транзакционные данные в рекомендательных системах. Симметризованная гиперграфовая модель ARTM.
  • Анализ транзакционных данных для выявления паттернов экономического поведения клиентов банка. Видео.
  • Анализ банковских транзакционных данных для выявления видов деятельности компаний.

Моделирование локального контекста

Презентация: (PDF, 2,5 МБ) — обновление 18.09.2021. Видеозапись

Модели связного текста.

  • Тематическая модель предложений и модель коротких сообщений Twitter-LDA.
  • Контекстная документная кластеризация (CDC).
  • Метод лексических цепочек.

Тематическая сегментация.

  • Метод TopicTiling. Критерии определения границ сегментов.
  • Критерии качества сегментации.
  • Оптимизация параметров модели TopicTiling.

Позиционный регуляризатор в ARTM.

  • Гипотеза о сегментной структуре текста.
  • Регуляризация и пост-обработка Е-шага. Формулы М-шага.
  • Примеры регуляризаторов Е-шага. Разреживание распределения p(t|d,w). Сглаживание тематики слов по контексту.

Тематическое моделирование связного текста

  • Тематизация фрагментов текста для суммаризации и именования тем.
  • Тематическое моделирование без матрицы \Theta.
  • Двунаправленная тематическая модель контекста.

Суммаризация и визуализация

Презентация: (PDF, 3,0 МБ) — обновление 18.09.2021. Видеозапись

Методы суммаризации текстов.

  • Задачи автоматической суммаризации текстов. Подходы к суммаризации: extractive и abstractive.
  • Оценивание и отбор предложений для суммаризации. Релаксационный метод для многокритериальной дискретной оптимизации.
  • Тематическая модель предложений для суммаризации.
  • Критерии качества суммаризации. Метрики ROUGE, BLUE.

Автоматическое именование тем (topic labeling).

  • Формирование названий-кандидатов.
  • Релевантность, покрытие, различность.
  • Оценивание качества именования тем.

Визуализация тематических моделей

  • Концепция distant reading.
  • Визуализация для научного разведочного поиска. Тематическая карта.
  • Спектр тем.
  • Карты знаний, иерархии, взаимосвязи, динамика, сегментация.
  • Визуализация матричного разложения.

Отчетность по курсу

Условием сдачи курса является выполнение индивидуальных практических заданий.

Рекомендуемая структура отчёта об исследовании по индивидуальному заданию:

  • Постановка задачи: неформальное описание, ДНК (дано–найти–критерий), структура данных
  • Описание простого решения baseline
  • Описание основного решения и его вариантов
  • Описание набора данных и методики экспериментов
  • Результаты экспериментов по подбору гиперпараметров основного решения
  • Результаты экспериментов по сравнению основного решения с baseline
  • Примеры визуализации модели
  • Выводы: что работает, что не работает, инсайты
  • Ссылка на код

Примеры отчётов:

Литература

  1. Воронцов К. В. Обзор вероятностных тематических моделей. 2021.
  2. Hamed Jelodar, Yongli Wang, Chi Yuan, Xia Feng. Latent Dirichlet Allocation (LDA) and Topic modeling: models, applications, a survey. 2017.
  3. Hofmann T. Probabilistic latent semantic indexing // Proceedings of the 22nd annual international ACM SIGIR conference on Research and development in information retrieval. — New York, NY, USA: ACM, 1999. — Pp. 50–57.
  4. Blei D. M., Ng A. Y., Jordan M. I. Latent Dirichlet allocation // Journal of Machine Learning Research. — 2003. — Vol. 3. — Pp. 993–1022.
  5. Asuncion A., Welling M., Smyth P., Teh Y. W. On smoothing and inference for topic models // Proceedings of the International Conference on Uncertainty in Artificial Intelligence. — 2009.
  6. Янина А. О., Воронцов К. В. Мультимодальные тематические модели для разведочного поиска в коллективном блоге // Машинное обучение и анализ данных. 2016. T.2. №2. С.173-186.

Ссылки

Материалы для первого ознакомления:

Подстраницы

Вероятностные тематические модели (курс лекций, К.В.Воронцов)/2015Вероятностные тематические модели (курс лекций, К.В.Воронцов)/2016Вероятностные тематические модели (курс лекций, К.В.Воронцов)/2017
Вероятностные тематические модели (курс лекций, К.В.Воронцов)/2018Вероятностные тематические модели (курс лекций, К.В.Воронцов)/2019, ВМКВероятностные тематические модели (курс лекций, К.В.Воронцов)/2020
Вероятностные тематические модели (курс лекций, К.В.Воронцов)/2021