Вероятностные языковые модели (курс лекций, К.В.Воронцов)

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Литература)
(Проект «Тематизатор»)
 
(122 промежуточные версии не показаны)
Строка 1: Строка 1:
-
{{well|
 
-
Весной 2021г. на факльтете ВМК МГУ спецкурс проводится дистанционно через Zoom по четвергам в 18:00.
 
-
Первое занятие 25 февраля (если пропустите — смотрите видео).
 
-
Доступ к конференции через онлайн-расписание.
 
-
}}
 
{{TOCright}}
{{TOCright}}
-
'''[https://us02web.zoom.us/j/83115465289?pwd=UE5qZ0hPME92UDM5Zk1POUtLV3VGQT09 Подключиться к конференции Zoom]'''
 
-
Спецкурс читается студентам 2—5 курсов на кафедре «[[Математические методы прогнозирования (кафедра ВМиК МГУ)|Математические методы прогнозирования]]» [[ВМиК]] [[МГУ]] с 2013 года и студентам 4 и 6 курсов на кафедре «[[Интеллектуальные системы (кафедра МФТИ)|Интеллектуальные системы]]» [[ФУПМ]] [[МФТИ]] с 2019 года.
+
Спецкурс читается студентам 2—4 курсов на кафедре «[[Математические методы прогнозирования (кафедра ВМиК МГУ)|Математические методы прогнозирования]]» [[ВМиК]] [[МГУ]] с 2013 года и студентам 6 курса на кафедре «[[Интеллектуальные системы (кафедра МФТИ)|Интеллектуальные системы]]» [[ФУПМ]] [[МФТИ]] с 2019 года.
-
В спецкурсе изучается вероятностное [[тематическое моделирование]] (topic modeling) коллекций текстовых документов. Тематическая модель определяет, какие темы содержатся в большой текстовой коллекции, и к каким темам относится каждый документ. Тематические модели позволяют искать тексты по смыслу, а не по ключевым словам, и создавать информационно-поисковые системы нового поколения, основанные на парадигме семантического разведочного поиска (exploratory search). Рассматриваются тематические модели для классификации, категоризации, сегментации, суммаризации текстов естественного языка, а также для рекомендательных систем, анализа банковских транзакционных данных, анализа биомедицинских сигналов. В спецкурсе развивается многокритериальный подход к построению моделей с заданными свойствами — [[аддитивная регуляризация тематических моделей]] (АРТМ). Он основан на регуляризации некорректно поставленных задач стохастического матричного разложения. Особое внимание уделяется методам лингвистической регуляризации для моделирования связности текста. Предполагается проведение студентами численных экспериментов на модельных и реальных данных с помощью библиотеки тематического моделирования [[BigARTM]].
+
До 2026 года курс назывался «Вероятностные тематические модели».
-
От студентов требуются знания курсов линейной алгебры, математического анализа, теории вероятностей. Знание математической статистики, методов оптимизации, машинного обучения, языков программирования Python и С++ желательно, но не обязательно.
+
Вероятностные языковые модели (Probabilistic Language Model) выявляют закономерности в строении текста, чтобы предсказывать появление каждого следующего слова. Чем лучше модель понимает строение языка, тем точнее предсказания слов, тем более она полезна в задачах анализа текстов, информационного поиска (IR, Information Retrieval), обработки естественного языка (NLP, Natural Language Processing), понимания естественного языка (NLU, Natural Language Understanding).
-
Краткая ссылка на эту страницу: [http://bit.ly/2EGWcjA bit.ly/2EGWcjA].
+
Наиболее подробно в курсе изучается вероятностное [[тематическое моделирование]] (Probabilistic Topic Modeling) коллекций текстовых документов. Тематическая модель определяет, какие темы содержатся в большой текстовой коллекции, и к каким темам относится каждый документ. Тематические модели позволяют искать тексты по смыслу, а не по ключевым словам, создавать системы семантического разведочного поиска (Exploratory Search), инструменты для цифровых гуманитарных исследований (Digital Humanities). Рассматриваются тематические модели для классификации, категоризации, сегментации, суммаризации текстов естественного языка, а также для рекомендательных систем, анализа банковских транзакционных данных, анализа биомедицинских сигналов. Развивается многокритериальный подход к построению моделей с заданными свойствами — [[аддитивная регуляризация тематических моделей]] ([[ARTM]]). Он основан на регуляризации некорректно поставленных задач стохастического матричного разложения. Особое внимание уделяется методам лингвистической регуляризации для моделирования связности текста. Предполагается проведение студентами численных экспериментов на модельных и реальных данных с помощью библиотеки тематического моделирования [[BigARTM]].
-
<!--* [https://us04web.zoom.us/j/954421011?pwd=ODBlaXZIcW40ZkJSK2ZvWFFBR2dkQT09 Подключиться к конференции Zoom]
+
От студентов требуются знания курсов линейной алгебры, математического анализа, теории вероятностей. Желательно знание курсов математической статистики, методов оптимизации, машинного обучения, языка программирования Python.
-
* Идентификатор конференции: 954 421 011
+
-
* Пароль: 4krAt1
+
-
* [https://zoom.us/j/2140504487?pwd=MWkwRDRIREdUQzZrOVJLekM1ekNGZz09 Подключиться к конференции Zoom] {{важно|— ссылка обновлена 11.12.2020}}.
+
Краткая ссылка на эту страницу: [http://bit.ly/2EGWcjA bit.ly/2EGWcjA].
-
-->
+
-
 
+
-
'''Материалы для первого ознакомления:'''
+
-
* ''[[Media:BigARTM-short-intro.pdf|Тематический анализ больших данных]]''. Краткое популярное введение в BigARTM.
+
-
* ''[http://postnauka.ru/video/61910 Разведочный информационный поиск]''. Видеолекция на ПостНауке.
+
-
* ''[https://postnauka.ru/faq/86373 Тематическое моделирование]''. FAQ на ПостНауке, совместно с Корпоративным университетом Сбербанка.
+
-
* ''[https://www.youtube.com/watch?v=MhNbccnVk5Y Байесовская и классическая регуляризация в вероятностном тематическом моделировании]''. Научно-образовательный семинар «Актуальные проблемы прикладной математики» Новосибирского Государственного Университета, 19 февраля 2021. [[Media:Voron-2021-02-19.pdf|Презентация]].
+
-
* ''[https://habrahabr.ru/company/yandex/blog/313340 Тематическое моделирование на пути к разведочному информационному поиску]''. Лекция на DataFest3, 10 сентября 2016. [https://www.youtube.com/watch?v=frLW8UVp_Ik&index=5&list=PLJOzdkh8T5kqfhWXhtYevTUHIvrylDLYu Видеозапись].
+
'''Основной материал:'''
'''Основной материал:'''
-
* ''Воронцов К. В.'' [[Media:voron17survey-artm.pdf|Вероятностное тематическое моделирование: обзор моделей и аддитивная регуляризация]]. {{важно|— обновление 17.03.2020}}.
+
* ''Воронцов К. В.'' [[Media:voron17survey-artm.pdf|Вероятностное тематическое моделирование: теория регуляризации ARTM и библиотека с открытым кодом BigARTM]]. {{важно|— обновление 29.12.2025}}.
 +
* [https://www.youtube.com/playlist?list=PLk4h7dmY2eYFeH50yAki9uSrk7PrjBUoL Плейлист видеозаписей, 2025 осень (МФТИ)].
= Программа курса =
= Программа курса =
-
== Задача тематического моделирования ==
+
== Оптимизация и регуляризация языковых моделей ==
-
Презентация: [[Media:Voron20ptm-intro.pdf|(PDF,&nbsp;6,4&nbsp;МБ)]] {{важно|— обновление 04.03.2021}}.
+
Презентация: [[Media:Voron26plm01-intro.pdf|(PDF,&nbsp;3,4&nbsp;МБ)]] {{важно|— обновление 02.03.2026}}.
-
[https://youtu.be/sBdFG8Rl-i8?t=159 Видеозапись]
+
<!--[https://youtu.be/Xit8NqCvdyA?t=74 Видеозапись 2025]-->
-
'''Цели и задачи тематического моделирования.'''
+
'''Задачи языкового моделирования.'''
-
* Понятие «темы», цели и задачи [[тематическое моделирование|тематического моделирования]].
+
* Частотные языковые модели. Гипотеза «мешка слов».
-
* Вероятностная модель порождения текста.
+
-
* [[EM-алгоритм]] и его элементарная интерпретация. Формула Байеса и частотные оценки условных вероятностей.
+
* [[Метод наибольшего правдоподобия|Принцип максимума правдоподобия]].
* [[Метод наибольшего правдоподобия|Принцип максимума правдоподобия]].
 +
* [[Условия Каруша–Куна–Таккера]]. Вывод частотных оценок.
 +
* Задача [[Тематическое моделирование|тематического моделирования]].
'''Аддитивная регуляризация тематических моделей.'''
'''Аддитивная регуляризация тематических моделей.'''
 +
* Лемма о максимизации на единичных симплексах.
* Понятие некорректно поставленной задачи по Адамару. Регуляризация.
* Понятие некорректно поставленной задачи по Адамару. Регуляризация.
-
* Лемма о максимизации на единичных симплексах. [[Условия Каруша–Куна–Таккера]].
 
* Теорема о необходимом условии максимума регуляризованного правдоподобия для ARTM.
* Теорема о необходимом условии максимума регуляризованного правдоподобия для ARTM.
 +
* [[EM-алгоритм]] и его элементарная интерпретация. Формула Байеса и частотные оценки условных вероятностей.
* Классические тематические модели [[Вероятностный латентный семантический анализ|PLSA]] и [[Латентное размещение Дирихле|LDA]] как частные случаи ARTM.
* Классические тематические модели [[Вероятностный латентный семантический анализ|PLSA]] и [[Латентное размещение Дирихле|LDA]] как частные случаи ARTM.
-
* Мультимодальные тематические модели.
 
-
'''Библиотека [[BigARTM]].'''
+
'''Практика тематического моделирования.'''
-
* Рациональный ЕМ-алгоритм (встраивание Е-шага внутрь М-шага).
+
-
* Оффлайновый регуляризованный EM-алгоритм.
+
-
* Онлайновый регуляризованный EM-алгоритм. Распараллеливание.
+
* Проект с открытым кодом BigARTM.
* Проект с открытым кодом BigARTM.
 +
* Этапы решения практических задач.
 +
* Методы предварительной обработки текста.
 +
* Датасеты и практические задания по курсу.
-
== Разведочный информационный поиск ==
+
== Языковые модели сочетаемости слов ==
-
Презентация: [[Media:Voron20ptm-exp.pdf|(PDF,&nbsp;10&nbsp;МБ)]] {{важно|— обновление 04.03.2021}}.
+
Презентация: [[Media:Voron26plm02-biterm.pdf|(PDF,&nbsp;1,4&nbsp;МБ)]] {{важно|— обновление 02.03.2026}}.
-
[https://youtu.be/bA6wS6j6akU Видеозапись]
+
-
'''Разведочный информационный поиск.'''
+
'''Модели векторных представлений слов.'''
-
* Концепция разведочного поиска.
+
* Дистрибутивная гипотеза. Модель SGNS в программе word2vec.
-
* Особенности разведочного поиска.
+
* Эквивалентная задача матричного разложения.
-
* Поисково-рекомендательная система KnowledgeFactory.
+
* Оценивание качества векторных представлений слов.
 +
* FastText и другие модели векторных представлений текста.
 +
 
 +
'''Тематические модели дистрибутивной семантики.'''
 +
* Модель битермов BTM (Biterm Topic Model) для коллекций коротких текстов.
 +
* Модели WNTM (Word Network Topic Model) и WTM (Word Topic Model).
 +
* Сравнение WN-ARTM с моделью word2vec.
 +
* Когерентность как мера интерпретируемости тем. Регуляризаторы когерентности.
 +
 
 +
'''Мультиграммные модели и выделение терминов.'''
 +
* Контактная близость слов. Критерии выделения коллокаций.
 +
* Алгоритм TopMine для быстрого поиска частых фраз.
 +
* Синтаксический разбор. Нейросетевые синтаксические анализаторы SyntaxNet, UDpipe.
 +
* Критерии тематичности фраз.
 +
* Комбинирование синтаксической, статистической и тематической фильтрации фраз.
 +
 
 +
== Нейросетевые языковые модели ==
 +
Презентация: [[Media:Voron26plm03-neural.pdf|(PDF,&nbsp;6,8&nbsp;МБ)]] {{важно|— обновление 23.03.2026}}.
 +
 
 +
'''Краткое введение в машинное обучение.'''
 +
* Минимизация эмпирического риска. Метод стохастического градиента.
 +
* Искусственные нейронные сети. Линейная модель нейрона. Многослойный персептрон.
 +
* Глубокие нейронные сети. Свёрточные сети для анализа изображений.
 +
* Обучаемая векторизация данных. Автокодировщики.
 +
 
 +
'''Нейросетевые модели языка.'''
 +
* Модель машинного перевода. Модель внимания QKV. Архитектура трансформера. Кодировщик и декодировщик.
 +
* Критерии обучения в машинном переводе.
 +
* Критерий маскированного языкового моделирования для обучения кодировщика. Модель BERT.
 +
 
 +
'''Тематические модели локального контекста.'''
 +
* Эволюция тематического моделирования.
 +
* Нейросетевая тематическая модель Contextual-Top2Vec.
 +
* Постановка задачи контекстного тематического моделирования.
 +
 
 +
== Тематические модели локального контекста ==
 +
Презентация: [[Media:Voron26plm04-local.pdf|(PDF,&nbsp;3,4&nbsp;МБ)]] {{важно|— обновление 3.04.2026}}.
 +
 
 +
'''Тематические модели «мешка слов».'''
 +
* Постановка задачи ARTM.
 +
* Ускорение сходимости EM-алгоритма.
 +
* Идея матричной реализации EM-алгоритма.
 +
 
 +
'''Тематическая модель локального контекста.'''
 +
* Модель быстрой тематизации документа за один линейный проход.
 +
* Контекстная тематическая модель Attentive ARTM (AARTM). Вывод EM-алгоритма.
 +
* Быстрое вычисление двунаправленных тематических векторов контекста.
 +
* Псевдокод EM-алгоритма.
 +
 
 +
'''Сравнение тематических моделей с нейросетевыми.'''
 +
* Сравнение с моделью само-внимания Query-Key-Value. Аналогия с трансформером.
 +
* Сравнение со свёрточной сетью GCNN.
 +
* Сравнение с нейросетевой тематической моделью Contextual-Top2Vec.
 +
* Сравнение с контекстной документной кластеризацией (CDC).
 +
 
 +
== Конструирование регуляризаторов и устойчивость моделей ==
 +
Презентация: [[Media:Voron26plm05-regular.pdf|(PDF,&nbsp;1,2&nbsp;МБ)]] {{важно|— обновление 30.03.2026}}.
 +
[https://youtu.be/5DXhffGMjBM видеозапись]
'''Часто используемые регуляризаторы.'''
'''Часто используемые регуляризаторы.'''
-
* Сглаживание, разреживание, декоррелирование.
+
* Сглаживание и разреживание.
-
* Модальности.
+
* Частичное обучение.
-
* Иерархии тем. Послойное построение иерархии. Псевдодокументы родительских тем.
+
* Декоррелирование тем. Выделение фоновых тем.
 +
* Разреживание для отбора тем.
 +
* Расстояния и дивергенции между дискретными распределениями.
 +
 
 +
'''Комбинирование регуляризаторов.'''
 +
* Траектории регуляризации.
 +
* Относительные коэффициенты регуляризации.
 +
* Оценивание качества: перплексия, когерентность, лексическое ядро
 +
* Эксперименты с комбинированием разреживания, сглаживания, декоррелирования.
 +
* Эмпирические рекомендации по комбинированию регуляризаторов.
 +
 
 +
'''Эксперименты с тематическими моделями.'''
 +
* Исследование устойчивости восстановления тем на синтетических данных.
 +
* Исследование устойчивости на реальных данных.
 +
* Эксперименты с отбором тем на синтетических и реальных данных.
 +
* Сравнение с байесовской моделью HDP (Hierarchical Dirichlet Process).
 +
* Эффект отбрасывания малых, дублирующих и линейно зависимых тем.
 +
 
 +
== Тематический информационный поиск ==
 +
Презентация: [[Media:Voron26plm05-exps.pdf|(PDF,&nbsp;9,4&nbsp;МБ)]] {{важно|— обновление 30.03.2026}}.
 +
[https://youtu.be/lckh814p-7I видеозапись]
 +
 
 +
'''Мультимодальные тематические модели.'''
 +
* Примеры модальностей.
 +
* Мультимодальный ARTM и регуляризованный ЕМ-алгоритм.
 +
 
 +
'''Иерархические тематические модели.'''
 +
* Иерархии тем. Послойное построение иерархии.
 +
* Регуляризаторы для разделения тем на подтемы.
 +
* Псевдодокументы родительских тем.
 +
* Модальность родительских тем.
'''Эксперименты с тематическим поиском.'''
'''Эксперименты с тематическим поиском.'''
Строка 75: Строка 146:
* Тематическая модель для документного поиска.
* Тематическая модель для документного поиска.
* Оптимизация гиперпараметров.
* Оптимизация гиперпараметров.
 +
<!--
 +
'''Задачи тематизации текстовых коллекций'''
 +
* Проект «Мастерская знаний». Тематизация подборок научных публикаций.
 +
* Поиск этно-релевантных тем в социальных сетях
 +
* Тематизация в социо-гуманитарных исследованиях-->
== Оценивание качества тематических моделей ==
== Оценивание качества тематических моделей ==
-
Презентация: [[Media:Voron20ptm-quality.pdf|(PDF,&nbsp;1,6&nbsp;МБ)]] {{важно|— обновление 04.10.2020}}.
+
Презентация: [[Media:Voron26plm07-quality.pdf|(PDF,&nbsp;2,2&nbsp;МБ)]] {{важно|— обновление 12.04.2026}}.
-
[https://youtu.be/FfxuULD-TmU Видеозапись]
+
[https://youtu.be/OoIetK1pTUA видеозапись]
'''Измерение качества тематических моделей.'''
'''Измерение качества тематических моделей.'''
* Правдоподобие и перплексия.
* Правдоподобие и перплексия.
-
* Интерпретируемость и когерентность.
+
* Интерпретируемость и когерентность. Внутритекстовая когерентность.
* Разреженность и различность.
* Разреженность и различность.
-
 
-
'''Эксперименты с регуляризацией.'''
 
-
* Комбинирование регуляризаторов.
 
-
* Проблема определения числа тем.
 
-
* Проблема несбалансированности тем.
 
'''Проверка гипотезы условной независимости.'''
'''Проверка гипотезы условной независимости.'''
 +
* Проверка гипотезы согласия для языковой модели.
* Статистики на основе KL-дивергенции и их обобщения.
* Статистики на основе KL-дивергенции и их обобщения.
-
* Регуляризатор семантической однородности.
 
* Применение статистических тестов условной независимости.
* Применение статистических тестов условной независимости.
-
== Обзор базовых инструментов ==
+
'''Проблема тематической несбалансированности в данных'''
-
''Мурат Апишев''.
+
* Проблема малых тем и тем-дубликатов.
-
Презентация: [[Media:Base_instruments.zip‎|(zip,&nbsp;0,6&nbsp;МБ)]] {{важно|— обновление 17.02.2017}}.
+
* Тематическая несбалансированность как основная причина плохой интерпретируемости тем.
-
[https://youtu.be/AIN00vWOJGw Видеозапись]
+
* Эксперименты с регуляризаторами отбора тем и декоррелирования.
 +
* Регуляризатор семантической однородности.
 +
* Подходы к балансировке тем.
-
'''Предварительная обработка текстов'''
+
== Проект «Тематизатор» ==
-
* Парсинг "сырых" данных.
+
Презентация: [[Media:Voron26plm08-project.pdf|(PDF,&nbsp;8,3&nbsp;МБ)]] {{важно|— обновление 20.04.2026}}.
-
* Токенизация, стемминг и лемматизация.
+
[https://youtu.be/0BEIkS3OZZY Видеозапись]
-
* Выделение энграмм.
+
-
* Законы Ципфа и Хипса. Фильтрация словаря коллекции. Удаление стоп-слов.
+
-
'''Библиотека BigARTM'''
+
'''Примеры прикладных задач'''
-
* Методологические рекоммендации по проведению экспериментов.
+
* Обзор регуляризаторов ARTM.
-
* Установка [[BigARTM]].
+
* Поиск этно-релевантных тем в социальных сетях.
-
* Формат и импорт входных данных.
+
* Анализ программ развития российских вузов.
-
* Обучение простой модели (без регуляризации): создание, инициализация, настройка и оценивание модели.
+
* Поиск и рубрикация научных статей на 100 языках.
-
* Инструмент визуализации тематических моделей VisARTM. Основные возможности, демонстрация работы.
+
* Тематическое моделирование в исторических и политологических исследованиях.
 +
* Проекты Школы Прикладного Анализа Данных.
-
'''Дополнительный материал:'''
+
'''Визуализация тематических моделей'''
-
* Презентация: [[Media:VoronApishev17ptm5.pdf|(PDF,&nbsp;1,5&nbsp;МБ)]] {{важно|— обновление 17.03.2017}}.
+
* Визуализация матричного разложения.
-
* [https://www.youtube.com/watch?v=2LEQuLRxaIY&t=1s '''Видео'''] {{важно|— обновление 22.03.2017}}.
+
* Динамика, иерархии, взаимосвязи, сегментация.
-
* Воркшоп по BigARTM на DataFest'4. [https://www.youtube.com/watch?v=oQcHEm2-7PM '''Видео'''].
+
* Спектр тем.
-
== Тематические модели сочетаемости слов ==
+
'''Анализ требований к «Тематизатору»'''
-
Презентация: [[Media:Voron20ptm-cooc.pdf|(PDF,&nbsp;2,1&nbsp;МБ)]] {{важно|— обновление 07.10.2020}}.
+
* Функциональные требования.
-
[https://youtu.be/Gww_fbcb0SM Видеозапись]
+
* Требования к интерпретируемости.
 +
* Основной пользовательский сценарий: загрузка, предобработка, моделирование, визуализация, коррекция.
 +
* Задача перестроения модели по экспертной разметке тем на релевантные, нерелевантные и мусорные
 +
* Этапизация работ и MVP Тематизатора.
-
'''Мультиграммные модели.'''
+
{{важно|Программа курса в разработке. Ниже — остаток от программы 2025 года}}.
-
* Модель BigramTM.
+
-
* Модель Topical N-grams (TNG).
+
-
* Мультимодальная мультиграммная модель.
+
-
'''Автоматическое выделение терминов.'''
+
<!--
 +
== Обзор вероятностных моделей языка ==
 +
* Токенизация; n-граммы, коллокации, словосочетания, термины. Алгоритм TopMine.
 +
* Перплексия.
 +
* Эмпирические законы Ципфа и Хипса.
 +
* Модели релевантности текста TF-IDF, BM-25, PageRank, TextRank.
 +
-->
 +
 
 +
== Мультимодальные тематические модели ==
 +
Презентация: [[Media:Voron25ptm-modal.pdf|(PDF,&nbsp;1,8&nbsp;МБ)]] {{важно|— обновление 21.10.2025}}.
 +
[https://youtu.be/8cg334LKWdk видеозапись]
 +
 
 +
'''Мультиязычные тематические модели.'''
 +
* Параллельные и сравнимые коллекции.
 +
* Регуляризаторы для учёта двуязычных словарей.
 +
* Кросс-язычный информационный поиск.
 +
 
 +
'''Трёхматричные модели.'''
 +
* Модели трёхматричных разложений. Понятие порождающей модальности.
 +
* Автор-тематическая модель (author-topic model).
 +
* Модель для выделения поведений объектов в видеопотоке.
 +
 
 +
'''Тематические модели транзакционных данных.'''
 +
* Примеры транзакционных данных в рекомендательных системах, социальных и рекламных сетях.
 +
* Гиперграфовая модель ARTM. Теорема о необходимом условии максимума регуляризованного правдоподобия.
 +
* Транзакционные данные в рекомендательных системах. Симметризованная гиперграфовая модель ARTM.
 +
* Гиперграфовые тематические модели языка. Тематическая модель предложений и сегментоидов.
 +
* Анализ транзакционных данных для выявления паттернов экономического поведения клиентов банка. '''[https://youtu.be/0q5p7xP4cdA?t=15168 Видео]'''.
 +
* Анализ банковских транзакционных данных для выявления видов деятельности компаний.
 +
 
 +
== Тематические модели сочетаемости слов ==
 +
Презентация: [[Media:Voron25ptm-cooc.pdf|(PDF,&nbsp;1,5&nbsp;МБ)]] {{важно|— обновление 8.11.2025}}.
 +
[https://youtu.be/0Yy5kH2LlEQ видеозапись]
 +
 
 +
'''Мультиграммные модели и выделение терминов.'''
* Алгоритм TopMine для быстрого поиска частых фраз. Критерии выделения коллокаций.
* Алгоритм TopMine для быстрого поиска частых фраз. Критерии выделения коллокаций.
-
* Синтаксический разбор. Нейросетевой синтаксический анализатор SyntaxNet.
+
* Синтаксический разбор. Нейросетевые синтаксические анализаторы SyntaxNet, UDpipe.
* Критерии тематичности фраз.
* Критерии тематичности фраз.
* Комбинирование синтаксической, статистической и тематической фильтрации фраз.
* Комбинирование синтаксической, статистической и тематической фильтрации фраз.
Строка 138: Строка 244:
<!--* Модель всплесков BBTM (Bursty Biterm Topic Model). -->
<!--* Модель всплесков BBTM (Bursty Biterm Topic Model). -->
* Модели WNTM (Word Network Topic Model) и WTM (Word Topic Model). Связь с моделью word2vec.
* Модели WNTM (Word Network Topic Model) и WTM (Word Topic Model). Связь с моделью word2vec.
-
* Понятие когерентности (согласованности). Экспериментально установленная связь когерентности и интерпретируемости.
+
<!--* Регуляризаторы когерентности. -->
-
* Регуляризаторы когерентности.
+
 
 +
'''Позиционный регуляризатор в ARTM.'''
 +
* Гипотеза о сегментной структуре текста.
 +
* Регуляризация матрицы тематических векторов термов. Формулы М-шага.
 +
* Теорема о регуляризаторе, эквивалентном произвольной пост-обработке Е-шага.
 +
* Примеры регуляризаторов Е-шага. Разреживание распределения p(t|d,w). Сглаживание тематики слов по контексту.
'''Дополнительный материал:'''
'''Дополнительный материал:'''
Строка 145: Строка 256:
== Анализ зависимостей ==
== Анализ зависимостей ==
-
Презентация: [[Media:Voron20ptm-rel.pdf|(PDF,&nbsp;1,9&nbsp;МБ)]] {{важно|— обновление 28.10.2020}}.
+
Презентация: [[Media:Voron25ptm-rel.pdf|(PDF,&nbsp;2,6&nbsp;МБ)]] {{важно|— обновление 27.11.2025}}.
-
[https://youtu.be/16CnS99t8Rc Видеозапись]
+
[https://youtu.be/s8Fp62lWHqk видеозапись]
'''Зависимости, корреляции, связи.'''
'''Зависимости, корреляции, связи.'''
Строка 163: Строка 274:
* Регуляризаторы для выявления социальных ролей пользователей.
* Регуляризаторы для выявления социальных ролей пользователей.
-
== Мультимодальные тематические модели ==
+
== Именование и суммаризация тем ==
-
Презентация: [[Media:Voron20ptm-modal.pdf|(PDF,&nbsp;2,7&nbsp;МБ)]] {{важно|— обновление 28.10.2020}}.
+
Презентация: [[Media:Voron25ptm-sum.pdf|(PDF,&nbsp;4,6&nbsp;МБ)]] {{важно|— обновление 27.11.2025}}.
-
[https://youtu.be/Ux868k__lXA Видеозапись]
+
[https://youtu.be/d87zESF20K8 видеозапись]
-
'''Мультиязычные тематические модели.'''
+
'''Методы суммаризации текстов.'''
-
* Параллельные и сравнимые коллекции.
+
* Задачи автоматической суммаризации текстов. Подходы к суммаризации: extractive и abstractive.
-
* Регуляризаторы для учёта двуязычных словарей.
+
* Оценивание и отбор предложений для суммаризации. Релаксационный метод для многокритериальной дискретной оптимизации.
-
* Кросс-язычный информационный поиск.
+
* Тематическая модель предложений для суммаризации.
 +
* Критерии качества суммаризации. Метрики ROUGE, BLUE.
-
'''Трёхматричные и гиперграфовые модели.'''
+
'''Автоматическое именование тем (topic labeling).'''
-
* Модели трёхматричных разложений. Понятие порождающей модальности.
+
* Формирование названий-кандидатов.
-
* Автор-тематическая модель (author-topic model).
+
* Релевантность, покрытие, различность.
-
* Модель для выделения поведений объектов в видеопотоке.
+
* Оценивание качества именования тем.
-
'''Тематические модели транзакционных данных.'''
+
'''Задача суммаризации темы'''
-
* Примеры транзакционных данных в рекомендательных системах, социальных и рекламных сетях.
+
* Задача ранжирования документов
-
* Гиперграфовая модель ARTM. Теорема о необходимом условии максимума регуляризованного правдоподобия.
+
* Задача фильтрации репрезентативных релевантных фраз.
-
* Анализ транзакционных данных для выявления паттернов экономического поведения клиентов банка. '''[https://youtu.be/0q5p7xP4cdA?t=15168 Видео]'''.
+
* Задача генерации связного текста
-
* Анализ банковских транзакционных данных для выявления видов деятельности компаний.
+
-
== Моделирование связного текста ==
+
== Байесовское обучение модели LDA ==
-
Презентация: [[Media:Voron20ptm-segm.pdf|(PDF,&nbsp;2,5&nbsp;МБ)]] {{важно|— обновление 28.10.2020}}.
+
Презентация: [[Media:Voron25ptm-bayes.pdf|(PDF,&nbsp;1,7&nbsp;МБ)]] {{важно|— обновление 7.12.2025}}.
-
[https://youtu.be/XNCZr7Pyr0k Видеозапись]
+
[https://youtu.be/Je8o6-qgb7Q видеозапись]
-
 
+
-
'''Модели связного текста.'''
+
-
* Тематическая модель предложений и модель коротких сообщений Twitter-LDA.
+
-
* Контекстная документная кластеризация (CDC).
+
-
* Метод лексических цепочек.
+
-
 
+
-
'''Тематическая сегментация.'''
+
-
* Метод TopicTiling. Критерии определения границ сегментов.
+
-
* Критерии качества сегментации.
+
-
* Оптимизация параметров модели TopicTiling.
+
-
 
+
-
'''Позиционный регуляризатор в ARTM.'''
+
-
* Гипотеза о сегментной структуре текста.
+
-
* Регуляризация и пост-обработка Е-шага. Формулы М-шага.
+
-
* Примеры регуляризаторов Е-шага. Разреживание распределения p(t|d,w). Сглаживание тематики слов по контексту.
+
-
 
+
-
== Теория ЕМ-алгоритма ==
+
-
Презентация: [[Media:Voron20mipt-ptm-emlda.pdf|(PDF,&nbsp;1,2&nbsp;МБ)]] {{важно|— обновление 18.11.2020}}.
+
-
[https://youtu.be/R3QLN0-zlnw Видеозапись]
+
'''Классические модели PLSA, LDA.'''
'''Классические модели PLSA, LDA.'''
Строка 210: Строка 302:
* Модель LDA. Распределение Дирихле и его свойства.
* Модель LDA. Распределение Дирихле и его свойства.
* Максимизация апостериорной вероятности для модели LDA.
* Максимизация апостериорной вероятности для модели LDA.
-
 
-
'''Общий EM-алгоритм.'''
 
-
* EM-алгоритм для максимизации неполного правдоподобия.
 
-
* Регуляризованный EM-алгоритм. Сходимость в слабом смысле.
 
-
* Альтернативный вывод формул ARTM.
 
-
 
-
'''Эксперименты с моделями PLSA, LDA.'''
 
-
* Проблема неустойчивости (на синтетических данных).
 
-
* Проблема неустойчивости (на реальных данных).
 
-
* Проблема переобучения и робастные модели.
 
-
 
-
== Байесовское обучение модели LDA ==
 
-
Презентация: [[Media:Voron20ptm-bayes.pdf|(PDF,&nbsp;1,9&nbsp;МБ)]] {{важно|— обновление 18.11.2020}}.
 
-
[https://youtu.be/y-05-cbiUsg Видеозапись]
 
'''Вариационный байесовский вывод.'''
'''Вариационный байесовский вывод.'''
Строка 239: Строка 317:
* Графическая нотация (plate notation). [http://zinkov.com/posts/2013-07-28-stop-using-plates Stop using plate notation].
* Графическая нотация (plate notation). [http://zinkov.com/posts/2013-07-28-stop-using-plates Stop using plate notation].
* Сравнение байесовского подхода и ARTM.
* Сравнение байесовского подхода и ARTM.
-
* Как читать статьи по баейсовским моделям и строить эквивалентные ARTM-модели.
+
* Как читать статьи по байесовским моделям и строить эквивалентные ARTM-модели.
-
== Суммаризация и автоматическое именование тем ==
+
<!---
-
Презентация: [[Media:Voron20ptm-sum.pdf|(PDF,&nbsp;3,0&nbsp;МБ)]] {{важно|— обновление 25.11.2020}}.
+
== Моделирование сегментированного текста ==
-
[https://youtu.be/bfAG-ZZDz3Q Видеозапись]
+
Презентация: [[Media:Voron24ptm-segm.pdf|(PDF,&nbsp;2,1&nbsp;МБ)]] {{важно|— обновление 21.11.2024}}.
 +
[https://youtu.be/k46UzzMSKt0?list=PLk4h7dmY2eYEnsGW3GIMvIhxPeifcQvQt&t=22 старая видеозапись]
-
'''Методы суммаризации текстов.'''
+
'''Мультиграммные модели.'''
-
* Задачи автоматической суммаризации текстов. Подходы к суммаризации: extractive и abstractive.
+
* Модель BigramTM.
-
* Оценивание и отбор предложений для суммаризации. Релаксационный метод для многокритериальной дискретной оптимизации.
+
* Модель Topical N-grams (TNG).
-
* Тематическая модель предложений для суммаризации.
+
* Мультимодальная мультиграммная модель.
-
* Критерии качества суммаризации. Метрики ROUGE, BLUE.
+
-
'''Автоматическое именование тем (topic labeling).'''
+
'''Тематические модели предложений.'''
-
* Формирование названий-кандидатов.
+
* Тематическая модель предложений senLDA.
-
* Релевантность, покрытие, различность.
+
* Модель коротких сообщений Twitter-LDA.
-
* Оценивание качества именования тем.
+
* Сегментоиды. Лексические цепочки.
-
'''Тематическое моделирование связного текста'''
+
'''Тематическая сегментация текста.'''
-
* Тематизация фрагментов текста для суммаризации и именования тем.
+
* Метод TopicTiling. Критерии определения границ сегментов.
-
* Тематическое моделирование без матрицы <tex>\Theta</tex>.
+
* Критерии качества сегментации.
-
* Двунаправленная тематическая модель контекста.
+
* Оптимизация параметров модели TopicTiling.
 +
--->
-
== Визуализация ==
+
= Дополнительные лекции =
-
Презентация: [[Media:Voron20ptm-vis.pdf|(PDF,&nbsp;10,1&nbsp;МБ)]] {{важно|— обновление 11.01.2021}}.
+
-
[https://youtu.be/xc33THjavwk Видеозапись]
+
-
'''Визуализация больших текстовых коллекций'''
+
== BigARTM и базовые инструменты ==
-
* Концепция distant reading
+
''Мурат Апишев''.
-
* Карты знаний
+
Презентация: [[Media:Base_instruments.zip‎|(zip,&nbsp;0,6&nbsp;МБ)]] {{важно|— обновление 17.02.2017}}.
-
* Иерархии, взаимосвязи, динамика, сегментация
+
[https://youtu.be/AIN00vWOJGw Видеозапись]
-
'''Визуализация тематических моделей'''
+
'''Предварительная обработка текстов'''
-
* Визуализация матричного разложения
+
* Парсинг «сырых» данных.
-
* Проект VisARTM
+
* Токенизация, стемминг и лемматизация.
-
* Спектр тем
+
* Выделение энграмм.
 +
* Законы Ципфа и Хипса. Фильтрация словаря коллекции. Удаление стоп-слов.
-
'''Визуализация для научного разведочного поиска'''
+
'''Библиотека BigARTM'''
-
* Тематическая карта
+
* Методологические рекоммендации по проведению экспериментов.
-
* Задача оценивания когнитивной сложности текста
+
* Установка [[BigARTM]].
-
* Иерархическая тематическая суммаризация
+
* Формат и импорт входных данных.
 +
* Обучение простой модели (без регуляризации): создание, инициализация, настройка и оценивание модели.
 +
* Инструмент визуализации тематических моделей VisARTM. Основные возможности, демонстрация работы.
 +
 
 +
'''Дополнительный материал:'''
 +
* Презентация: [[Media:VoronApishev17ptm5.pdf|(PDF,&nbsp;1,5&nbsp;МБ)]] {{важно|— обновление 17.03.2017}}.
 +
* [https://www.youtube.com/watch?v=2LEQuLRxaIY&t=1s '''Видео'''] {{важно|— обновление 22.03.2017}}.
 +
* Воркшоп по BigARTM на DataFest'4. [https://www.youtube.com/watch?v=oQcHEm2-7PM '''Видео'''].
 +
 
 +
== Проект «Мастерская знаний» ==
 +
Презентация: [[Media:Voron25ptm-kf.png|(PNG,&nbsp;8,1&nbsp;МБ)]] {{важно|— обновление 3.03.2025}}.
 +
 
 +
'''Проект «Мастерская знаний»'''
 +
* Цели, задачи, концепция проекта. Тематические подборки научных текстов.
 +
* Модель векторизации текста для поиска и рекомендаций научных статей.
 +
* Основные сервисы «Мастерской знаний».
 +
 
 +
'''Место тематического моделирования в «Мастерской знаний»'''
 +
* Сервис тематизации подборки.
 +
* Сервисы выявления научных трендов и построения хронологических карт.
 +
* Вспомогательные функции в сервисе полуавтоматической суммаризации.
 +
 
 +
'''Карты знаний'''
 +
* Задачи иерархической суммаризации одной статьи, подборки статей.
 +
* Принципы построения интеллект-карт и карт знаний.
 +
* Что такое «тема»? Отличия тематизации и картирования.
 +
 
 +
== Теория ЕМ-алгоритма ==
 +
Презентация: [[Media:Voron24ptm-emlda.pdf|(PDF,&nbsp;2,0&nbsp;МБ)]] {{важно|— обновление 25.10.2024}}.
 +
[https://youtu.be/DBF5QAFC1V0?list=PLk4h7dmY2eYEnsGW3GIMvIhxPeifcQvQt старая видеозапись]
 +
 
 +
'''Общий EM-алгоритм.'''
 +
* EM-алгоритм для максимизации неполного правдоподобия.
 +
* Регуляризованный EM-алгоритм. Сходимость в слабом смысле.
 +
* Альтернативный вывод формул ARTM.
 +
 
 +
'''Эксперименты с моделями PLSA, LDA.'''
 +
* Проблема неустойчивости (на синтетических данных).
 +
* Проблема неустойчивости (на реальных данных).
 +
* Проблема переобучения и робастные модели.
=Отчетность по курсу=
=Отчетность по курсу=
Условием сдачи курса является выполнение индивидуальных практических заданий.
Условием сдачи курса является выполнение индивидуальных практических заданий.
-
'''Рекомендуемая структура отчёта об исследовании по индивидуальному заданию:'''
+
'''Рекомендуемая структура отчёта об исследовании:'''
* Постановка задачи: неформальное описание, ДНК (дано–найти–критерий), структура данных
* Постановка задачи: неформальное описание, ДНК (дано–найти–критерий), структура данных
* Описание простого решения baseline
* Описание простого решения baseline
Строка 301: Строка 418:
=Литература=
=Литература=
-
# ''Воронцов К. В.'' [[Media:voron17survey-artm.pdf|Обзор вероятностных тематических моделей]]. 2021.
+
# ''Воронцов К. В.'' [https://urss.ru/cgi-bin/db.pl?page=Book&id=305674 Вероятностное тематическое моделирование: Теория регуляризации ARTM и библиотека с открытым кодом BigARTM]. Москва, URSS. 2025. ISBN 978-5-9710-9933-8.
 +
# ''Xiaobao Wu, Thong Nguyen, Anh Tuan Luu.'' [https://arxiv.org/abs/2401.15351 A Survey on Neural Topic Models: Methods, Applications, and Challenges]. 2023.
 +
# ''Rob Churchill, Lisa Singh.'' [https://dl.acm.org/doi/10.1145/3507900 The Evolution of Topic Modeling]. 2022.
 +
# ''He Zhao, Dinh Phung, Viet Huynh, Yuan Jin, Lan Du, Wray Buntine.'' [https://arxiv.org/abs/2103.00498 Topic Modelling Meets Deep Neural Networks: A Survey]. 2021.
# ''Hamed Jelodar, Yongli Wang, Chi Yuan, Xia Feng.'' [https://arxiv.org/ftp/arxiv/papers/1711/1711.04305.pdf Latent Dirichlet Allocation (LDA) and Topic modeling: models, applications, a survey]. 2017.
# ''Hamed Jelodar, Yongli Wang, Chi Yuan, Xia Feng.'' [https://arxiv.org/ftp/arxiv/papers/1711/1711.04305.pdf Latent Dirichlet Allocation (LDA) and Topic modeling: models, applications, a survey]. 2017.
# ''Hofmann T.'' Probabilistic latent semantic indexing // Proceedings of the 22nd annual international ACM SIGIR conference on Research and development in information retrieval. — New York, NY, USA: ACM, 1999. — Pp. 50–57.
# ''Hofmann T.'' Probabilistic latent semantic indexing // Proceedings of the 22nd annual international ACM SIGIR conference on Research and development in information retrieval. — New York, NY, USA: ACM, 1999. — Pp. 50–57.
# ''Blei D. M., Ng A. Y., Jordan M. I.'' Latent Dirichlet allocation // Journal of Machine Learning Research. — 2003. — Vol. 3. — Pp. 993–1022.
# ''Blei D. M., Ng A. Y., Jordan M. I.'' Latent Dirichlet allocation // Journal of Machine Learning Research. — 2003. — Vol. 3. — Pp. 993–1022.
# ''Asuncion A., Welling M., Smyth P., Teh Y. W.'' On smoothing and inference for topic models // Proceedings of the International Conference on Uncertainty in Artificial Intelligence. — 2009.
# ''Asuncion A., Welling M., Smyth P., Teh Y. W.'' On smoothing and inference for topic models // Proceedings of the International Conference on Uncertainty in Artificial Intelligence. — 2009.
-
# ''Янина А. О., Воронцов К. В.'' [http://jmlda.org/papers/doc/2016/no2/Ianina2016Multimodal.pdf Мультимодальные тематические модели для разведочного поиска в коллективном блоге] // Машинное обучение и анализ данных. 2016. T.2. №2. С.173-186.
 
<!--
<!--
 +
# ''Янина А. О., Воронцов К. В.'' [http://jmlda.org/papers/doc/2016/no2/Ianina2016Multimodal.pdf Мультимодальные тематические модели для разведочного поиска в коллективном блоге] // Машинное обучение и анализ данных. 2016. T.2. №2. С.173-186.
# ''Воронцов К.В.'' Тематическое моделирование в BigARTM: теория, алгоритмы, приложения. [[Media:Voron-2015-BigARTM.pdf|Voron-2015-BigARTM.pdf]].
# ''Воронцов К.В.'' Тематическое моделирование в BigARTM: теория, алгоритмы, приложения. [[Media:Voron-2015-BigARTM.pdf|Voron-2015-BigARTM.pdf]].
# ''Воронцов К.В.'' Лекции по тематическому моделированию. [[Media:Voron-2013-ptm.pdf|Voron-2013-ptm.pdf]].
# ''Воронцов К.В.'' Лекции по тематическому моделированию. [[Media:Voron-2013-ptm.pdf|Voron-2013-ptm.pdf]].
Строка 331: Строка 451:
* [[Коллекции документов для тематического моделирования]]
* [[Коллекции документов для тематического моделирования]]
* [[BigARTM]]
* [[BigARTM]]
 +
 +
'''Материалы для первого ознакомления:'''
 +
* ''[[Media:BigARTM-short-intro.pdf|Тематический анализ больших данных]]''. Краткое популярное введение в BigARTM.
 +
* ''[http://postnauka.ru/video/61910 Разведочный информационный поиск]''. Видеолекция на ПостНауке.
 +
* ''[https://postnauka.ru/faq/86373 Тематическое моделирование]''. FAQ на ПостНауке, совместно с Корпоративным университетом Сбербанка.
 +
 +
Обзорная лекция:
 +
* 28 января 2026. Тематические и нейросетевые вероятностные языковые модели: курс на сближение. [http://seminar.railab.ru/ Проблемы искусственного интеллекта] — совместный научный семинар Российской ассоциации искусственного интеллекта и ФИЦ «Информатика и управление» РАН. '''[[Media:voron-2026-01-26.pdf|(PDF,&nbsp;7.3&nbsp;МБ)]]'''. '''[https://rutube.ru/video/229003c057f51029270678a45617dcbf Видеозапись]'''.
 +
 +
Старое:
 +
* ''[https://www.youtube.com/watch?v=MhNbccnVk5Y Байесовская и классическая регуляризация в вероятностном тематическом моделировании]''. Научно-образовательный семинар «Актуальные проблемы прикладной математики» Новосибирского Государственного Университета, 19 февраля 2021. [[Media:Voron-2021-02-19.pdf|Презентация]].
 +
* ''[https://habrahabr.ru/company/yandex/blog/313340 Тематическое моделирование на пути к разведочному информационному поиску]''. Лекция на DataFest3, 10 сентября 2016. [https://www.youtube.com/watch?v=frLW8UVp_Ik&index=5&list=PLJOzdkh8T5kqfhWXhtYevTUHIvrylDLYu Видеозапись].
* [http://www.youtube.com/watch?v=vSzsuq7uHPE Видеозапись лекции на ТМШ, 19 июня 2015]
* [http://www.youtube.com/watch?v=vSzsuq7uHPE Видеозапись лекции на ТМШ, 19 июня 2015]
* ''Воронцов К.В.'' [[Media:voron-2014-task-PTM.pdf|Практическое задание по тематическому моделированию, 2014.]]
* ''Воронцов К.В.'' [[Media:voron-2014-task-PTM.pdf|Практическое задание по тематическому моделированию, 2014.]]
Строка 342: Строка 474:
<!---------------------------------------------------
<!---------------------------------------------------
-
'''Внутренние метрики качества модели.'''
+
'''Модели связного текста.'''
-
* Правдоподобие и перплексия.
+
* Контекстная документная кластеризация (CDC).
-
* Интерпретируемость и когерентность.
+
* Метод лексических цепочек.
-
* Разреженность и различность.
+
-
'''Эксперименты с регуляризаторами.'''
+
'''Инициализация.'''
-
* Комбинирование регуляризаторов сглаживания, разреживания, декоррелирования.
+
* Случайная инициализация. Инициализация по документам.
-
* Проблема несбалансированности тем. Радиус семантической однородности тем.
+
* Контекстная документная кластеризация.
-
* Проверка гипотезы условной независимости
+
* Поиск якорных слов. Алгоритм Ароры.
-
 
+
-
'''Определение числа тем.'''
+
-
* Регуляризатор отбора тем. Эксперименты на синтетических и реальных данных.
+
-
* Эффект отбрасывания малых, дублирующих и линейно зависимых тем.
+
-
* Сравнение с байесовской моделью HDP (Hierarchical Dirichlet Process).
+
'''Расширяемые тематические модели.'''
'''Расширяемые тематические модели.'''
Строка 377: Строка 503:
== Инициализация, траектория регуляризации, тесты адекватности ==
== Инициализация, траектория регуляризации, тесты адекватности ==
Презентация: [[Media:Voron-PTM-10.pdf|(PDF,&nbsp;Х,Х&nbsp;МБ)]] {{важно|— обновление ХХ.ХХ.2016}}.
Презентация: [[Media:Voron-PTM-10.pdf|(PDF,&nbsp;Х,Х&nbsp;МБ)]] {{важно|— обновление ХХ.ХХ.2016}}.
-
 
-
'''Инициализация.'''
 
-
* Случайная инициализация. Инициализация по документам.
 
-
* Контекстная документная кластеризация.
 
-
* Поиск якорных слов. Алгоритм Ароры.
 
'''Траектория регуляризации.'''
'''Траектория регуляризации.'''

Текущая версия

Содержание

Спецкурс читается студентам 2—4 курсов на кафедре «Математические методы прогнозирования» ВМиК МГУ с 2013 года и студентам 6 курса на кафедре «Интеллектуальные системы» ФУПМ МФТИ с 2019 года.

До 2026 года курс назывался «Вероятностные тематические модели».

Вероятностные языковые модели (Probabilistic Language Model) выявляют закономерности в строении текста, чтобы предсказывать появление каждого следующего слова. Чем лучше модель понимает строение языка, тем точнее предсказания слов, тем более она полезна в задачах анализа текстов, информационного поиска (IR, Information Retrieval), обработки естественного языка (NLP, Natural Language Processing), понимания естественного языка (NLU, Natural Language Understanding).

Наиболее подробно в курсе изучается вероятностное тематическое моделирование (Probabilistic Topic Modeling) коллекций текстовых документов. Тематическая модель определяет, какие темы содержатся в большой текстовой коллекции, и к каким темам относится каждый документ. Тематические модели позволяют искать тексты по смыслу, а не по ключевым словам, создавать системы семантического разведочного поиска (Exploratory Search), инструменты для цифровых гуманитарных исследований (Digital Humanities). Рассматриваются тематические модели для классификации, категоризации, сегментации, суммаризации текстов естественного языка, а также для рекомендательных систем, анализа банковских транзакционных данных, анализа биомедицинских сигналов. Развивается многокритериальный подход к построению моделей с заданными свойствами — аддитивная регуляризация тематических моделей (ARTM). Он основан на регуляризации некорректно поставленных задач стохастического матричного разложения. Особое внимание уделяется методам лингвистической регуляризации для моделирования связности текста. Предполагается проведение студентами численных экспериментов на модельных и реальных данных с помощью библиотеки тематического моделирования BigARTM.

От студентов требуются знания курсов линейной алгебры, математического анализа, теории вероятностей. Желательно знание курсов математической статистики, методов оптимизации, машинного обучения, языка программирования Python.

Краткая ссылка на эту страницу: bit.ly/2EGWcjA.

Основной материал:

Программа курса

Оптимизация и регуляризация языковых моделей

Презентация: (PDF, 3,4 МБ) — обновление 02.03.2026.

Задачи языкового моделирования.

Аддитивная регуляризация тематических моделей.

  • Лемма о максимизации на единичных симплексах.
  • Понятие некорректно поставленной задачи по Адамару. Регуляризация.
  • Теорема о необходимом условии максимума регуляризованного правдоподобия для ARTM.
  • EM-алгоритм и его элементарная интерпретация. Формула Байеса и частотные оценки условных вероятностей.
  • Классические тематические модели PLSA и LDA как частные случаи ARTM.

Практика тематического моделирования.

  • Проект с открытым кодом BigARTM.
  • Этапы решения практических задач.
  • Методы предварительной обработки текста.
  • Датасеты и практические задания по курсу.

Языковые модели сочетаемости слов

Презентация: (PDF, 1,4 МБ) — обновление 02.03.2026.

Модели векторных представлений слов.

  • Дистрибутивная гипотеза. Модель SGNS в программе word2vec.
  • Эквивалентная задача матричного разложения.
  • Оценивание качества векторных представлений слов.
  • FastText и другие модели векторных представлений текста.

Тематические модели дистрибутивной семантики.

  • Модель битермов BTM (Biterm Topic Model) для коллекций коротких текстов.
  • Модели WNTM (Word Network Topic Model) и WTM (Word Topic Model).
  • Сравнение WN-ARTM с моделью word2vec.
  • Когерентность как мера интерпретируемости тем. Регуляризаторы когерентности.

Мультиграммные модели и выделение терминов.

  • Контактная близость слов. Критерии выделения коллокаций.
  • Алгоритм TopMine для быстрого поиска частых фраз.
  • Синтаксический разбор. Нейросетевые синтаксические анализаторы SyntaxNet, UDpipe.
  • Критерии тематичности фраз.
  • Комбинирование синтаксической, статистической и тематической фильтрации фраз.

Нейросетевые языковые модели

Презентация: (PDF, 6,8 МБ) — обновление 23.03.2026.

Краткое введение в машинное обучение.

  • Минимизация эмпирического риска. Метод стохастического градиента.
  • Искусственные нейронные сети. Линейная модель нейрона. Многослойный персептрон.
  • Глубокие нейронные сети. Свёрточные сети для анализа изображений.
  • Обучаемая векторизация данных. Автокодировщики.

Нейросетевые модели языка.

  • Модель машинного перевода. Модель внимания QKV. Архитектура трансформера. Кодировщик и декодировщик.
  • Критерии обучения в машинном переводе.
  • Критерий маскированного языкового моделирования для обучения кодировщика. Модель BERT.

Тематические модели локального контекста.

  • Эволюция тематического моделирования.
  • Нейросетевая тематическая модель Contextual-Top2Vec.
  • Постановка задачи контекстного тематического моделирования.

Тематические модели локального контекста

Презентация: (PDF, 3,4 МБ) — обновление 3.04.2026.

Тематические модели «мешка слов».

  • Постановка задачи ARTM.
  • Ускорение сходимости EM-алгоритма.
  • Идея матричной реализации EM-алгоритма.

Тематическая модель локального контекста.

  • Модель быстрой тематизации документа за один линейный проход.
  • Контекстная тематическая модель Attentive ARTM (AARTM). Вывод EM-алгоритма.
  • Быстрое вычисление двунаправленных тематических векторов контекста.
  • Псевдокод EM-алгоритма.

Сравнение тематических моделей с нейросетевыми.

  • Сравнение с моделью само-внимания Query-Key-Value. Аналогия с трансформером.
  • Сравнение со свёрточной сетью GCNN.
  • Сравнение с нейросетевой тематической моделью Contextual-Top2Vec.
  • Сравнение с контекстной документной кластеризацией (CDC).

Конструирование регуляризаторов и устойчивость моделей

Презентация: (PDF, 1,2 МБ) — обновление 30.03.2026. видеозапись

Часто используемые регуляризаторы.

  • Сглаживание и разреживание.
  • Частичное обучение.
  • Декоррелирование тем. Выделение фоновых тем.
  • Разреживание для отбора тем.
  • Расстояния и дивергенции между дискретными распределениями.

Комбинирование регуляризаторов.

  • Траектории регуляризации.
  • Относительные коэффициенты регуляризации.
  • Оценивание качества: перплексия, когерентность, лексическое ядро
  • Эксперименты с комбинированием разреживания, сглаживания, декоррелирования.
  • Эмпирические рекомендации по комбинированию регуляризаторов.

Эксперименты с тематическими моделями.

  • Исследование устойчивости восстановления тем на синтетических данных.
  • Исследование устойчивости на реальных данных.
  • Эксперименты с отбором тем на синтетических и реальных данных.
  • Сравнение с байесовской моделью HDP (Hierarchical Dirichlet Process).
  • Эффект отбрасывания малых, дублирующих и линейно зависимых тем.

Тематический информационный поиск

Презентация: (PDF, 9,4 МБ) — обновление 30.03.2026. видеозапись

Мультимодальные тематические модели.

  • Примеры модальностей.
  • Мультимодальный ARTM и регуляризованный ЕМ-алгоритм.

Иерархические тематические модели.

  • Иерархии тем. Послойное построение иерархии.
  • Регуляризаторы для разделения тем на подтемы.
  • Псевдодокументы родительских тем.
  • Модальность родительских тем.

Эксперименты с тематическим поиском.

  • Методика измерения качества поиска.
  • Тематическая модель для документного поиска.
  • Оптимизация гиперпараметров.

Оценивание качества тематических моделей

Презентация: (PDF, 2,2 МБ) — обновление 12.04.2026. видеозапись

Измерение качества тематических моделей.

  • Правдоподобие и перплексия.
  • Интерпретируемость и когерентность. Внутритекстовая когерентность.
  • Разреженность и различность.

Проверка гипотезы условной независимости.

  • Проверка гипотезы согласия для языковой модели.
  • Статистики на основе KL-дивергенции и их обобщения.
  • Применение статистических тестов условной независимости.

Проблема тематической несбалансированности в данных

  • Проблема малых тем и тем-дубликатов.
  • Тематическая несбалансированность как основная причина плохой интерпретируемости тем.
  • Эксперименты с регуляризаторами отбора тем и декоррелирования.
  • Регуляризатор семантической однородности.
  • Подходы к балансировке тем.

Проект «Тематизатор»

Презентация: (PDF, 8,3 МБ) — обновление 20.04.2026. Видеозапись

Примеры прикладных задач

  • Обзор регуляризаторов ARTM.
  • Поиск этно-релевантных тем в социальных сетях.
  • Анализ программ развития российских вузов.
  • Поиск и рубрикация научных статей на 100 языках.
  • Тематическое моделирование в исторических и политологических исследованиях.
  • Проекты Школы Прикладного Анализа Данных.

Визуализация тематических моделей

  • Визуализация матричного разложения.
  • Динамика, иерархии, взаимосвязи, сегментация.
  • Спектр тем.

Анализ требований к «Тематизатору»

  • Функциональные требования.
  • Требования к интерпретируемости.
  • Основной пользовательский сценарий: загрузка, предобработка, моделирование, визуализация, коррекция.
  • Задача перестроения модели по экспертной разметке тем на релевантные, нерелевантные и мусорные
  • Этапизация работ и MVP Тематизатора.

Программа курса в разработке. Ниже — остаток от программы 2025 года.


Мультимодальные тематические модели

Презентация: (PDF, 1,8 МБ) — обновление 21.10.2025. видеозапись

Мультиязычные тематические модели.

  • Параллельные и сравнимые коллекции.
  • Регуляризаторы для учёта двуязычных словарей.
  • Кросс-язычный информационный поиск.

Трёхматричные модели.

  • Модели трёхматричных разложений. Понятие порождающей модальности.
  • Автор-тематическая модель (author-topic model).
  • Модель для выделения поведений объектов в видеопотоке.

Тематические модели транзакционных данных.

  • Примеры транзакционных данных в рекомендательных системах, социальных и рекламных сетях.
  • Гиперграфовая модель ARTM. Теорема о необходимом условии максимума регуляризованного правдоподобия.
  • Транзакционные данные в рекомендательных системах. Симметризованная гиперграфовая модель ARTM.
  • Гиперграфовые тематические модели языка. Тематическая модель предложений и сегментоидов.
  • Анализ транзакционных данных для выявления паттернов экономического поведения клиентов банка. Видео.
  • Анализ банковских транзакционных данных для выявления видов деятельности компаний.

Тематические модели сочетаемости слов

Презентация: (PDF, 1,5 МБ) — обновление 8.11.2025. видеозапись

Мультиграммные модели и выделение терминов.

  • Алгоритм TopMine для быстрого поиска частых фраз. Критерии выделения коллокаций.
  • Синтаксический разбор. Нейросетевые синтаксические анализаторы SyntaxNet, UDpipe.
  • Критерии тематичности фраз.
  • Комбинирование синтаксической, статистической и тематической фильтрации фраз.

Тематические модели дистрибутивной семантики.

  • Дистрибутивная гипотеза. Модели CBOW и SGNS в программе word2vec.
  • Модель битермов BTM (Biterm Topic Model) для тематизации коллекций коротких текстов.
  • Модели WNTM (Word Network Topic Model) и WTM (Word Topic Model). Связь с моделью word2vec.

Позиционный регуляризатор в ARTM.

  • Гипотеза о сегментной структуре текста.
  • Регуляризация матрицы тематических векторов термов. Формулы М-шага.
  • Теорема о регуляризаторе, эквивалентном произвольной пост-обработке Е-шага.
  • Примеры регуляризаторов Е-шага. Разреживание распределения p(t|d,w). Сглаживание тематики слов по контексту.

Дополнительный материал:

  • Потапенко А. А. Векторные представления слов и документов. DataFest'4. Видео.

Анализ зависимостей

Презентация: (PDF, 2,6 МБ) — обновление 27.11.2025. видеозапись

Зависимости, корреляции, связи.

  • Тематические модели классификации и регрессии.
  • Модель коррелированных тем CTM (Correlated Topic Model).
  • Регуляризаторы гиперссылок и цитирования. Выявление тематических влияний в научных публикациях.

Время и пространство.

  • Регуляризаторы времени.
  • Обнаружение и отслеживание тем.
  • Гео-пространственные модели.

Социальные сети.

  • Сфокусированный поиск в социальных медиа (пример: поиск этно-релевантного контента).
  • Выявление тематических сообществ. Регуляризаторы для направленных и ненаправленных связей.
  • Регуляризаторы для выявления социальных ролей пользователей.

Именование и суммаризация тем

Презентация: (PDF, 4,6 МБ) — обновление 27.11.2025. видеозапись

Методы суммаризации текстов.

  • Задачи автоматической суммаризации текстов. Подходы к суммаризации: extractive и abstractive.
  • Оценивание и отбор предложений для суммаризации. Релаксационный метод для многокритериальной дискретной оптимизации.
  • Тематическая модель предложений для суммаризации.
  • Критерии качества суммаризации. Метрики ROUGE, BLUE.

Автоматическое именование тем (topic labeling).

  • Формирование названий-кандидатов.
  • Релевантность, покрытие, различность.
  • Оценивание качества именования тем.

Задача суммаризации темы

  • Задача ранжирования документов
  • Задача фильтрации репрезентативных релевантных фраз.
  • Задача генерации связного текста

Байесовское обучение модели LDA

Презентация: (PDF, 1,7 МБ) — обновление 7.12.2025. видеозапись

Классические модели PLSA, LDA.

  • Модель PLSA.
  • Модель LDA. Распределение Дирихле и его свойства.
  • Максимизация апостериорной вероятности для модели LDA.

Вариационный байесовский вывод.

Сэмплирование Гиббса.

Замечания о байесовском подходе.

  • Оптимизация гиперпараметров в LDA.
  • Графическая нотация (plate notation). Stop using plate notation.
  • Сравнение байесовского подхода и ARTM.
  • Как читать статьи по байесовским моделям и строить эквивалентные ARTM-модели.


Дополнительные лекции

BigARTM и базовые инструменты

Мурат Апишев. Презентация: (zip, 0,6 МБ) — обновление 17.02.2017. Видеозапись

Предварительная обработка текстов

  • Парсинг «сырых» данных.
  • Токенизация, стемминг и лемматизация.
  • Выделение энграмм.
  • Законы Ципфа и Хипса. Фильтрация словаря коллекции. Удаление стоп-слов.

Библиотека BigARTM

  • Методологические рекоммендации по проведению экспериментов.
  • Установка BigARTM.
  • Формат и импорт входных данных.
  • Обучение простой модели (без регуляризации): создание, инициализация, настройка и оценивание модели.
  • Инструмент визуализации тематических моделей VisARTM. Основные возможности, демонстрация работы.

Дополнительный материал:

  • Презентация: (PDF, 1,5 МБ) — обновление 17.03.2017.
  • Видео — обновление 22.03.2017.
  • Воркшоп по BigARTM на DataFest'4. Видео.

Проект «Мастерская знаний»

Презентация: (PNG, 8,1 МБ) — обновление 3.03.2025.

Проект «Мастерская знаний»

  • Цели, задачи, концепция проекта. Тематические подборки научных текстов.
  • Модель векторизации текста для поиска и рекомендаций научных статей.
  • Основные сервисы «Мастерской знаний».

Место тематического моделирования в «Мастерской знаний»

  • Сервис тематизации подборки.
  • Сервисы выявления научных трендов и построения хронологических карт.
  • Вспомогательные функции в сервисе полуавтоматической суммаризации.

Карты знаний

  • Задачи иерархической суммаризации одной статьи, подборки статей.
  • Принципы построения интеллект-карт и карт знаний.
  • Что такое «тема»? Отличия тематизации и картирования.

Теория ЕМ-алгоритма

Презентация: (PDF, 2,0 МБ) — обновление 25.10.2024. старая видеозапись

Общий EM-алгоритм.

  • EM-алгоритм для максимизации неполного правдоподобия.
  • Регуляризованный EM-алгоритм. Сходимость в слабом смысле.
  • Альтернативный вывод формул ARTM.

Эксперименты с моделями PLSA, LDA.

  • Проблема неустойчивости (на синтетических данных).
  • Проблема неустойчивости (на реальных данных).
  • Проблема переобучения и робастные модели.

Отчетность по курсу

Условием сдачи курса является выполнение индивидуальных практических заданий.

Рекомендуемая структура отчёта об исследовании:

  • Постановка задачи: неформальное описание, ДНК (дано–найти–критерий), структура данных
  • Описание простого решения baseline
  • Описание основного решения и его вариантов
  • Описание набора данных и методики экспериментов
  • Результаты экспериментов по подбору гиперпараметров основного решения
  • Результаты экспериментов по сравнению основного решения с baseline
  • Примеры визуализации модели
  • Выводы: что работает, что не работает, инсайты
  • Ссылка на код

Примеры отчётов:

Литература

  1. Воронцов К. В. Вероятностное тематическое моделирование: Теория регуляризации ARTM и библиотека с открытым кодом BigARTM. Москва, URSS. 2025. ISBN 978-5-9710-9933-8.
  2. Xiaobao Wu, Thong Nguyen, Anh Tuan Luu. A Survey on Neural Topic Models: Methods, Applications, and Challenges. 2023.
  3. Rob Churchill, Lisa Singh. The Evolution of Topic Modeling. 2022.
  4. He Zhao, Dinh Phung, Viet Huynh, Yuan Jin, Lan Du, Wray Buntine. Topic Modelling Meets Deep Neural Networks: A Survey. 2021.
  5. Hamed Jelodar, Yongli Wang, Chi Yuan, Xia Feng. Latent Dirichlet Allocation (LDA) and Topic modeling: models, applications, a survey. 2017.
  6. Hofmann T. Probabilistic latent semantic indexing // Proceedings of the 22nd annual international ACM SIGIR conference on Research and development in information retrieval. — New York, NY, USA: ACM, 1999. — Pp. 50–57.
  7. Blei D. M., Ng A. Y., Jordan M. I. Latent Dirichlet allocation // Journal of Machine Learning Research. — 2003. — Vol. 3. — Pp. 993–1022.
  8. Asuncion A., Welling M., Smyth P., Teh Y. W. On smoothing and inference for topic models // Proceedings of the International Conference on Uncertainty in Artificial Intelligence. — 2009.

Ссылки

Материалы для первого ознакомления:

Обзорная лекция:

Старое:

Подстраницы

Вероятностные тематические модели (курс лекций, К.В.Воронцов)/2015Вероятностные тематические модели (курс лекций, К.В.Воронцов)/2016Вероятностные тематические модели (курс лекций, К.В.Воронцов)/2017
Вероятностные тематические модели (курс лекций, К.В.Воронцов)/2018Вероятностные тематические модели (курс лекций, К.В.Воронцов)/2019, ВМКВероятностные тематические модели (курс лекций, К.В.Воронцов)/2020
Вероятностные тематические модели (курс лекций, К.В.Воронцов)/2021Вероятностные тематические модели (курс лекций, К.В.Воронцов)/2024Вероятностные тематические модели (курс лекций, К.В.Воронцов)/2025
Личные инструменты