Вероятностные тематические модели (курс лекций, К.В.Воронцов)

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Литература)
 
(20 промежуточных версий не показаны.)
Строка 10: Строка 10:
'''Основной материал:'''
'''Основной материал:'''
-
* ''Воронцов К. В.'' [[Media:voron17survey-artm.pdf|Вероятностное тематическое моделирование: теория регуляризации ARTM и библиотека с открытым кодом BigARTM]]. {{важно|— обновление 19.05.2023}}.
+
* ''Воронцов К. В.'' [[Media:voron17survey-artm.pdf|Вероятностное тематическое моделирование: теория регуляризации ARTM и библиотека с открытым кодом BigARTM]]. {{важно|— обновление 26.06.2023}}.
 +
* [https://www.youtube.com/playlist?list=PLk4h7dmY2eYE_JjvexGUS5MSozoxDFovp Видеозаписи, 2023 осень (МФТИ)].
= Программа курса =
= Программа курса =
== Задача тематического моделирования ==
== Задача тематического моделирования ==
-
Презентация: [[Media:Voron23ptm-intro.pdf|(PDF, 2,8 МБ)]] {{важно|— обновление 14.02.2023}}.
+
Презентация: [[Media:Voron24ptm-intro.pdf|(PDF, 1,4 МБ)]] {{важно|— обновление 19.09.2024}}.
-
[https://youtu.be/sBdFG8Rl-i8?t=159 Видеозапись]
+
[https://youtu.be/DU0AQUNW3YI?list=PLk4h7dmY2eYEnsGW3GIMvIhxPeifcQvQt Видеозапись]
'''Цели и задачи тематического моделирования.'''
'''Цели и задачи тематического моделирования.'''
Строка 29: Строка 30:
* Теорема о необходимом условии максимума регуляризованного правдоподобия для ARTM.
* Теорема о необходимом условии максимума регуляризованного правдоподобия для ARTM.
* Классические тематические модели [[Вероятностный латентный семантический анализ|PLSA]] и [[Латентное размещение Дирихле|LDA]] как частные случаи ARTM.
* Классические тематические модели [[Вероятностный латентный семантический анализ|PLSA]] и [[Латентное размещение Дирихле|LDA]] как частные случаи ARTM.
-
* Мультимодальные тематические модели.
 
'''Практика тематического моделирования.'''
'''Практика тематического моделирования.'''
Строка 37: Строка 37:
* Датасеты и практические задания по курсу.
* Датасеты и практические задания по курсу.
-
== Проект «Тематизатор» ==
+
== Онлайновый ЕМ-алгоритм и аддитивная регуляризация ==
-
Презентация: [[Media:Voron23ptm-project.pdf|(PDF, 6,2 МБ)]] {{важно|— обновление 21.02.2023}}.
+
Презентация: [[Media:Voron24ptm-regular.pdf|(PDF, 1,3 МБ)]] {{важно|— обновление 03.10.2024}}.
 +
[https://youtu.be/mUMfoBlslQE?list=PLk4h7dmY2eYEnsGW3GIMvIhxPeifcQvQt Видеозапись]
-
'''Визуализация тематических моделей'''
+
'''Часто используемые регуляризаторы.'''
-
* Концепция distant reading.
+
* Сглаживание и разреживание.
-
* Карты знаний, иерархии, взаимосвязи, динамика, сегментация.
+
* Частичное обучение.
-
* Спектр тем.
+
* Декоррелирование тем.
-
* Визуализация матричного разложения.
+
* Разреживание для отбора тем.
-
 
+
-
'''Примеры прикладных задач'''
+
-
* Поиск этно-релевантных тем в социальных сетях.
+
-
* Анализ программ развития российских вузов.
+
-
* Поиск и рубрикация научных статей на 100 языках.
+
-
* Проекты Школы Прикладного Анализа Данных.
+
-
 
+
-
'''Анализ требований к «Тематизатору»'''
+
-
* Функциональные требования.
+
-
* Требования к интерпретируемости.
+
-
* Основной пользовательский сценарий: Загрузка, Предобработка, Моделирование, Визуализация, Коррекция.
+
-
* Этапизация работ.
+
-
 
+
-
== Онлайновый ЕМ-алгоритм и регуляризаторы ==
+
-
Презентация: [[Media:Voron23ptm-regular.pdf|(PDF, 1,3 МБ)]] {{важно|— обновление 28.02.2023}}.
+
-
[https://youtu.be/O2IYF2Mg6Cw?t=319 Видеозапись]
+
'''Онлайновый ЕМ-алгоритм.'''
'''Онлайновый ЕМ-алгоритм.'''
* Рациональный ЕМ-алгоритм (встраивание Е-шага внутрь М-шага).
* Рациональный ЕМ-алгоритм (встраивание Е-шага внутрь М-шага).
* Оффлайновый регуляризованный EM-алгоритм.
* Оффлайновый регуляризованный EM-алгоритм.
-
* Онлайновый пакетный мультимодальный регуляризованный EM-алгоритм. Распараллеливание.
+
* Улучшение сходимости несмещёнными оценками.
-
* Как подбирать коэффициенты регуляризации.
+
* Подбор коэффициентов регуляризации.
* Относительные коэффициенты регуляризации.
* Относительные коэффициенты регуляризации.
* Библиотеки BigARTM и TopicNet.
* Библиотеки BigARTM и TopicNet.
-
'''Часто используемые регуляризаторы.'''
+
'''Эксперименты с регуляризацией.'''
-
* Сглаживание и разреживание.
+
* Производительность BigARTM
-
* Частичное обучение.
+
* Оценивание качества: перплексия, когерентность, лексическое ядро
-
* Декоррелирование тем.
+
* Регуляризаторы сглаживания, разреживания, декоррелирования и отбора тем.
 +
* Комбинирование регуляризаторов, эмпирические рекомендации.
-
'''Проблема определения числа тем.'''
+
== Тематический информационный поиск ==
-
* Разреживающий регуляризатор для отбора тем.
+
Презентация: [[Media:Voron24ptm-exp.pdf|(PDF, 4,8 МБ)]] {{важно|— обновление 10.10.2024}}.
-
* Эксперименты на синтетических и реальных данных.
+
[https://youtu.be/2SkbbDYcBUQ?list=PLk4h7dmY2eYEnsGW3GIMvIhxPeifcQvQt Видеозапись]
-
* Сравнение с байесовской моделью HDP (Hierarchical Dirichlet Process).
+
-
* Эффект отбрасывания малых, дублирующих и линейно зависимых тем.
+
-
== Разведочный информационный поиск ==
+
'''Мультимодальные тематические модели.'''
-
Презентация: [[Media:Voron23ptm-exp.pdf|(PDF, 2,5 МБ)]] {{важно|— обновление 14.03.2023}}.
+
* Примеры модальностей.
-
[https://youtu.be/Jb9PbWrolX8?t=26 Видеозапись]
+
* Мультимодальный ARTM и регуляризованный ЕМ-алгоритм.
-
 
+
-
'''Разведочный информационный поиск.'''
+
-
* Концепция разведочного поиска.
+
-
* Особенности разведочного поиска.
+
-
* Поисково-рекомендательная система SciSarch.AI
+
'''Иерархические тематические модели.'''
'''Иерархические тематические модели.'''
Строка 100: Строка 79:
* Тематическая модель для документного поиска.
* Тематическая модель для документного поиска.
* Оптимизация гиперпараметров.
* Оптимизация гиперпараметров.
 +
 +
'''Проект «Мастерская знаний»'''
 +
* Поисково-рекомендательная система SciSearch.ru
 +
* Векторный поиск для формирования тематических подборок
 +
* Требования к тематическим моделям для научного информационного поиска
== Оценивание качества тематических моделей ==
== Оценивание качества тематических моделей ==
-
Презентация: [[Media:Voron23ptm-quality.pdf|(PDF, 1,3 МБ)]] {{важно|— обновление 17.03.2023}}.
+
Презентация: [[Media:Voron24ptm-quality.pdf|(PDF, 1,6 МБ)]] {{важно|— обновление 17.10.2024}}.
-
[https://youtu.be/LxBMUj1iCx8 Видеозапись]
+
[https://youtu.be/OoIetK1pTUA?list=PLk4h7dmY2eYEnsGW3GIMvIhxPeifcQvQt Видеозапись]
'''Измерение качества тематических моделей.'''
'''Измерение качества тематических моделей.'''
Строка 109: Строка 93:
* Интерпретируемость и когерентность. Внутритекстовая когерентность.
* Интерпретируемость и когерентность. Внутритекстовая когерентность.
* Разреженность и различность.
* Разреженность и различность.
-
 
-
'''Эксперименты с регуляризацией.'''
 
-
* Регуляризаторы сглаживания, разреживания, декоррелирования и отбора тем.
 
-
* Комбинирование регуляризаторов, эмпирические рекомендации.
 
-
* Задача планирования экспериментов для подбора гиперпараметров.
 
'''Проверка гипотезы условной независимости.'''
'''Проверка гипотезы условной независимости.'''
Строка 119: Строка 98:
* Регуляризатор семантической однородности.
* Регуляризатор семантической однородности.
* Применение статистических тестов условной независимости.
* Применение статистических тестов условной независимости.
 +
 +
'''Проблема определения числа тем.'''
 +
* Разреживающий регуляризатор для отбора тем.
 +
* Эксперименты на синтетических и реальных данных.
 +
* Сравнение с байесовской моделью HDP (Hierarchical Dirichlet Process).
 +
* Эффект отбрасывания малых, дублирующих и линейно зависимых тем.
 +
 +
'''Проблема тематической несбалансированности в данных'''
 +
* Проблема малых тем и тем-дубликатов
 +
* Тематическая несбалансированность как основная причина неинтерпретируемости тем
 +
* Эксперименты с регуляризаторами отбора тем и декоррелирования
 +
* Регуляризатор семантической однородности
== BigARTM и базовые инструменты ==
== BigARTM и базовые инструменты ==
Строка 144: Строка 135:
== Теория ЕМ-алгоритма ==
== Теория ЕМ-алгоритма ==
-
Презентация: [[Media:Voron23ptm-emlda.pdf|(PDF, 1,3 МБ)]] {{важно|— обновление 17.03.2023}}.
+
Презентация: [[Media:Voron24ptm-emlda.pdf|(PDF, 2,0 МБ)]] {{важно|— обновление 25.10.2024}}.
-
[https://youtu.be/R3QLN0-zlnw Видеозапись]
+
[https://youtu.be/DBF5QAFC1V0?list=PLk4h7dmY2eYEnsGW3GIMvIhxPeifcQvQt Видеозапись]
'''Классические модели PLSA, LDA.'''
'''Классические модели PLSA, LDA.'''
Строка 163: Строка 154:
== Байесовское обучение модели LDA ==
== Байесовское обучение модели LDA ==
-
Презентация: [[Media:Voron23ptm-bayes.pdf|(PDF, 1,5 МБ)]] {{важно|— обновление 22.03.2023}}.
+
Презентация: [[Media:Voron24ptm-bayes.pdf|(PDF, 1,7 МБ)]] {{важно|— обновление 25.10.2024}}.
-
[https://youtu.be/y-05-cbiUsg Видеозапись]
+
[https://youtu.be/ZAtfN0ApQh0?list=PLk4h7dmY2eYEnsGW3GIMvIhxPeifcQvQt&t=20 Видеозапись]
'''Вариационный байесовский вывод.'''
'''Вариационный байесовский вывод.'''
Строка 183: Строка 174:
== Тематические модели сочетаемости слов ==
== Тематические модели сочетаемости слов ==
-
Презентация: [[Media:Voron23ptm-cooc.pdf|(PDF, 1,7 МБ)]] {{важно|— обновление 06.04.2023}}.
+
Презентация: [[Media:Voron24ptm-cooc.pdf|(PDF, 1,7 МБ)]] {{важно|— обновление 07.11.2024}}.
-
[https://youtu.be/Gww_fbcb0SM Видеозапись]
+
[https://youtu.be/zuN5HECqv3I?list=PLk4h7dmY2eYEnsGW3GIMvIhxPeifcQvQt Видеозапись]
'''Мультиграммные модели.'''
'''Мультиграммные модели.'''
Строка 207: Строка 198:
* ''Потапенко А. А.'' Векторные представления слов и документов. DataFest'4. [https://www.youtube.com/watch?v=KEXWC-ICH_Y '''Видео'''].
* ''Потапенко А. А.'' Векторные представления слов и документов. DataFest'4. [https://www.youtube.com/watch?v=KEXWC-ICH_Y '''Видео'''].
-
== Анализ зависимостей ==
+
== Моделирование локального контекста ==
-
Презентация: [[Media:Voron23ptm-rel.pdf|(PDF, 1,7 МБ)]] {{важно|— обновление 11.04.2023}}.
+
Презентация: [[Media:Voron24ptm-local.pdf|(PDF, 1,8 МБ)]] {{важно|— обновление 21.11.2024}}.
-
[https://youtu.be/16CnS99t8Rc Видеозапись]
+
[https://youtu.be/Xe36kQPlbHY?list=PLk4h7dmY2eYEnsGW3GIMvIhxPeifcQvQt Видеозапись]
-
'''Зависимости, корреляции, связи.'''
+
'''Линейная тематизация текста.'''
-
* Тематические модели классификации и регрессии.
+
* Линейная тематизация текста за один проход без матрицы <tex>\Theta</tex>.
-
* Модель коррелированных тем CTM (Correlated Topic Model).
+
* Локализация E-шага.
-
* Регуляризаторы гиперссылок и цитирования. Выявление тематических влияний в научных публикациях.
+
* Двунаправленная тематическая модель контекста.
 +
* Онлайновый EM-алгоритм с однопроходным локализованным E-шагом.
-
'''Время и пространство.'''
+
'''Аналогия с моделью само-внимания (self-attention) и трансформером.'''
-
* Регуляризаторы времени.
+
* Модель внимания Query-Key-Value.
-
* Обнаружение и отслеживание тем.
+
* Трансформер: кодировщик и декодировщик.
-
* Гео-пространственные модели.
+
* Онлайновый EM-алгоритм с многопроходным локализованным E-шагом.
-
'''Социальные сети.'''
+
== Моделирование сегментированного текста ==
-
* Сфокусированный поиск в социальных медиа (пример: поиск этно-релевантного контента).
+
Презентация: [[Media:Voron24ptm-segm.pdf|(PDF,&nbsp;2,1&nbsp;МБ)]] {{важно|— обновление 21.11.2024}}.
-
* Выявление тематических сообществ. Регуляризаторы для направленных и ненаправленных связей.
+
[https://youtu.be/k46UzzMSKt0?list=PLk4h7dmY2eYEnsGW3GIMvIhxPeifcQvQt&t=22 Видеозапись]
-
* Регуляризаторы для выявления социальных ролей пользователей.
+
 
 +
'''Позиционный регуляризатор в ARTM.'''
 +
* Гипотеза о сегментной структуре текста.
 +
* Регуляризация и пост-обработка Е-шага. Формулы М-шага.
 +
* Примеры регуляризаторов Е-шага. Разреживание распределения p(t|d,w). Сглаживание тематики слов по контексту.
 +
 
 +
'''Тематические модели предложений.'''
 +
* Тематическая модель предложений senLDA.
 +
* Модель коротких сообщений Twitter-LDA.
 +
* Сегментоиды. Лексические цепочки.
 +
 
 +
'''Тематическая сегментация текста.'''
 +
* Метод TopicTiling. Критерии определения границ сегментов.
 +
* Критерии качества сегментации.
 +
* Оптимизация параметров модели TopicTiling.
== Мультимодальные тематические модели ==
== Мультимодальные тематические модели ==
-
Презентация: [[Media:Voron23ptm-modal.pdf|(PDF,&nbsp;2,7&nbsp;МБ)]] {{важно|— обновление 25.04.2023}}.
+
Презентация: [[Media:Voron23ptm-modal.pdf|(PDF,&nbsp;2,7&nbsp;МБ)]] {{важно|— обновление 06.12.2023}}.
-
[https://youtu.be/Ux868k__lXA Видеозапись]
+
[https://youtu.be/AfwH0A3NJCQ?list=PLk4h7dmY2eYE_JjvexGUS5MSozoxDFovp Видеозапись]
'''Мультиязычные тематические модели.'''
'''Мультиязычные тематические модели.'''
Строка 244: Строка 250:
* Гиперграфовая модель ARTM. Теорема о необходимом условии максимума регуляризованного правдоподобия.
* Гиперграфовая модель ARTM. Теорема о необходимом условии максимума регуляризованного правдоподобия.
* Транзакционные данные в рекомендательных системах. Симметризованная гиперграфовая модель ARTM.
* Транзакционные данные в рекомендательных системах. Симметризованная гиперграфовая модель ARTM.
-
* Тематическая модель предложений и модель коротких сообщений Twitter-LDA.
 
* Анализ транзакционных данных для выявления паттернов экономического поведения клиентов банка. '''[https://youtu.be/0q5p7xP4cdA?t=15168 Видео]'''.
* Анализ транзакционных данных для выявления паттернов экономического поведения клиентов банка. '''[https://youtu.be/0q5p7xP4cdA?t=15168 Видео]'''.
* Анализ банковских транзакционных данных для выявления видов деятельности компаний.
* Анализ банковских транзакционных данных для выявления видов деятельности компаний.
-
== Моделирование локального контекста ==
+
== Анализ зависимостей ==
-
Презентация: [[Media:Voron23ptm-segm.pdf|(PDF,&nbsp;2,2&nbsp;МБ)]] {{важно|— обновление 25.04.2023}}.
+
Презентация: [[Media:Voron23ptm-rel.pdf|(PDF,&nbsp;1,7&nbsp;МБ)]] {{важно|— обновление 06.12.2023}}.
-
[https://youtu.be/XNCZr7Pyr0k Видеозапись]
+
[https://youtu.be/uKCMr9yK3gw?list=PLk4h7dmY2eYE_JjvexGUS5MSozoxDFovp Видеозапись]
-
'''Тематическая сегментация.'''
+
'''Зависимости, корреляции, связи.'''
-
* Метод TopicTiling. Критерии определения границ сегментов.
+
* Тематические модели классификации и регрессии.
-
* Критерии качества сегментации.
+
* Модель коррелированных тем CTM (Correlated Topic Model).
-
* Оптимизация параметров модели TopicTiling.
+
* Регуляризаторы гиперссылок и цитирования. Выявление тематических влияний в научных публикациях.
-
'''Тематическое моделирование связного текста'''
+
'''Время и пространство.'''
-
* Линейная тематизация текста за один проход без матрицы <tex>\Theta</tex>.
+
* Регуляризаторы времени.
-
* Локализация E-шага. Сравнение с моделью внимания self-attention.
+
* Обнаружение и отслеживание тем.
-
* Двунаправленная тематическая модель контекста.
+
* Гео-пространственные модели.
-
'''Позиционный регуляризатор в ARTM.'''
+
'''Социальные сети.'''
-
* Гипотеза о сегментной структуре текста.
+
* Сфокусированный поиск в социальных медиа (пример: поиск этно-релевантного контента).
-
* Регуляризация и пост-обработка Е-шага. Формулы М-шага.
+
* Выявление тематических сообществ. Регуляризаторы для направленных и ненаправленных связей.
-
* Примеры регуляризаторов Е-шага. Разреживание распределения p(t|d,w). Сглаживание тематики слов по контексту.
+
* Регуляризаторы для выявления социальных ролей пользователей.
== Именование и суммаризация тем ==
== Именование и суммаризация тем ==
-
Презентация: [[Media:Voron23ptm-sum.pdf|(PDF,&nbsp;3,0&nbsp;МБ)]] {{важно|— обновление 02.05.2023}}.
+
Презентация: [[Media:Voron23ptm-sum.pdf|(PDF,&nbsp;4,3&nbsp;МБ)]] {{важно|— обновление 04.05.2024}}.
-
[https://youtu.be/bfAG-ZZDz3Q Видеозапись]
+
[https://youtu.be/nShxhkPbGWY Видеозапись]
'''Методы суммаризации текстов.'''
'''Методы суммаризации текстов.'''
Строка 286: Строка 291:
* Задача фильтрации репрезентативных релевантных фраз.
* Задача фильтрации репрезентативных релевантных фраз.
* Задача генерации связного текста
* Задача генерации связного текста
 +
 +
== Проект «Тематизатор» ==
 +
Презентация: [[Media:Voron23ptm-project.pdf|(PDF,&nbsp;6,2&nbsp;МБ)]] {{важно|— обновление 21.09.2023}}.
 +
[https://youtu.be/LctW1J93lmw?list=PLk4h7dmY2eYE_JjvexGUS5MSozoxDFovp Видеозапись]
 +
 +
'''Визуализация тематических моделей'''
 +
* Концепция distant reading.
 +
* Карты знаний, иерархии, взаимосвязи, динамика, сегментация.
 +
* Спектр тем.
 +
* Визуализация матричного разложения.
 +
 +
'''Примеры прикладных задач'''
 +
* Поиск этно-релевантных тем в социальных сетях.
 +
* Анализ программ развития российских вузов.
 +
* Поиск и рубрикация научных статей на 100 языках.
 +
* Проекты Школы Прикладного Анализа Данных.
 +
 +
'''Анализ требований к «Тематизатору»'''
 +
* Функциональные требования.
 +
* Требования к интерпретируемости.
 +
* Основной пользовательский сценарий: Загрузка, Предобработка, Моделирование, Визуализация, Коррекция.
 +
* Этапизация работ.
=Отчетность по курсу=
=Отчетность по курсу=

Текущая версия

Содержание

Спецкурс читается студентам 2—5 курсов на кафедре «Математические методы прогнозирования» ВМиК МГУ с 2013 года и студентам 6 курса на кафедре «Интеллектуальные системы» ФУПМ МФТИ с 2019 года.

В спецкурсе изучается вероятностное тематическое моделирование (topic modeling) коллекций текстовых документов. Тематическая модель определяет, какие темы содержатся в большой текстовой коллекции, и к каким темам относится каждый документ. Тематические модели позволяют искать тексты по смыслу, а не по ключевым словам, и создавать информационно-поисковые системы нового поколения, основанные на парадигме семантического разведочного поиска (exploratory search). Рассматриваются тематические модели для классификации, категоризации, сегментации, суммаризации текстов естественного языка, а также для рекомендательных систем, анализа банковских транзакционных данных, анализа биомедицинских сигналов. В спецкурсе развивается многокритериальный подход к построению моделей с заданными свойствами — аддитивная регуляризация тематических моделей (АРТМ). Он основан на регуляризации некорректно поставленных задач стохастического матричного разложения. Особое внимание уделяется методам лингвистической регуляризации для моделирования связности текста. Предполагается проведение студентами численных экспериментов на модельных и реальных данных с помощью библиотеки тематического моделирования BigARTM.

От студентов требуются знания курсов линейной алгебры, математического анализа, теории вероятностей. Знание математической статистики, методов оптимизации, машинного обучения, языков программирования Python и С++ желательно, но не обязательно.

Краткая ссылка на эту страницу: bit.ly/2EGWcjA.

Основной материал:

Программа курса

Задача тематического моделирования

Презентация: (PDF, 1,4 МБ) — обновление 19.09.2024. Видеозапись

Цели и задачи тематического моделирования.

Аддитивная регуляризация тематических моделей.

  • Понятие некорректно поставленной задачи по Адамару. Регуляризация.
  • Лемма о максимизации на единичных симплексах. Условия Каруша–Куна–Таккера.
  • Теорема о необходимом условии максимума регуляризованного правдоподобия для ARTM.
  • Классические тематические модели PLSA и LDA как частные случаи ARTM.

Практика тематического моделирования.

  • Проект с открытым кодом BigARTM.
  • Этапы решения практических задач.
  • Методы предварительной обработки текста.
  • Датасеты и практические задания по курсу.

Онлайновый ЕМ-алгоритм и аддитивная регуляризация

Презентация: (PDF, 1,3 МБ) — обновление 03.10.2024. Видеозапись

Часто используемые регуляризаторы.

  • Сглаживание и разреживание.
  • Частичное обучение.
  • Декоррелирование тем.
  • Разреживание для отбора тем.

Онлайновый ЕМ-алгоритм.

  • Рациональный ЕМ-алгоритм (встраивание Е-шага внутрь М-шага).
  • Оффлайновый регуляризованный EM-алгоритм.
  • Улучшение сходимости несмещёнными оценками.
  • Подбор коэффициентов регуляризации.
  • Относительные коэффициенты регуляризации.
  • Библиотеки BigARTM и TopicNet.

Эксперименты с регуляризацией.

  • Производительность BigARTM
  • Оценивание качества: перплексия, когерентность, лексическое ядро
  • Регуляризаторы сглаживания, разреживания, декоррелирования и отбора тем.
  • Комбинирование регуляризаторов, эмпирические рекомендации.

Тематический информационный поиск

Презентация: (PDF, 4,8 МБ) — обновление 10.10.2024. Видеозапись

Мультимодальные тематические модели.

  • Примеры модальностей.
  • Мультимодальный ARTM и регуляризованный ЕМ-алгоритм.

Иерархические тематические модели.

  • Иерархии тем. Послойное построение иерархии.
  • Регуляризаторы для разделения тем на подтемы.
  • Псевдодокументы родительских тем.
  • Модальность родительских тем.

Эксперименты с тематическим поиском.

  • Методика измерения качества поиска.
  • Тематическая модель для документного поиска.
  • Оптимизация гиперпараметров.

Проект «Мастерская знаний»

  • Поисково-рекомендательная система SciSearch.ru
  • Векторный поиск для формирования тематических подборок
  • Требования к тематическим моделям для научного информационного поиска

Оценивание качества тематических моделей

Презентация: (PDF, 1,6 МБ) — обновление 17.10.2024. Видеозапись

Измерение качества тематических моделей.

  • Правдоподобие и перплексия.
  • Интерпретируемость и когерентность. Внутритекстовая когерентность.
  • Разреженность и различность.

Проверка гипотезы условной независимости.

  • Статистики на основе KL-дивергенции и их обобщения.
  • Регуляризатор семантической однородности.
  • Применение статистических тестов условной независимости.

Проблема определения числа тем.

  • Разреживающий регуляризатор для отбора тем.
  • Эксперименты на синтетических и реальных данных.
  • Сравнение с байесовской моделью HDP (Hierarchical Dirichlet Process).
  • Эффект отбрасывания малых, дублирующих и линейно зависимых тем.

Проблема тематической несбалансированности в данных

  • Проблема малых тем и тем-дубликатов
  • Тематическая несбалансированность как основная причина неинтерпретируемости тем
  • Эксперименты с регуляризаторами отбора тем и декоррелирования
  • Регуляризатор семантической однородности

BigARTM и базовые инструменты

Мурат Апишев. Презентация: (zip, 0,6 МБ) — обновление 17.02.2017. Видеозапись

Предварительная обработка текстов

  • Парсинг «сырых» данных.
  • Токенизация, стемминг и лемматизация.
  • Выделение энграмм.
  • Законы Ципфа и Хипса. Фильтрация словаря коллекции. Удаление стоп-слов.

Библиотека BigARTM

  • Методологические рекоммендации по проведению экспериментов.
  • Установка BigARTM.
  • Формат и импорт входных данных.
  • Обучение простой модели (без регуляризации): создание, инициализация, настройка и оценивание модели.
  • Инструмент визуализации тематических моделей VisARTM. Основные возможности, демонстрация работы.

Дополнительный материал:

  • Презентация: (PDF, 1,5 МБ) — обновление 17.03.2017.
  • Видео — обновление 22.03.2017.
  • Воркшоп по BigARTM на DataFest'4. Видео.

Теория ЕМ-алгоритма

Презентация: (PDF, 2,0 МБ) — обновление 25.10.2024. Видеозапись

Классические модели PLSA, LDA.

  • Модель PLSA.
  • Модель LDA. Распределение Дирихле и его свойства.
  • Максимизация апостериорной вероятности для модели LDA.

Общий EM-алгоритм.

  • EM-алгоритм для максимизации неполного правдоподобия.
  • Регуляризованный EM-алгоритм. Сходимость в слабом смысле.
  • Альтернативный вывод формул ARTM.

Эксперименты с моделями PLSA, LDA.

  • Проблема неустойчивости (на синтетических данных).
  • Проблема неустойчивости (на реальных данных).
  • Проблема переобучения и робастные модели.

Байесовское обучение модели LDA

Презентация: (PDF, 1,7 МБ) — обновление 25.10.2024. Видеозапись

Вариационный байесовский вывод.

Сэмплирование Гиббса.

Замечания о байесовском подходе.

  • Оптимизация гиперпараметров в LDA.
  • Графическая нотация (plate notation). Stop using plate notation.
  • Сравнение байесовского подхода и ARTM.
  • Как читать статьи по баейсовским моделям и строить эквивалентные ARTM-модели.

Тематические модели сочетаемости слов

Презентация: (PDF, 1,7 МБ) — обновление 07.11.2024. Видеозапись

Мультиграммные модели.

  • Модель BigramTM.
  • Модель Topical N-grams (TNG).
  • Мультимодальная мультиграммная модель.

Автоматическое выделение терминов.

  • Алгоритм TopMine для быстрого поиска частых фраз. Критерии выделения коллокаций.
  • Синтаксический разбор. Нейросетевые синтаксические анализаторы SyntaxNet, UDpipe.
  • Критерии тематичности фраз.
  • Комбинирование синтаксической, статистической и тематической фильтрации фраз.

Тематические модели дистрибутивной семантики.

  • Дистрибутивная гипотеза. Модели CBOW и SGNS в программе word2vec.
  • Модель битермов BTM (Biterm Topic Model) для тематизации коллекций коротких текстов.
  • Модели WNTM (Word Network Topic Model) и WTM (Word Topic Model). Связь с моделью word2vec.
  • Регуляризаторы когерентности.

Дополнительный материал:

  • Потапенко А. А. Векторные представления слов и документов. DataFest'4. Видео.

Моделирование локального контекста

Презентация: (PDF, 1,8 МБ) — обновление 21.11.2024. Видеозапись

Линейная тематизация текста.

  • Линейная тематизация текста за один проход без матрицы \Theta.
  • Локализация E-шага.
  • Двунаправленная тематическая модель контекста.
  • Онлайновый EM-алгоритм с однопроходным локализованным E-шагом.

Аналогия с моделью само-внимания (self-attention) и трансформером.

  • Модель внимания Query-Key-Value.
  • Трансформер: кодировщик и декодировщик.
  • Онлайновый EM-алгоритм с многопроходным локализованным E-шагом.

Моделирование сегментированного текста

Презентация: (PDF, 2,1 МБ) — обновление 21.11.2024. Видеозапись

Позиционный регуляризатор в ARTM.

  • Гипотеза о сегментной структуре текста.
  • Регуляризация и пост-обработка Е-шага. Формулы М-шага.
  • Примеры регуляризаторов Е-шага. Разреживание распределения p(t|d,w). Сглаживание тематики слов по контексту.

Тематические модели предложений.

  • Тематическая модель предложений senLDA.
  • Модель коротких сообщений Twitter-LDA.
  • Сегментоиды. Лексические цепочки.

Тематическая сегментация текста.

  • Метод TopicTiling. Критерии определения границ сегментов.
  • Критерии качества сегментации.
  • Оптимизация параметров модели TopicTiling.

Мультимодальные тематические модели

Презентация: (PDF, 2,7 МБ) — обновление 06.12.2023. Видеозапись

Мультиязычные тематические модели.

  • Параллельные и сравнимые коллекции.
  • Регуляризаторы для учёта двуязычных словарей.
  • Кросс-язычный информационный поиск.

Трёхматричные модели.

  • Модели трёхматричных разложений. Понятие порождающей модальности.
  • Автор-тематическая модель (author-topic model).
  • Модель для выделения поведений объектов в видеопотоке.

Тематические модели транзакционных данных.

  • Примеры транзакционных данных в рекомендательных системах, социальных и рекламных сетях.
  • Гиперграфовая модель ARTM. Теорема о необходимом условии максимума регуляризованного правдоподобия.
  • Транзакционные данные в рекомендательных системах. Симметризованная гиперграфовая модель ARTM.
  • Анализ транзакционных данных для выявления паттернов экономического поведения клиентов банка. Видео.
  • Анализ банковских транзакционных данных для выявления видов деятельности компаний.

Анализ зависимостей

Презентация: (PDF, 1,7 МБ) — обновление 06.12.2023. Видеозапись

Зависимости, корреляции, связи.

  • Тематические модели классификации и регрессии.
  • Модель коррелированных тем CTM (Correlated Topic Model).
  • Регуляризаторы гиперссылок и цитирования. Выявление тематических влияний в научных публикациях.

Время и пространство.

  • Регуляризаторы времени.
  • Обнаружение и отслеживание тем.
  • Гео-пространственные модели.

Социальные сети.

  • Сфокусированный поиск в социальных медиа (пример: поиск этно-релевантного контента).
  • Выявление тематических сообществ. Регуляризаторы для направленных и ненаправленных связей.
  • Регуляризаторы для выявления социальных ролей пользователей.

Именование и суммаризация тем

Презентация: (PDF, 4,3 МБ) — обновление 04.05.2024. Видеозапись

Методы суммаризации текстов.

  • Задачи автоматической суммаризации текстов. Подходы к суммаризации: extractive и abstractive.
  • Оценивание и отбор предложений для суммаризации. Релаксационный метод для многокритериальной дискретной оптимизации.
  • Тематическая модель предложений для суммаризации.
  • Критерии качества суммаризации. Метрики ROUGE, BLUE.

Автоматическое именование тем (topic labeling).

  • Формирование названий-кандидатов.
  • Релевантность, покрытие, различность.
  • Оценивание качества именования тем.

Задача суммаризации темы

  • Задача ранжирования документов
  • Задача фильтрации репрезентативных релевантных фраз.
  • Задача генерации связного текста

Проект «Тематизатор»

Презентация: (PDF, 6,2 МБ) — обновление 21.09.2023. Видеозапись

Визуализация тематических моделей

  • Концепция distant reading.
  • Карты знаний, иерархии, взаимосвязи, динамика, сегментация.
  • Спектр тем.
  • Визуализация матричного разложения.

Примеры прикладных задач

  • Поиск этно-релевантных тем в социальных сетях.
  • Анализ программ развития российских вузов.
  • Поиск и рубрикация научных статей на 100 языках.
  • Проекты Школы Прикладного Анализа Данных.

Анализ требований к «Тематизатору»

  • Функциональные требования.
  • Требования к интерпретируемости.
  • Основной пользовательский сценарий: Загрузка, Предобработка, Моделирование, Визуализация, Коррекция.
  • Этапизация работ.

Отчетность по курсу

Условием сдачи курса является выполнение индивидуальных практических заданий.

Рекомендуемая структура отчёта об исследовании:

  • Постановка задачи: неформальное описание, ДНК (дано–найти–критерий), структура данных
  • Описание простого решения baseline
  • Описание основного решения и его вариантов
  • Описание набора данных и методики экспериментов
  • Результаты экспериментов по подбору гиперпараметров основного решения
  • Результаты экспериментов по сравнению основного решения с baseline
  • Примеры визуализации модели
  • Выводы: что работает, что не работает, инсайты
  • Ссылка на код

Примеры отчётов:

Литература

  1. Воронцов К. В. Вероятностное тематическое моделирование: теория регуляризации ARTM и библиотека с открытым кодом BigARTM. 2023.
  2. Hamed Jelodar, Yongli Wang, Chi Yuan, Xia Feng. Latent Dirichlet Allocation (LDA) and Topic modeling: models, applications, a survey. 2017.
  3. Hofmann T. Probabilistic latent semantic indexing // Proceedings of the 22nd annual international ACM SIGIR conference on Research and development in information retrieval. — New York, NY, USA: ACM, 1999. — Pp. 50–57.
  4. Blei D. M., Ng A. Y., Jordan M. I. Latent Dirichlet allocation // Journal of Machine Learning Research. — 2003. — Vol. 3. — Pp. 993–1022.
  5. Asuncion A., Welling M., Smyth P., Teh Y. W. On smoothing and inference for topic models // Proceedings of the International Conference on Uncertainty in Artificial Intelligence. — 2009.

Ссылки

Материалы для первого ознакомления:

Подстраницы

Вероятностные тематические модели (курс лекций, К.В.Воронцов)/2015Вероятностные тематические модели (курс лекций, К.В.Воронцов)/2016Вероятностные тематические модели (курс лекций, К.В.Воронцов)/2017
Вероятностные тематические модели (курс лекций, К.В.Воронцов)/2018Вероятностные тематические модели (курс лекций, К.В.Воронцов)/2019, ВМКВероятностные тематические модели (курс лекций, К.В.Воронцов)/2020
Вероятностные тематические модели (курс лекций, К.В.Воронцов)/2021
Личные инструменты