Вероятностные тематические модели (курс лекций, К.В.Воронцов)
Материал из MachineLearning.
(теперь и на ФУПМе) |
(осень 2019, МФТИ -- ВЦ РАН) |
||
Строка 23: | Строка 23: | ||
== Введение == | == Введение == | ||
- | Презентация: [[Media: | + | Презентация: [[Media:Voron19mipt-ptm-intro.pdf|(PDF, 1,7 МБ)]] {{важно|— обновление 12.09.2019}}. |
'''Цели и задачи тематического моделирования.''' | '''Цели и задачи тематического моделирования.''' | ||
* Понятие «темы», цели и задачи [[тематическое моделирование|тематического моделирования]]. | * Понятие «темы», цели и задачи [[тематическое моделирование|тематического моделирования]]. | ||
- | * | + | * Вероятностная модель порождения текста. |
* [[EM-алгоритм]] и его элементарная интерпретация. Формула Байеса и частотные оценки условных вероятностей. | * [[EM-алгоритм]] и его элементарная интерпретация. Формула Байеса и частотные оценки условных вероятностей. | ||
* [[Метод наибольшего правдоподобия|Принцип максимума правдоподобия]]. | * [[Метод наибольшего правдоподобия|Принцип максимума правдоподобия]]. | ||
+ | |||
'''Аддитивная регуляризация тематических моделей.''' | '''Аддитивная регуляризация тематических моделей.''' | ||
* Понятие некорректно поставленной задачи по Адамару. Регуляризация. | * Понятие некорректно поставленной задачи по Адамару. Регуляризация. | ||
Строка 35: | Строка 36: | ||
* Классические тематические модели [[Вероятностный латентный семантический анализ|PLSA]] и [[Латентное размещение Дирихле|LDA]] как частные случаи ARTM. | * Классические тематические модели [[Вероятностный латентный семантический анализ|PLSA]] и [[Латентное размещение Дирихле|LDA]] как частные случаи ARTM. | ||
* Мультимодальные тематические модели. | * Мультимодальные тематические модели. | ||
+ | |||
'''Библиотека [[BigARTM]].''' | '''Библиотека [[BigARTM]].''' | ||
* Рациональный ЕМ-алгоритм (встраивание Е-шага внутрь М-шага). | * Рациональный ЕМ-алгоритм (встраивание Е-шага внутрь М-шага). | ||
Строка 41: | Строка 43: | ||
* Проект с открытым кодом BigARTM. | * Проект с открытым кодом BigARTM. | ||
- | == | + | == Регуляризаторы и разведочный информационный поиск == |
- | Презентация: [[Media: | + | Презентация: [[Media:Voron19mipt-ptm-artm.pdf|(PDF, 2,4 МБ)]] {{важно|— обновление 12.09.2019}}. |
- | ''' | + | '''Разведочный информационный поиск.''' |
- | * | + | * Концепция разведочного поиска. |
- | * | + | * Особенности разведочного поиска. |
- | * | + | * Разведочный поиск как рекомендательная система. |
- | + | ||
- | + | '''Регуляризаторы, модальности, иерархии.''' | |
- | + | ||
- | + | ||
- | ''' | + | |
* Сглаживание, разреживание, декоррелирование. | * Сглаживание, разреживание, декоррелирование. | ||
- | * | + | * Модальности. |
- | * | + | * Иерархии тем. Послойное построение иерархии. Псевдодокументы родительских тем. |
+ | |||
+ | '''Эксперименты с тематическим поиском.''' | ||
+ | * Методика измерения качества поиска. | ||
+ | * Тематическая модель для документного поиска. | ||
+ | * Оптимизация гиперпараметров. | ||
== Обзор базовых инструментов == | == Обзор базовых инструментов == | ||
Строка 66: | Строка 70: | ||
* Выделение энграмм. | * Выделение энграмм. | ||
* Законы Ципфа и Хипса. Фильтрация словаря коллекции. Удаление стоп-слов. | * Законы Ципфа и Хипса. Фильтрация словаря коллекции. Удаление стоп-слов. | ||
+ | |||
'''Библиотека BigARTM''' | '''Библиотека BigARTM''' | ||
* Методологические рекоммендации по проведению экспериментов. | * Методологические рекоммендации по проведению экспериментов. | ||
Строка 77: | Строка 82: | ||
* [https://www.youtube.com/watch?v=2LEQuLRxaIY&t=1s '''Видео'''] {{важно|— обновление 22.03.2017}}. | * [https://www.youtube.com/watch?v=2LEQuLRxaIY&t=1s '''Видео'''] {{важно|— обновление 22.03.2017}}. | ||
* Воркшоп по BigARTM на DataFest'4. [https://www.youtube.com/watch?v=oQcHEm2-7PM '''Видео''']. | * Воркшоп по BigARTM на DataFest'4. [https://www.youtube.com/watch?v=oQcHEm2-7PM '''Видео''']. | ||
- | |||
- | |||
- | |||
- | |||
- | |||
- | |||
- | |||
- | |||
- | |||
- | |||
- | |||
- | |||
- | |||
- | |||
- | |||
- | |||
== Модель LDA и ЕМ-алгоритм == | == Модель LDA и ЕМ-алгоритм == | ||
Строка 101: | Строка 90: | ||
* Модель LDA. Максимизация апостериорной вероятности для модели LDA. | * Модель LDA. Максимизация апостериорной вероятности для модели LDA. | ||
* Начала байесовского подхода. Распределение Дирихле и его свойства. Сопряжённость с мультиномиальным распределением. | * Начала байесовского подхода. Распределение Дирихле и его свойства. Сопряжённость с мультиномиальным распределением. | ||
+ | |||
'''Общий EM-алгоритм.''' | '''Общий EM-алгоритм.''' | ||
* EM-алгоритм для максимизации неполного правдоподобия. Сходимость в слабом смысле. | * EM-алгоритм для максимизации неполного правдоподобия. Сходимость в слабом смысле. | ||
* Регуляризованный EM-алгоритм. | * Регуляризованный EM-алгоритм. | ||
* Альтернативный вывод формул ARTM. | * Альтернативный вывод формул ARTM. | ||
+ | |||
'''Эксперименты с PLSA и LDA.''' | '''Эксперименты с PLSA и LDA.''' | ||
* Неустойчивость на синтетических данных. | * Неустойчивость на синтетических данных. | ||
Строка 117: | Строка 108: | ||
* [[Вариационный байесовский вывод]] для модели LDA. | * [[Вариационный байесовский вывод]] для модели LDA. | ||
* VB ЕМ-алгоритм для модели LDA. | * VB ЕМ-алгоритм для модели LDA. | ||
+ | |||
'''Сэмплирование Гиббса.''' | '''Сэмплирование Гиббса.''' | ||
* Основная теорема о сэмплировании Гиббса. | * Основная теорема о сэмплировании Гиббса. | ||
* [[Сэмплирование Гиббса]] для модели LDA. | * [[Сэмплирование Гиббса]] для модели LDA. | ||
* GS ЕМ-алгоритм для модели LDA. | * GS ЕМ-алгоритм для модели LDA. | ||
+ | |||
'''Замечания о байесовском подходе.''' | '''Замечания о байесовском подходе.''' | ||
* Оптимизация гиперпараметров в LDA. | * Оптимизация гиперпараметров в LDA. | ||
Строка 137: | Строка 130: | ||
* Регуляризаторы для учёта двуязычных словарей. | * Регуляризаторы для учёта двуязычных словарей. | ||
* Кросс-язычный информационный поиск. | * Кросс-язычный информационный поиск. | ||
+ | |||
'''Трёхматричные и гиперграфовые модели.''' | '''Трёхматричные и гиперграфовые модели.''' | ||
* Модели трёхматричных разложений. Понятие порождающей модальности. | * Модели трёхматричных разложений. Понятие порождающей модальности. | ||
* Автор-тематическая модель (author-topic model). | * Автор-тематическая модель (author-topic model). | ||
* Модель для выделения поведений объектов в видеопотоке. | * Модель для выделения поведений объектов в видеопотоке. | ||
+ | |||
'''Тематические модели транзакционных данных.''' | '''Тематические модели транзакционных данных.''' | ||
* Примеры транзакционных данных в рекомендательных системах, социальных и рекламных сетях. | * Примеры транзакционных данных в рекомендательных системах, социальных и рекламных сетях. | ||
Строка 154: | Строка 149: | ||
* Модель Topical N-grams (TNG). | * Модель Topical N-grams (TNG). | ||
* Мультимодальная мультиграммная модель. | * Мультимодальная мультиграммная модель. | ||
+ | |||
'''Автоматическое выделение терминов.''' | '''Автоматическое выделение терминов.''' | ||
* Алгоритм TopMine для быстрого поиска частых фраз. Критерии выделения коллокаций. | * Алгоритм TopMine для быстрого поиска частых фраз. Критерии выделения коллокаций. | ||
Строка 159: | Строка 155: | ||
* Критерии тематичности фраз. | * Критерии тематичности фраз. | ||
* Комбинирование синтаксической, статистической и тематической фильтрации фраз. | * Комбинирование синтаксической, статистической и тематической фильтрации фраз. | ||
+ | |||
'''Тематические модели дистрибутивной семантики.''' | '''Тематические модели дистрибутивной семантики.''' | ||
* Дистрибутивная гипотеза. Модели CBOW и SGNS в программе word2vec. | * Дистрибутивная гипотеза. Модели CBOW и SGNS в программе word2vec. | ||
Строка 170: | Строка 167: | ||
* ''Потапенко А. А.'' Векторные представления слов и документов. DataFest'4. [https://www.youtube.com/watch?v=KEXWC-ICH_Y '''Видео''']. | * ''Потапенко А. А.'' Векторные представления слов и документов. DataFest'4. [https://www.youtube.com/watch?v=KEXWC-ICH_Y '''Видео''']. | ||
- | == | + | == Моделирование связного текста == |
Презентация: [[Media:Voron19ptm-segm.pdf|(PDF, 2,4 МБ)]] {{важно|— обновление 25.04.2019}}. | Презентация: [[Media:Voron19ptm-segm.pdf|(PDF, 2,4 МБ)]] {{важно|— обновление 25.04.2019}}. | ||
Строка 177: | Строка 174: | ||
* Контекстная документная кластеризация (CDC). | * Контекстная документная кластеризация (CDC). | ||
* Метод лексических цепочек. | * Метод лексических цепочек. | ||
+ | |||
'''Тематическая сегментация.''' | '''Тематическая сегментация.''' | ||
* Метод TopicTiling. Критерии определения границ сегментов. | * Метод TopicTiling. Критерии определения границ сегментов. | ||
* Критерии качества сегментации. Оптимизация параметров модели TopicTiling. | * Критерии качества сегментации. Оптимизация параметров модели TopicTiling. | ||
+ | |||
'''Позиционный регуляризатор в ARTM.''' | '''Позиционный регуляризатор в ARTM.''' | ||
* Гипотеза о сегментной структуре текста. | * Гипотеза о сегментной структуре текста. | ||
Строка 192: | Строка 191: | ||
* Модель коррелированных тем CTM (Correlated Topic Model). | * Модель коррелированных тем CTM (Correlated Topic Model). | ||
* Регуляризаторы гиперссылок и цитирования. Выявление тематических влияний в научных публикациях. | * Регуляризаторы гиперссылок и цитирования. Выявление тематических влияний в научных публикациях. | ||
+ | |||
'''Время и пространство.''' | '''Время и пространство.''' | ||
* Регуляризаторы времени. | * Регуляризаторы времени. | ||
* Обнаружение и отслеживание тем. | * Обнаружение и отслеживание тем. | ||
* Гео-пространственные модели. | * Гео-пространственные модели. | ||
+ | |||
'''Социальные сети.''' | '''Социальные сети.''' | ||
* Сфокусированный поиск в социальных медиа (пример: поиск этно-релевантного контента). | * Сфокусированный поиск в социальных медиа (пример: поиск этно-релевантного контента). | ||
Строка 205: | Строка 206: | ||
'''Средства визуализации тематических моделей.''' | '''Средства визуализации тематических моделей.''' | ||
+ | * Концепция distant reading и идеи визуализации. | ||
* Визуализация матричного разложения. | * Визуализация матричного разложения. | ||
* Визуализация кластерных структур, динамики, иерархий, сегментации. | * Визуализация кластерных структур, динамики, иерархий, сегментации. | ||
+ | * Спектр тем. | ||
* Проект VisARTM. | * Проект VisARTM. | ||
+ | |||
'''Методы суммаризации текстов.''' | '''Методы суммаризации текстов.''' | ||
* Задачи автоматической суммаризации текстов. Подходы к суммаризации: extractive и abstractive. | * Задачи автоматической суммаризации текстов. Подходы к суммаризации: extractive и abstractive. | ||
Строка 213: | Строка 217: | ||
* Тематическая модель предложений для суммаризации. | * Тематическая модель предложений для суммаризации. | ||
* Критерии качества суммаризации. Метрики ROUGE, BLUE. | * Критерии качества суммаризации. Метрики ROUGE, BLUE. | ||
+ | |||
'''Автоматическое именование тем (topic labeling).''' | '''Автоматическое именование тем (topic labeling).''' | ||
* Формирование названий-кандидатов. | * Формирование названий-кандидатов. | ||
Строка 279: | Строка 284: | ||
<!--------------------------------------------------- | <!--------------------------------------------------- | ||
- | + | '''Внутренние метрики качества модели.''' | |
- | + | * Правдоподобие и перплексия. | |
+ | * Интерпретируемость и когерентность. | ||
+ | * Разреженность и различность. | ||
- | ''' | + | '''Эксперименты с регуляризаторами.''' |
- | * Регуляризатор отбора тем. | + | * Комбинирование регуляризаторов сглаживания, разреживания, декоррелирования. |
+ | * Регуляризатор отбора тем. Существует ли оптимальное число тем? | ||
* Эффект отбрасывания малых, дублирующих и линейно зависимых тем. | * Эффект отбрасывания малых, дублирующих и линейно зависимых тем. | ||
* Сравнение с байесовской моделью HDP (Hierarchical Dirichlet Process). | * Сравнение с байесовской моделью HDP (Hierarchical Dirichlet Process). | ||
+ | * Проблема несбалансированности тем. Семантическая однородность тем. | ||
+ | |||
+ | == Анализ разнородных данных == | ||
+ | Презентация: [[Media:Voron18ptm-misc.pdf|(PDF, 1,6 МБ)]] {{важно|— обновление 03.05.2018}}. | ||
'''Эксперименты по устойчивости.''' | '''Эксперименты по устойчивости.''' | ||
Строка 309: | Строка 321: | ||
* Контекстная документная кластеризация. | * Контекстная документная кластеризация. | ||
* Поиск якорных слов. Алгоритм Ароры. | * Поиск якорных слов. Алгоритм Ароры. | ||
+ | |||
'''Траектория регуляризации.''' | '''Траектория регуляризации.''' | ||
* Задача оптимизации трактории в пространстве коэффициентов регуляризации. | * Задача оптимизации трактории в пространстве коэффициентов регуляризации. | ||
Строка 315: | Строка 328: | ||
* Подходы к скаляризации критериев. | * Подходы к скаляризации критериев. | ||
* Обучение с подкреплением. Контекстный многорукий бандит. Верхние доверительные границы (UCB). | * Обучение с подкреплением. Контекстный многорукий бандит. Верхние доверительные границы (UCB). | ||
+ | |||
'''Тесты адекватности.''' | '''Тесты адекватности.''' | ||
* Статистические тесты условной независимости. Методология проверки статистических гипотез. Критерий согласия хи-квадрат Пирсона. | * Статистические тесты условной независимости. Методология проверки статистических гипотез. Критерий согласия хи-квадрат Пирсона. | ||
Строка 328: | Строка 342: | ||
* Внутренние и внешние критерии качества. | * Внутренние и внешние критерии качества. | ||
* Перплексия и правдоподобие. Интерпретация перплекcии. Перплексия контрольной коллекции. Проблема новых слов в контрольной коллекции. Проблема сравнения моделей с разными словарями. Относительная перплексия. | * Перплексия и правдоподобие. Интерпретация перплекcии. Перплексия контрольной коллекции. Проблема новых слов в контрольной коллекции. Проблема сравнения моделей с разными словарями. Относительная перплексия. | ||
+ | |||
''' Оценивание качества темы.''' | ''' Оценивание качества темы.''' | ||
* Лексическое ядро темы: множество типичных терминов темы. | * Лексическое ядро темы: множество типичных терминов темы. | ||
Строка 335: | Строка 350: | ||
* Конфликтность темы: близость темы к другим темам. | * Конфликтность темы: близость темы к другим темам. | ||
* Интерпретируемость темы: экспертные оценки, метод интрузий, когерентность. Взрыв интерпретируемости в n-граммных моделях. | * Интерпретируемость темы: экспертные оценки, метод интрузий, когерентность. Взрыв интерпретируемости в n-граммных моделях. | ||
+ | |||
'''Устойчивость и полнота.''' | '''Устойчивость и полнота.''' | ||
* Эксперименты по оцениванию устойчивости, интерпретируемости и полноты. | * Эксперименты по оцениванию устойчивости, интерпретируемости и полноты. | ||
* Построение выпуклых оболочек тем и фильтрация зависимых тем в сериях тематических моделей. | * Построение выпуклых оболочек тем и фильтрация зависимых тем в сериях тематических моделей. | ||
+ | |||
'''Критерии качества классификации и ранжирования.''' | '''Критерии качества классификации и ранжирования.''' | ||
* Полнота, точность и F-мера в задачах классификации и ранжирования. | * Полнота, точность и F-мера в задачах классификации и ранжирования. |
Версия 23:00, 11 сентября 2019
Спецкурс читается студентам 2—5 курсов на кафедре «Математические методы прогнозирования» ВМиК МГУ с 2013 года и студентам 4 и 6 курсов на кафедре «Интеллектуальные системы» ФУПМ МФТИ с 2019 года.
В спецкурсе изучается вероятностное тематическое моделирование (topic modeling) коллекций текстовых документов. Тематическая модель определяет, какие темы содержатся в большой текстовой коллекции, и к каким темам относится каждый документ. Тематические модели позволяют искать тексты по смыслу, а не по ключевым словам, и создавать информационно-поисковые системы нового поколения, основанные на парадигме семантического разведочного поиска (exploratory search). Рассматриваются тематические модели для классификации, категоризации, сегментации, суммаризации текстов естественного языка, а также для рекомендательных систем, анализа банковских транзакционных данных, анализа биомедицинских сигналов. В спецкурсе развивается многокритериальный подход к построению моделей с заданными свойствами — аддитивная регуляризация тематических моделей (АРТМ). Он основан на регуляризации некорректно поставленных задач стохастического матричного разложения. Особое внимание уделяется методам лингвистической регуляризации для моделирования связности текста. Предполагается проведение студентами численных экспериментов на модельных и реальных данных с помощью библиотеки тематического моделирования BigARTM.
От студентов требуются знания курсов линейной алгебры, математического анализа, теории вероятностей. Знание математической статистики, методов оптимизации, машинного обучения, языков программирования Python и С++ желательно, но не обязательно.
Краткая ссылка на эту страницу: bit.ly/2EGWcjA.
Материалы для первого ознакомления:
- Тематический анализ больших данных. Краткое популярное введение в BigARTM.
- Разведочный информационный поиск. Видеолекция на ПостНауке.
- Тематическое моделирование. FAQ на ПостНауке, совместно с Корпоративным университетом Сбербанка.
- Тематическое моделирование на пути к разведочному информационному поиску. Лекция на DataFest3, 10 сентября 2016. Видеозапись.
Основной материал:
- Воронцов К. В. Вероятностное тематическое моделирование: обзор моделей и аддитивная регуляризация. — обновление 05.02.2019.
Программа курса
Условием сдачи спецкурса является выполнение индивидуальных практических заданий.
Введение
Презентация: (PDF, 1,7 МБ) — обновление 12.09.2019.
Цели и задачи тематического моделирования.
- Понятие «темы», цели и задачи тематического моделирования.
- Вероятностная модель порождения текста.
- EM-алгоритм и его элементарная интерпретация. Формула Байеса и частотные оценки условных вероятностей.
- Принцип максимума правдоподобия.
Аддитивная регуляризация тематических моделей.
- Понятие некорректно поставленной задачи по Адамару. Регуляризация.
- Теорема о необходимом условии максимума регуляризованного правдоподобия для ARTM. Условия Каруша–Куна–Таккера.
- Классические тематические модели PLSA и LDA как частные случаи ARTM.
- Мультимодальные тематические модели.
Библиотека BigARTM.
- Рациональный ЕМ-алгоритм (встраивание Е-шага внутрь М-шага).
- Оффлайновый регуляризованный EM-алгоритм.
- Онлайновый регуляризованный EM-алгоритм. Распараллеливание.
- Проект с открытым кодом BigARTM.
Регуляризаторы и разведочный информационный поиск
Презентация: (PDF, 2,4 МБ) — обновление 12.09.2019.
Разведочный информационный поиск.
- Концепция разведочного поиска.
- Особенности разведочного поиска.
- Разведочный поиск как рекомендательная система.
Регуляризаторы, модальности, иерархии.
- Сглаживание, разреживание, декоррелирование.
- Модальности.
- Иерархии тем. Послойное построение иерархии. Псевдодокументы родительских тем.
Эксперименты с тематическим поиском.
- Методика измерения качества поиска.
- Тематическая модель для документного поиска.
- Оптимизация гиперпараметров.
Обзор базовых инструментов
Александр Романенко, Мурат Апишев. Презентация: (zip, 0,6 МБ) — обновление 17.02.2017.
Предварительная обработка текстов
- Парсинг "сырых" данных.
- Токенизация, стемминг и лемматизация.
- Выделение энграмм.
- Законы Ципфа и Хипса. Фильтрация словаря коллекции. Удаление стоп-слов.
Библиотека BigARTM
- Методологические рекоммендации по проведению экспериментов.
- Установка BigARTM.
- Формат и импорт входных данных.
- Обучение простой модели (без регуляризации): создание, инициализация, настройка и оценивание модели.
- Инструмент визуализации тематических моделей VisARTM. Основные возможности, демонстрация работы.
Дополнительный материал:
- Презентация: (PDF, 1,5 МБ) — обновление 17.03.2017.
- Видео — обновление 22.03.2017.
- Воркшоп по BigARTM на DataFest'4. Видео.
Модель LDA и ЕМ-алгоритм
Презентация: (PDF, 1,5 МБ) — обновление 21.03.2019.
Классические модели PLSA, LDA.
- Модель PLSA.
- Модель LDA. Максимизация апостериорной вероятности для модели LDA.
- Начала байесовского подхода. Распределение Дирихле и его свойства. Сопряжённость с мультиномиальным распределением.
Общий EM-алгоритм.
- EM-алгоритм для максимизации неполного правдоподобия. Сходимость в слабом смысле.
- Регуляризованный EM-алгоритм.
- Альтернативный вывод формул ARTM.
Эксперименты с PLSA и LDA.
- Неустойчивость на синтетических данных.
- Неустойчивость на реальных данных.
- Переобучение и робастность.
Байесовское обучение тематических моделей
Презентация: (PDF, 1,5 МБ) — обновление 21.03.2019.
Вариационный байесовский вывод.
- Основная теорема вариационного байесовского вывода.
- Вариационный байесовский вывод для модели LDA.
- VB ЕМ-алгоритм для модели LDA.
Сэмплирование Гиббса.
- Основная теорема о сэмплировании Гиббса.
- Сэмплирование Гиббса для модели LDA.
- GS ЕМ-алгоритм для модели LDA.
Замечания о байесовском подходе.
- Оптимизация гиперпараметров в LDA.
- Графическая нотация (plate notation). Stop using plate notation.
- Сравнение байесовского подхода и ARTM.
- Как читать статьи по баейсовским моделям и строить эквивалентные ARTM-модели.
Дополнительный материал:
- Потапенко А. А. Байесовское обучение тематических моделей. 2016.
Мультимодальные тематические модели
Презентация: (PDF, 1,4 МБ) — обновление 28.03.2019.
Мультиязычные тематические модели.
- Параллельные и сравнимые коллекции.
- Регуляризаторы для учёта двуязычных словарей.
- Кросс-язычный информационный поиск.
Трёхматричные и гиперграфовые модели.
- Модели трёхматричных разложений. Понятие порождающей модальности.
- Автор-тематическая модель (author-topic model).
- Модель для выделения поведений объектов в видеопотоке.
Тематические модели транзакционных данных.
- Примеры транзакционных данных в рекомендательных системах, социальных и рекламных сетях.
- Гиперграфовая модель ARTM. Теорема о необходимом условии максимума регуляризованного правдоподобия.
- Анализ транзакционных данных для выявления паттернов экономического поведения клиентов банка. Видео.
- Анализ банковских транзакционных данных для выявления видов деятельности компаний.
Тематические модели совстречаемости слов
Презентация: (PDF, 1,9 МБ) — обновление 13.04.2019.
Мультиграммные модели.
- Модель BigramTM.
- Модель Topical N-grams (TNG).
- Мультимодальная мультиграммная модель.
Автоматическое выделение терминов.
- Алгоритм TopMine для быстрого поиска частых фраз. Критерии выделения коллокаций.
- Синтаксический разбор. Нейросетевой синтаксический анализатор SyntaxNet.
- Критерии тематичности фраз.
- Комбинирование синтаксической, статистической и тематической фильтрации фраз.
Тематические модели дистрибутивной семантики.
- Дистрибутивная гипотеза. Модели CBOW и SGNS в программе word2vec.
- Модель битермов BTM (Biterm Topic Model) для тематизации коллекций коротких текстов.
- Модели WNTM (Word Network Topic Model) и WTM (Word Topic Model). Связь с моделью word2vec.
- Понятие когерентности (согласованности). Экспериментально установленная связь когерентности и интерпретируемости.
- Регуляризаторы когерентности.
Дополнительный материал:
- Потапенко А. А. Векторные представления слов и документов. DataFest'4. Видео.
Моделирование связного текста
Презентация: (PDF, 2,4 МБ) — обновление 25.04.2019.
Модели связного текста.
- Тематическая модель предложений и модель коротких сообщений Twitter-LDA.
- Контекстная документная кластеризация (CDC).
- Метод лексических цепочек.
Тематическая сегментация.
- Метод TopicTiling. Критерии определения границ сегментов.
- Критерии качества сегментации. Оптимизация параметров модели TopicTiling.
Позиционный регуляризатор в ARTM.
- Гипотеза о сегментной структуре текста.
- Регуляризация и пост-обработка Е-шага. Формулы М-шага.
- Примеры регуляризаторов Е-шага. Разреживание распределения p(t|d,w). Сглаживание тематики слов по контексту.
Анализ зависимостей
Презентация: (PDF, 1,9 МБ) — обновление 25.04.2019.
Зависимости, корреляции, связи.
- Тематические модели классификации и регрессии.
- Модель коррелированных тем CTM (Correlated Topic Model).
- Регуляризаторы гиперссылок и цитирования. Выявление тематических влияний в научных публикациях.
Время и пространство.
- Регуляризаторы времени.
- Обнаружение и отслеживание тем.
- Гео-пространственные модели.
Социальные сети.
- Сфокусированный поиск в социальных медиа (пример: поиск этно-релевантного контента).
- Выявление тематических сообществ. Регуляризаторы для направленных и ненаправленных связей.
- Регуляризаторы для выявления социальных ролей пользователей.
Визуализация и суммаризация тем
Презентация: (PDF, 6,2 МБ) — обновление 25.04.2019.
Средства визуализации тематических моделей.
- Концепция distant reading и идеи визуализации.
- Визуализация матричного разложения.
- Визуализация кластерных структур, динамики, иерархий, сегментации.
- Спектр тем.
- Проект VisARTM.
Методы суммаризации текстов.
- Задачи автоматической суммаризации текстов. Подходы к суммаризации: extractive и abstractive.
- Оценивание и отбор предложений для суммаризации. Релаксационный метод для многокритериальной дискретной оптимизации.
- Тематическая модель предложений для суммаризации.
- Критерии качества суммаризации. Метрики ROUGE, BLUE.
Автоматическое именование тем (topic labeling).
- Формирование названий-кандидатов.
- Релевантность, покрытие, различность.
- Оценивание качества именования тем.
Отчетность по курсу
Рекомендуемая структура отчёта об исследовании по индивидуальному заданию:
- Постановка задачи: неформальное описание, ДНК (дано–найти–критерий), структура данных
- Описание простого решения baseline
- Описание основного решения и его вариантов
- Описание набора данных и методики экспериментов
- Результаты экспериментов по подбору гиперпараметров основного решения
- Результаты экспериментов по сравнению основного решения с baseline
- Примеры визуализации модели
- Выводы: что работает, что не работает, инсайты
- Ссылка на код
Примеры отчётов:
Литература
- Воронцов К. В. Обзор вероятностных тематических моделей. 2019.
- Hamed Jelodar, Yongli Wang, Chi Yuan, Xia Feng. Latent Dirichlet Allocation (LDA) and Topic modeling: models, applications, a survey. 2017.
- Hofmann T. Probabilistic latent semantic indexing // Proceedings of the 22nd annual international ACM SIGIR conference on Research and development in information retrieval. — New York, NY, USA: ACM, 1999. — Pp. 50–57.
- Blei D. M., Ng A. Y., Jordan M. I. Latent Dirichlet allocation // Journal of Machine Learning Research. — 2003. — Vol. 3. — Pp. 993–1022.
- Asuncion A., Welling M., Smyth P., Teh Y. W. On smoothing and inference for topic models // Proceedings of the International Conference on Uncertainty in Artificial Intelligence. — 2009.
- Янина А. О., Воронцов К. В. Мультимодальные тематические модели для разведочного поиска в коллективном блоге // Машинное обучение и анализ данных. 2016. T.2. №2. С.173-186.
Ссылки
- Тематическое моделирование
- Аддитивная регуляризация тематических моделей
- Коллекции документов для тематического моделирования
- BigARTM
- Видеозапись лекции на ТМШ, 19 июня 2015
- Воронцов К.В. Практическое задание по тематическому моделированию, 2014.
Подстраницы
Вероятностные тематические модели (курс лекций, К.В.Воронцов)/2015 | Вероятностные тематические модели (курс лекций, К.В.Воронцов)/2016 | Вероятностные тематические модели (курс лекций, К.В.Воронцов)/2017 |
Вероятностные тематические модели (курс лекций, К.В.Воронцов)/2018 | Вероятностные тематические модели (курс лекций, К.В.Воронцов)/2019, ВМК | Вероятностные тематические модели (курс лекций, К.В.Воронцов)/2020 |
Вероятностные тематические модели (курс лекций, К.В.Воронцов)/2021 |