Статистический кластерный анализ (регулярный семинар)
Материал из MachineLearning.
(→Заседания) |
(→Заседания) |
||
(3 промежуточные версии не показаны) | |||
Строка 81: | Строка 81: | ||
=== 31 марта 2016 г. === | === 31 марта 2016 г. === | ||
- | '''Юрий Янович " | + | '''Юрий Янович "Асимптотический анализ непараметрических оценок на многообразиях"''' |
Данные высокой размерности часто лежат на или вблизи (нелинейного) многообразия низкой размерности (manifold hypothesis). Это наблюдение позволило формализовать постановку задачи снижения размерности (dimension reduction) и нашло широкое развитие в области оценивания многообразий (manifold learning). Доклад посвящен непараметрическому статистическому оцениванию на многообразиях. В дополнение к традиционным в статистике состоятельности, асимптотическому распределению и вероятности больших уклонений, автором доказана равномерная сходимость оценок и равномерная сходимость решений выборочных оптимизационных задач к своим непрерывным интегральным аналогам. | Данные высокой размерности часто лежат на или вблизи (нелинейного) многообразия низкой размерности (manifold hypothesis). Это наблюдение позволило формализовать постановку задачи снижения размерности (dimension reduction) и нашло широкое развитие в области оценивания многообразий (manifold learning). Доклад посвящен непараметрическому статистическому оцениванию на многообразиях. В дополнение к традиционным в статистике состоятельности, асимптотическому распределению и вероятности больших уклонений, автором доказана равномерная сходимость оценок и равномерная сходимость решений выборочных оптимизационных задач к своим непрерывным интегральным аналогам. | ||
Строка 96: | Строка 96: | ||
'''Кирилл Кузнецов "Различные подходы к решению задачи Разреженного метода главных компонент"''' | '''Кирилл Кузнецов "Различные подходы к решению задачи Разреженного метода главных компонент"''' | ||
+ | |||
+ | ([[Media:Kuznetsov_SparsePCA.pdf|Презентация]]) | ||
В данном докладе слушателям напомнят о методе главных компонент (PCA). Далее слушатели познакомятся с разреженным методом главных компонент (Sparse PCA) и узнают про его связь с обычным методом главных компонент. Будут представлены различные методы решения задачи Sparse PCA, их сравнение. В заключении будут озвучены новые подходы к решению задачи Sparse PCA. | В данном докладе слушателям напомнят о методе главных компонент (PCA). Далее слушатели познакомятся с разреженным методом главных компонент (Sparse PCA) и узнают про его связь с обычным методом главных компонент. Будут представлены различные методы решения задачи Sparse PCA, их сравнение. В заключении будут озвучены новые подходы к решению задачи Sparse PCA. | ||
+ | === 12 мая 2016 г. === | ||
+ | |||
+ | '''Лада Токмакова "Provably Learning Mixtures of Gaussians and More"''' | ||
+ | |||
+ | ([[Media:Tokmakova_mixtures.pdf|Презентация]]) | ||
+ | |||
+ | Как можно оценить параметры вероятностной модели, порождающей данные? Это один из фундаментальных вопросов машинного обученения. Наиболее распространенной задачей является оценка параметров смеси гауссиан. В ходе доклада будет сформулирована задача изучения смеси гауссиан, будут приведены подходы изучения с помощью проекции данных на подпространства меньших размерностей, описаны спектральные методы, также будут рассказаны недавние результаты и техники, способные изучать произвольные смеси. | ||
+ | |||
+ | === 19 мая 2016 г. === | ||
+ | |||
+ | '''Антон Вотинов "Algorithms on ordinal data"''' | ||
+ | |||
+ | ([[Media:prezi2.pdf|Презентация]]) | ||
+ | |||
+ | Ординальные данные являются самым естественным типом данных, используемых человеком. «Объект А ближе к объекту B, чем объект C», «Объект А является выбросом в тройке (A,B,C)» и тд. Тем не менее, существует мало алгоритмов, работающих с таким типом данных. В рамках доклада будет рассказано о разных видах ординальных данных, алгоритмах и проблемах, связанных с этими алгоритмами. | ||
[[Категория:Учебные курсы]] | [[Категория:Учебные курсы]] |
Текущая версия
Описание семинара
Задача кластеризации известна всем, кто имел дело с машинным обучением, и имеет бесчисленное множество практических применений. Кроме того, известно, что задача кластеризации может быть сформулирована разными способами, то есть не имеет чёткой общепринятой постановки. В рамках данного семинара изучаются статистические подходы к задаче кластеризации. Отдельное внимание в работе уделяется кластеризации графов. Целью работы группы является построение алгоритмов кластеризации и кластеризации графов, которые обладают практической эффективностью, и при это допускают теоретический анализ.
Время заседаний
Регулярный семинар, проводится в ИППИ РАН по средам в 18-30, ауд. 615.
Научные руководители семинара
М.Е. Панов, С. Довгаль, В. Г. Спокойный
Организатор семинара
Совместный учебно-научный семинар магистерской программы Математические методы оптимизации и стохастики Факультета Компьютерных наук НИУ ВШЭ, Института проблем передачи информации РАН и Лаборатории ПреМоЛаб МФТИ. Куратор семинара М.Е. Панов
Заседания
13 октября 2015 г.
Игорь Силин "Минимаксное оценивание в Stochastic Block Models"
В докладе будет рассмотрена популярная вероятностная модель Stochastic Block Model, используемая для доказательств свойств алгоритмов community detection. Будет получена минимаксная оценка риска для квадратичной функции потерь. Для этого сначала будет предъявлен метод, достигающий необходимой скорости сходимости, а затем будет доказано, что его нельзя улучшить. Для доказательства нижней оценки используется классический инструмент - неравенство Фано.
28 октября 2015 г.
1. Игорь Силин — продолжение рассказа
2. Обсуждение тем курсовых работы для студентов программы ММОС.
11 ноября 2015 г.
Константин Славнов "Методы выделения сообществ в применении к анализу социальных сетей"
Обзорный доклад, который посвящен теме социальных графов и обзору способов выделения сообществ на основе функционала модулярности. Будут рассмотрены некоторые свойства модулярности, 7 алгоритмов выделения структуры сообществ (Betweenness, Fastgreedy, Multilevel, LabelPropogation, Walktrap, Infomap, Eigenvector), а также рассказаны собственные результаты по способам композиции различных методов выделения сообществ.
Презентация, Текст работы «Анализ социальных графов»
18 ноября 2015 г.
Сергей Довгаль "Кластеризация с адаптивными весами"
На докладе мы расскажем об алгоритме AWC (Adaptive Weights Clustering). Мы посмотрим, какие геометрические подзадачи возникают при задаче кластеризации и опишем основные свойства этого алгоритма. Алгоритм исследуется для метрической кластеризации, но его можно применять для произвольных графов, на которых задана матрица расстояний.
2 декабря 2015 г.
Максим Панов "Введение в спектральные методы кластеризации" (Презентация)
В рамках доклада мы расскажем об алгоритме спектральной кластеризации (Spectral clustering). Данный алгоритм прост в реализации и часто превосходит другие традиционные алгоритмы кластеризации. Цель доклада состоит в том, чтобы дать аудитории интуитивное понимание математических идей, лежащих в основе алгоритма. Будут рассмотрены различные виды лапласианов графа и их основные свойства, а также представлены наиболее популярные варианты алгоритма спектральной кластеризации.
9 декабря 2015 г.
Лада Токмакова "Стабильность кластеризации: обзор"
Современные методы определения количества кластеров выбирают такое оптимальное число разбиений, при котором кластеризация является наиболее стабильной. В ходе доклада будет определен термин стабильности кластеризации, также будет рассказано о некоторых теоретических достижениях для алгоритмов K-means: the idealized K-means algorithm (когда целевая функция сходится к глобальному минимуму) и the actual K-means algorithm (когда целевая функция сходится к локальному минимуму).
Антон Вотинов "Графы ближайших соседей: алгоритмы оценки размерности и плотности"
Графы ближайших соседей часто встречаются в различных приложениях. Несмотря на то, что в таких графах содержится только информация об относительно расположении точек, существует возможность заглянуть глубже. В ходе доклада будут рассмотрены два алгоритма: алгоритм оценки размерности исходного пространства, из которого граф был порождён; оценка распределения наблюдений, на основе которых был построен граф.
18 февраля 2016 г.
Константин Славнов "Выделение пересекающихся сообществ. Метод BigClam, его связь с AGM-моделью и NMF"
В докладе пойдет речь про современный эффективный метод выделения пересекающихся сообществ на графах BigClam (Cluster Affiliation Model for Big Networks). Его связь с дискретной моделью AGM (Community-Affiliation Graph Model). Будет затронута тема неотрицательного матричного разложения (NMF) и показано как задача выделения пересекающихся сообществ может быть рассмотрена как вариант NMF-задачи.
3 марта 2016 г.
Сергей Довгаль "Sum-Product Algorithm and Affinity Propagation"
В рамках доклада планируется рассказать про алгоритм кластеризации графов Affinity Propagation, а также про истоки этого алгоритма: Factor Graphs и алгоритм Sum-Product, или его модификации типа Max-Product. Оказывается, что многие известные идеи можно свести к этому алгоритму: например, быстрое преобразование Фурье. Кроме того, с помощью графов можно моделировать линейные коды, он позволяет решать рекурренты типа Калмана, а также обобщает известный Forward-Backward алгоритм Витерби для марковский цепей. Если останется время, я постараюсь рассказать про то, откуда вытекают формулы для обновления в Affinity Propagation, и почему они являются оптимизационными итерациями для свободной энергии Бете.
10 марта 2016 г.
Сергей Довгаль - продолжение рассказа.
31 марта 2016 г.
Юрий Янович "Асимптотический анализ непараметрических оценок на многообразиях"
Данные высокой размерности часто лежат на или вблизи (нелинейного) многообразия низкой размерности (manifold hypothesis). Это наблюдение позволило формализовать постановку задачи снижения размерности (dimension reduction) и нашло широкое развитие в области оценивания многообразий (manifold learning). Доклад посвящен непараметрическому статистическому оцениванию на многообразиях. В дополнение к традиционным в статистике состоятельности, асимптотическому распределению и вероятности больших уклонений, автором доказана равномерная сходимость оценок и равномерная сходимость решений выборочных оптимизационных задач к своим непрерывным интегральным аналогам.
7 апреля 2016 г.
Айдар Ризванов "Introduction to Matrix Completion via Semi-supervised Clustering"
В рамках доклада планируется рассказать об основах задачи восстановления матриц с использованием алгоритмов Semi-supervised clustering. Суть их работы заключается не только в обработке исходных параметров описываемых переменных, но и в работе с информацией о попарных принадлежностях переменных к одному кластеру. Цель доклада состоит в формировании у аудитории понимания проблемы и некоторых способах её эффективного решения. Также планируется проиллюстрировать работу алгоритмов на примерах платформ Netflix и Tumblr.
21 апреля 2016 г.
Кирилл Кузнецов "Различные подходы к решению задачи Разреженного метода главных компонент"
В данном докладе слушателям напомнят о методе главных компонент (PCA). Далее слушатели познакомятся с разреженным методом главных компонент (Sparse PCA) и узнают про его связь с обычным методом главных компонент. Будут представлены различные методы решения задачи Sparse PCA, их сравнение. В заключении будут озвучены новые подходы к решению задачи Sparse PCA.
12 мая 2016 г.
Лада Токмакова "Provably Learning Mixtures of Gaussians and More"
Как можно оценить параметры вероятностной модели, порождающей данные? Это один из фундаментальных вопросов машинного обученения. Наиболее распространенной задачей является оценка параметров смеси гауссиан. В ходе доклада будет сформулирована задача изучения смеси гауссиан, будут приведены подходы изучения с помощью проекции данных на подпространства меньших размерностей, описаны спектральные методы, также будут рассказаны недавние результаты и техники, способные изучать произвольные смеси.
19 мая 2016 г.
Антон Вотинов "Algorithms on ordinal data"
Ординальные данные являются самым естественным типом данных, используемых человеком. «Объект А ближе к объекту B, чем объект C», «Объект А является выбросом в тройке (A,B,C)» и тд. Тем не менее, существует мало алгоритмов, работающих с таким типом данных. В рамках доклада будет рассказано о разных видах ординальных данных, алгоритмах и проблемах, связанных с этими алгоритмами.
Литература
Кластеризация на графах
1. Stochastic block models and graphon estimation
[1] Chao Gao, Yu Lu, Harrison H. Zhou "Rate-optimal Graphon Estimation"
[2] Olga Klopp, Alexandre B. Tsybakov, Nicolas Verzelen "Oracle inequalities for network models and sparse graphon estimation"
2. Кластеризация графов на основе модулярности
[3] Santo Fortunato "Community detection in graphs"
[4] Twan van Laarhoven, Elena Marchiori "Axioms for graph clustering quality functions"
[5] Yunpeng Zhao, Elizaveta Levina, Ji Zhu "Consistency of community detection in networks under degree-corrected stochastic block models"
3. Графы ближайших соседей и их кластеризация
[6] Ulrike von Luxburg, Morteza Alamgir "Density estimation from unweighted k-nearest neighbor graphs: a roadmap"
[7] Matthaus Kleindessner, Ulrike von "Luxburg Dimensionality estimation without distances"
4. Обнаружение пересекающихся сообществ в больших сетях: алгоритм BigCLAM и его обобщения
[8] Jaewon Yang, Jure Leskovec "Overlapping Community Detection at Scale: A Nonnegative Matrix Factorization Approach"
5. Spectral clustering
[9] Ulrike von Luxburg "A Tutorial on Spectral Clustering"
[10] Donghui Yan, Ling Huang, Michael I. Jordan "Fast Approximate Spectral Clustering"
Метрическая кластеризация
1. Задача одномерной оценки плотности
[11] Alexandre B. Tsybakov "Introduction to Nonparametric Estimation"
[12] Luc Devroye "A note on the usefulness of superkernels in density estimation"
2. Задача одномерной кластеризации
[13] Kristian Sabo, Rudolf Scitovski, Ivan Vazler "One-dimensional center-based l_1-clustering method"
[14] Andrew Ng "The EM algorithm"
3. Задача многомерной кластеризации и оценки плотности
[15] Alessandro Rinaldo and Larry Wasserman "Generalized Density Clustering
[16] Ingo Steinwart "Fully adaptive density-based clustering"
[17] Alexandre B. Tsybakov "Introduction to Nonparametric Estimation"
4. Стабильность кластеризации
[18] Ulrike von Luxburg "Clustering Stability: An Overview"