Графические модели (курс лекций)/2018

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Расписание занятий)
 
(3 промежуточные версии не показаны)
Строка 11: Строка 11:
== Новости ==
== Новости ==
 +
'''27.04.18''': Консультация к экзамену состоится 28 апреля в ауд. 713, начало в 12-15.
 +
'''27.04.18''': {{важно|Внимание! Все практические задания по курсу должны быть сданы до 28 апреля включительно. Задания, сданные после этого времени, до экзамена проверены не будут!}}
'''27.04.18''': {{важно|Внимание! Все практические задания по курсу должны быть сданы до 28 апреля включительно. Задания, сданные после этого времени, до экзамена проверены не будут!}}
Строка 38: Строка 40:
!Дата !! № занятия !! Занятие !! Материалы
!Дата !! № занятия !! Занятие !! Материалы
|-
|-
-
| 9 февраля 2018 || align="center"|1 || Графические модели: байесовские и марковские сети, примеры применения, алгоритм Belief Propagation (BP) для вывода в ациклических графических моделях ||
+
| 9&nbsp;февраля&nbsp;2018 || align="center"|1 || Графические модели: байесовские и марковские сети, примеры применения, алгоритм Belief Propagation (BP) для вывода в ациклических графических моделях || [[Media:GM13_1.pdf|Презентация 1]], [[Media:GM_applied_tasks.pdf|Презентация 2]]<br> [[Media:SMAIS-2011-BP.pdf|Конспект]]
|-
|-
| 16&nbsp;февраля&nbsp;2018 || align="center"|2 || Помехоустойчивое кодирование, теорема Шеннона, линейные коды, коды с малой плотностью проверок на чётность ||
| 16&nbsp;февраля&nbsp;2018 || align="center"|2 || Помехоустойчивое кодирование, теорема Шеннона, линейные коды, коды с малой плотностью проверок на чётность ||
|-
|-
-
| 2&nbsp;марта&nbsp;2018 || align="center"|3 || Скрытые марковские модели и линейные динамические системы. Фильтр Калмана. ||
+
| 2&nbsp;марта&nbsp;2018 || align="center"|3 || Скрытые марковские модели и линейные динамические системы. Фильтр Калмана. || [[Media:GM12_3.pdf|Презентация 1]], [[Media:GM13_em_hmm_unsupervised.pdf|Презентация 2]]<br> [[Media:LDS.pdf|Конспект по ЛДС]]
-
|-
+
-
| 16&nbsp;марта&nbsp;2018 || align="center"|4 || Алгоритмы на основе разрезов графов, <tex>\alpha</tex>-расширение ||
+
|-
|-
-
| 23&nbsp;марта&nbsp;2018 || align="center"|5 || Алгоритм Tree-ReWeighted Message Passing (TRW) для вывода в циклических графических моделях ||
+
| 23&nbsp;марта&nbsp;2018 || align="center"|4 || Алгоритмы на основе разрезов графов, <tex>\alpha</tex>-расширение, алгоритм Tree-ReWeighted Message Passing (TRW) для вывода в циклических графических моделях || [[Media:Lecture6.pdf| Презентация]], [[Media:GM_graphCuts.pdf‎|Конспект по разрезам графов]], [[Media:TRW.pdf| Конспект по TRW]]
|-
|-
-
| 30&nbsp;марта&nbsp;2018 || align="center"|6 || Подход Expectation Propagation для приближённого вывода в графических моделях, модель TrueSkill ||
+
| 30&nbsp;марта&nbsp;2018 || align="center"|5 || Вариационная передача сообщений, подход Expectation Propagation для приближённого вывода в графических моделях, модель TrueSkill || [[Media:Yangel_MP.pdf|Методы вывода как алгоритмы передачи сообщений]]<br> [[Media:Chistyakov_ep_trueskill.pdf|Презентация по TrueSkill]]
|-
|-
-
| 6&nbsp;апреля&nbsp;2018 || align="center"|7 || Структурное обучение, структурный метод опорных векторов ||
+
| 6&nbsp;апреля&nbsp;2018 || align="center"|6 || Структурное обучение, совместное обучение граф. моделей и нейросетей || [https://arxiv.org/pdf/1412.5903.pdf Статья 1], [https://arxiv.org/pdf/1511.05121.pdf Статья 2]<br> [https://www.youtube.com/watch?v=YRaozftpAXY Видео-лекция]
|-
|-
|}
|}

Текущая версия

Курс посвящен математическим методам обработки информации, основанных на использовании внутренних взаимосвязей в данных и их последующем анализе. Эти методы широко используются при решении задач из разных прикладных областей, включая обработку изображений и видео, анализ социальных сетей, помехоустойчивое кодирование, распознавание речи, машинное обучение.

Целью курса является освоение математического аппарата для работы с графическими моделями. Предполагается, что в результате прохождения курса студенты обретут навыки самостоятельного построения графических моделей для решения задач из различных прикладных областей; будут способны решать задачи настройки параметров графических моделей по данным, определять подходящую структуру графической модели, выбирать методы, наиболее эффективные для работы с построенной моделью; получат опыт применения графических моделей для различных задач анализа изображений, сигналов, сетей.

Лектор: Д.А. Кропотов,

Ассистент: Тимур Гарипов.

По всем вопросам, связанным с курсом, просьба писать на bayesml@gmail.com, в название письма обязательно добавлять [ВМК ГМ18].

Новости

27.04.18: Консультация к экзамену состоится 28 апреля в ауд. 713, начало в 12-15.

27.04.18: Внимание! Все практические задания по курсу должны быть сданы до 28 апреля включительно. Задания, сданные после этого времени, до экзамена проверены не будут!

16.03.18: Внимание! Сегодня занятия по курсу отменяются.

Экзамен

Экзамен по курсу состоится 30 апреля в ауд. 523, начало в 11-00.

Вопросы к экзамену + теоретический минимум

Практические задания

Приём заданий по курсу осуществляется в системе anytask.org. Инвайт: CAicCUv

Система выставления оценок по курсу

  1. В рамках курса предполагается два практических задания и экзамен. Каждое задание оценивается из 5-ти баллов.
  2. Итоговый балл за курс вычисляется по формуле 0.25*<Оценка_за_задание_1> + 0.25*<Оценка_за_задание_2> + 0.5*<Оценка_за_экзамен> с округлением в большую сторону.
  3. Для оценок «отлично» и «хорошо» необходимо сдать на положительный балл оба практических задания и экзамен. Для получения оценки «удовлетворительно» необходимо сдать одно практическое задание и экзамен.
  4. Штраф за просрочку сдачи заданий начисляется из расчета 0.1 балла в день, но суммарно не более 3 баллов.

Расписание занятий

В 2018 году курс читается на факультете ВМиК МГУ по пятницам в ауд. 607, начало в 10-30 (лекция) и 12-15 (семинар).

Дата № занятия Занятие Материалы
9 февраля 2018 1 Графические модели: байесовские и марковские сети, примеры применения, алгоритм Belief Propagation (BP) для вывода в ациклических графических моделях Презентация 1, Презентация 2
Конспект
16 февраля 2018 2 Помехоустойчивое кодирование, теорема Шеннона, линейные коды, коды с малой плотностью проверок на чётность
2 марта 2018 3 Скрытые марковские модели и линейные динамические системы. Фильтр Калмана. Презентация 1, Презентация 2
Конспект по ЛДС
23 марта 2018 4 Алгоритмы на основе разрезов графов, \alpha-расширение, алгоритм Tree-ReWeighted Message Passing (TRW) для вывода в циклических графических моделях Презентация, Конспект по разрезам графов, Конспект по TRW
30 марта 2018 5 Вариационная передача сообщений, подход Expectation Propagation для приближённого вывода в графических моделях, модель TrueSkill Методы вывода как алгоритмы передачи сообщений
Презентация по TrueSkill
6 апреля 2018 6 Структурное обучение, совместное обучение граф. моделей и нейросетей Статья 1, Статья 2
Видео-лекция

Литература

  1. Barber D. Bayesian Reasoning and Machine Learning. Cambridge University Press, 2012.
  2. Murphy K.P. Machine Learning: A Probabilistic Perspective. The MIT Press, 2012.
  3. Bishop C.M. Pattern Recognition and Machine Learning. Springer, 2006.
  4. Mackay D.J.C. Information Theory, Inference, and Learning Algorithms. Cambridge University Press, 2003.
  5. Wainwright M.J., Jordan M.I. Graphical Models, Exponential Families, and Variational Inference. Foundations and Trends in Machine Learning, NOWPress, 2008.
  6. Koller D., Friedman N. Probabilistic Graphical Models: Principles and Techniques. The MIT Press, 2009.

Страницы курса прошлых лет

2017 год

2016 год

2015 год

2014 год

2013 год

2012 год

2011 год

2009 год

См. также

Курс «Байесовские методы машинного обучения»

Спецсеминар «Байесовские методы машинного обучения»

Математические методы прогнозирования (кафедра ВМиК МГУ)

Онлайн-курс Стэнфордского университета по вероятностным графическим моделям

Личные инструменты