Графические модели (курс лекций)

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Система выставления оценок по курсу)
(Расписание занятий)
Строка 20: Строка 20:
== Расписание занятий ==
== Расписание занятий ==
-
В 2014 году курс читается на факультете [[ВМиК]] МГУ ...
+
В 2014 году курс читается на факультете [[ВМиК]] МГУ по вторникам в ауд. 510, начало в 14-35 (лекция) и 16-20 (семинар).
{| class="standard"
{| class="standard"
-
!Дата||Занятие||Материалы
+
!Дата !! № занятия !! Занятие !! Материалы
|-
|-
-
|8 февраля 2013 || Лекция 1 «Введение в курс. Байесовские рассуждения.» || rowspan=3|[[Media:GM13_1.pdf|Презентация (pdf)]] по байесовским рассуждениям и графическим моделям
+
| rowspan=2|11 февраля 2014 || rowspan=2 align="center"|1 || Лекция «Введение в курс. Байесовские рассуждения.» || rowspan=3|[[Media:GM13_1.pdf|Презентация (pdf)]] по байесовским рассуждениям и графическим моделям
|-
|-
-
|15 февраля 2013 || Семинар 1 «Правила работы с вероятностями, байесовские рассуждения.»
+
|Семинар «Правила работы с вероятностями, байесовские рассуждения»
|-
|-
-
|15 февраля 2013 || Лекция 2 «Графические модели: байесовские и марковские сети»
+
| rowspan=2|18 февраля 2014 || rowspan=2 align="center"|2 || Лекция «Графические модели: байесовские и марковские сети»
|-
|-
-
|22 февраля 2013 || Семинар 2 «Фактор-графы, задачи вывода в ГМ, решение практических задач с помощью ГМ» || [[Media:GM_applied_tasks.pdf|Презентация (pdf)]]
+
|Семинар «Фактор-графы, задачи вывода в ГМ, решение практических задач с помощью ГМ» || [[Media:GM_applied_tasks.pdf|Презентация по практическим задачам (pdf)]]
|-
|-
-
|22 февраля 2013 || Лекция 3 «Алгоритм Belief Propagation (BP) для вывода в ациклических графических моделях. Алгоритм Loopy BP.» || [[Media:SMAIS-2011-BP.pdf|Конспект по алгоритмам передачи сообщений (pdf)]]
+
| rowspan=2|25 февраля 2014 || rowspan=2 align="center"|3 || Лекция «Алгоритм Belief Propagation (BP) для вывода в ациклических графических моделях. Алгоритм Loopy BP» || [[Media:SMAIS-2011-BP.pdf|Конспект по алгоритмам передачи сообщений (pdf)]]
|-
|-
-
|1 марта 2013 || Семинар 3 «Алгоритмы передачи сообщений. Коды с малой плотностью проверок на чётность (LDPC-коды)» || [http://ru.wikipedia.org/wiki/LDPC LDPC-коды] в Википедии
+
|Семинар «Алгоритмы передачи сообщений» ||
|-
|-
-
|1 марта 2013 || Лекция 4 «Скрытые марковские модели. Алгоритм сегментации сигнала, обучение с учителем.» || [[Media:GM12_3.pdf|Презентация (pdf)]]
+
| rowspan=2|4 марта 2014 || rowspan=2 align="center"|4 || Лекция «Помехоустойчивое кодирование, теорема Шеннона, линейные коды, коды с малой плотностью проверок на чётность» || [http://ru.wikipedia.org/wiki/LDPC LDPC-коды] в Википедии
|-
|-
-
|15 марта 2013 || Семинар 4 «Скрытые марковские модели» ||
+
|Семинар «Вывод формул для алгоритма декодирования в LDPC-кодах, выдача задания по кодированию» ||
|-
|-
-
|15 марта 2013 || Лекция 5 «ЕМ-алгоритм. Обучение скрытых марковских моделей без учителя.» || [[Media:GM13_em_hmm_unsupervised.pdf|Презентация (pdf)]]
+
| rowspan=2|11 марта 2014 || rowspan=2 align="center"|5 || Лекция «Скрытые марковские модели. Алгоритм сегментации сигнала, обучение с учителем» || [[Media:GM12_3.pdf|Презентация (pdf)]]
|-
|-
-
|22 марта 2013 || Семинар 5 «Матричные вычисления» || [[Media:Matrix-Gauss.pdf|Конспект по матричным вычислениям и нормальному распределению (pdf)]]
+
|Семинар «Скрытые марковские модели» ||
|-
|-
-
|22 марта 2013 || Лекция 6 «Линейные динамические системы. Фильтр Калмана. Расширенный фильтр Калмана.» || [[Media:LDS.pdf|Конспект по ЛДС (pdf)]]
+
| rowspan=2|18 марта 2014 || rowspan=2 align="center"|6 || Лекция «ЕМ-алгоритм. Обучение скрытых марковских моделей без учителя.» || [[Media:GM13_em_hmm_unsupervised.pdf|Презентация (pdf)]]
|-
|-
-
|29 марта 2013 || Семинар 6 «Контрольная по матричным вычислениям. ЕМ-алгоритм» ||
+
|Семинар «Матричные вычисления» || [[Media:Matrix-Gauss.pdf|Конспект по матричным вычислениям и нормальному распределению (pdf)]]
|-
|-
-
|29&nbsp;марта&nbsp;2013 || Лекция 7 «Алгоритмы на основе разрезов графов, <tex>\alpha</tex>-расширение.» || [[Media:Lecture6.pdf| Презентация (pdf)]], [[Media:GM_graphCuts.pdf‎|Конспект по разрезам графов (pdf)]]
+
| rowspan=2|25&nbsp;марта&nbsp;2014 || rowspan=2 align="center"|7 || Лекция «Линейные динамические системы. Фильтр Калмана. Расширенный фильтр Калмана.» || [[Media:LDS.pdf|Конспект по ЛДС (pdf)]]
|-
|-
-
|5&nbsp;апреля&nbsp;2013 || Семинар 7 «Алгоритмы разрезов графов» ||
+
|Семинар «Контрольная по матричным вычислениям. ЕМ-алгоритм» ||
|-
|-
-
|5&nbsp;апреля&nbsp;2013 || Лекция 8 «Алгоритм Tree-ReWeighted Message Passing (TRW) для вывода в циклических графических моделях»
+
| rowspan=2|1&nbsp;апреля&nbsp;2014 || rowspan=2 align="center"|8 || Лекция «Алгоритмы на основе разрезов графов, <tex>\alpha</tex>-расширение.»
-
|| [[Media:TRW.pdf| Конспект по TRW (pdf)]]
+
|| [[Media:Lecture6.pdf| Презентация (pdf)]], [[Media:GM_graphCuts.pdf‎|Конспект по разрезам графов (pdf)]]
|-
|-
-
|12&nbsp;апреля&nbsp;2013 || Семинар 8 «Двойственное разложение» ||
+
| Семинар «Алгоритмы разрезов графов» ||
|-
|-
-
|12&nbsp;апреля&nbsp;2013 || Лекция 9 «Структурный метод опорных векторов (SSVM)» || [[Media:SMAIS11_SSVM.pdf|Конспект по SSVM (pdf)]]
+
| rowspan=2|8&nbsp;апреля&nbsp;2014 || rowspan=2 align="center"|9 || Лекция «Алгоритм Tree-ReWeighted Message Passing (TRW) для вывода в циклических графических моделях» || [[Media:TRW.pdf| Конспект по TRW (pdf)]]
|-
|-
-
|19&nbsp;апреля&nbsp;2013 || Семинар 9 «Разбор практического задания по SSVM» ||
+
|Семинар «Двойственное разложение» ||
|-
|-
-
|19&nbsp;апреля&nbsp;2013 || Лекция 10 «Методы Монте Карло по схеме марковских цепей (MCMC)» || [[Media:MCMC.pdf|Конспект по MCMC (pdf)]]
+
|rowspan=2|15&nbsp;апреля&nbsp;2014 || rowspan=2 align="center"|10 || Лекция «Структурный метод опорных векторов (SSVM)» || [[Media:SMAIS11_SSVM.pdf|Конспект по SSVM (pdf)]]
|-
|-
-
|26&nbsp;апреля&nbsp;2013 || Лекция 11 «Вариационный вывод» || [[Media:Variational_inference.pdf|Конспект по вариационному выводу (pdf)]]
+
|Семинар «Структурный метод опорных векторов» ||
|-
|-
-
|26&nbsp;апреля&nbsp;2013 || Семинар 10 «Методы MCMC и вариационный вывод» ||
+
|rowspan=2|22&nbsp;апреля&nbsp;2014 || rowspan=2 align="center"|11 || Лекция «Методы Монте Карло по схеме марковских цепей (MCMC|| [[Media:MCMC.pdf|Конспект по MCMC (pdf)]]
|-
|-
-
|17&nbsp;мая&nbsp;2013 || Семинар 11 «Контрольная по вариационному выводу» ||
+
|Семинар «Методы MCMC» ||
|-
|-
-
|17&nbsp;мая&nbsp;2013 || Лекция 12 «Байесовский подход для выбора графической модели» ||
+
|rowspan=2|29&nbsp;апреля&nbsp;2014 || rowspan=2 align="center"|12 || Лекция «Вариационный вывод» || [[Media:Variational_inference.pdf|Конспект по вариационному выводу (pdf)]]
 +
|-
 +
|Семинар «Вариационный вывод» ||
 +
|-
 +
|rowspan=2|6&nbsp;мая&nbsp;2014 || rowspan=2 align="center"|13 || Лекция «Вероятностные методы обучения графических моделей, экспоненциальное семейство распределений» ||
 +
|-
 +
|Семинар «Экспоненциальное семейство распределений» ||
 +
|-
 +
|rowspan=2|13&nbsp;мая&nbsp;2014 || rowspan=2 align="center"|14 || Лекция «Байесовский подход для выбора графической модели» ||
 +
|-
 +
|Семинар «Контрольная по вариационному выводу» ||
|-
|-
|}
|}

Версия 14:32, 30 января 2014


Страница курса находится в стадии формирования.


Курс посвящен математическим методам обработки информации, основанных на использовании внутренних взаимосвязей в данных и их последующем анализе. Эти методы широко используются при решении задач из разных прикладных областей, включая обработку изображений и видео, анализ социальных сетей, распознавание речи, машинное обучение. До 2011 года курс читался как спецкурс «Структурные методы анализа изображений и сигналов».

Целью курса является освоение математического аппарата для работы с графическими моделями. Предполагается, что в результате прохождения курса студенты обретут навыки самостоятельного построения графических моделей для решения задач из различных прикладных областей; будут способны решать задачи настройки параметров графических моделей по данным, определять подходящую структуру графической модели, выбирать методы, наиболее эффективные для работы с построенной моделью; получат опыт применения графических моделей для различных задач анализа изображений, сигналов, сетей.

Лектор: Д.П. Ветров,

Семинарист: А.А. Осокин,

Ассистент: Д.А. Кропотов.

Вопросы и комментарии по курсу можно оставлять на вкладке «Обсуждение» к этой странице или направлять письмом по адресу bayesml@gmail.com. При этом в название письма просьба добавлять [ГМ14].

Расписание занятий

В 2014 году курс читается на факультете ВМиК МГУ по вторникам в ауд. 510, начало в 14-35 (лекция) и 16-20 (семинар).

Дата № занятия Занятие Материалы
11 февраля 2014 1 Лекция «Введение в курс. Байесовские рассуждения.» Презентация (pdf) по байесовским рассуждениям и графическим моделям
Семинар «Правила работы с вероятностями, байесовские рассуждения»
18 февраля 2014 2 Лекция «Графические модели: байесовские и марковские сети»
Семинар «Фактор-графы, задачи вывода в ГМ, решение практических задач с помощью ГМ» Презентация по практическим задачам (pdf)
25 февраля 2014 3 Лекция «Алгоритм Belief Propagation (BP) для вывода в ациклических графических моделях. Алгоритм Loopy BP» Конспект по алгоритмам передачи сообщений (pdf)
Семинар «Алгоритмы передачи сообщений»
4 марта 2014 4 Лекция «Помехоустойчивое кодирование, теорема Шеннона, линейные коды, коды с малой плотностью проверок на чётность» LDPC-коды в Википедии
Семинар «Вывод формул для алгоритма декодирования в LDPC-кодах, выдача задания по кодированию»
11 марта 2014 5 Лекция «Скрытые марковские модели. Алгоритм сегментации сигнала, обучение с учителем» Презентация (pdf)
Семинар «Скрытые марковские модели»
18 марта 2014 6 Лекция «ЕМ-алгоритм. Обучение скрытых марковских моделей без учителя.» Презентация (pdf)
Семинар «Матричные вычисления» Конспект по матричным вычислениям и нормальному распределению (pdf)
25 марта 2014 7 Лекция «Линейные динамические системы. Фильтр Калмана. Расширенный фильтр Калмана.» Конспект по ЛДС (pdf)
Семинар «Контрольная по матричным вычислениям. ЕМ-алгоритм»
1 апреля 2014 8 Лекция «Алгоритмы на основе разрезов графов, \alpha-расширение.» Презентация (pdf), Конспект по разрезам графов (pdf)
Семинар «Алгоритмы разрезов графов»
8 апреля 2014 9 Лекция «Алгоритм Tree-ReWeighted Message Passing (TRW) для вывода в циклических графических моделях» Конспект по TRW (pdf)
Семинар «Двойственное разложение»
15 апреля 2014 10 Лекция «Структурный метод опорных векторов (SSVM)» Конспект по SSVM (pdf)
Семинар «Структурный метод опорных векторов»
22 апреля 2014 11 Лекция «Методы Монте Карло по схеме марковских цепей (MCMC)» Конспект по MCMC (pdf)
Семинар «Методы MCMC»
29 апреля 2014 12 Лекция «Вариационный вывод» Конспект по вариационному выводу (pdf)
Семинар «Вариационный вывод»
6 мая 2014 13 Лекция «Вероятностные методы обучения графических моделей, экспоненциальное семейство распределений»
Семинар «Экспоненциальное семейство распределений»
13 мая 2014 14 Лекция «Байесовский подход для выбора графической модели»
Семинар «Контрольная по вариационному выводу»

Практические задания

Задание 1. «Байесовские рассуждения».

Задание 2. «Алгоритм Loopy Belief Propagation для LDPC-кодов».

Задание 3. «Алгоритмы минимизации энергии для задачи стерео».

Задание 4. «Модель Изинга».

Оценки по курсу

№ п/п Студент Практические задания Сумма Экзамен Оценка
№1 №2 №3 №4
1 Алешин Илья
2 Антипов Алексей
3 Арбузова Дарья
4 Горелов Алексей
5 Зиннурова Эльвира (C)
6 Ломов Никита
7 Львов Сергей
8 Найдин Олег
9 Никифоров Андрей
10 Новиков Александр
11 Петров Григорий
12 Подоприхин Дмитрий
13 Рыжков Александр
14 Сокурский Юрий
15 Ульянов Дмитрий
16 Харациди Олег
17 Шабашев Федор
18 Шадриков Андрей

Система выставления оценок по курсу

  1. При наличии несданных заданий максимальная возможная оценка за курс — это «удовлетворительно».
  2. Необходимым условием получения положительной оценки за курс является сдача не менее двух практических заданий и сдача устного экзамена не менее чем на оценку «удовлетворительно».
  3. Итоговая оценка вычисляется по формуле Mark = \frac{Oral*4+HomeWork}{8}, где Oral — оценка за устный экзамен (0, 3, 4, 5), HomeWork — баллы, набранные за практические задания (см. таблицу выше), Mark — итоговая оценка по 5-балльной шкале. Нецелые значения округляются в сторону ближайшего целого, превосходящего дробное значение. Максимальный балл за HomeWork равен 20.
  4. На экзамене студент может отказаться от оценки и пойти на пересдачу, на которой может заново получить Oral.
  5. За каждое несданное задание выставляется минус 10 баллов в баллы по заданиям (допускаются отрицательные значения).
  6. Если на экзамене итоговая оценка оказывается ниже трех, то студент отправляется на пересдачу. При этом оценка Oral, полученная на пересдаче, добавляется к положительной (три и выше) оценке Oral, полученной на основном экзамене и т.д. до тех пор, пока студент не наберет на итоговую оценку «удовлетворительно» (для итоговых оценок выше «удовлетворительно» оценки Oral не суммируются).
  7. Студент может досдать недостающие практические задания в любое время. При этом проверка задания гарантируется только в том случае, если задание сдано не позднее, чем за неделю до основного экзамена или пересдачи.
  8. Штраф за просрочку сдачи заданий начисляется из расчета 0.1 балла в день, но не более 5 баллов.
  9. В случае успешной сдачи всех практических заданий студент получает возможность претендовать на итоговую оценку «хорошо» и «отлично». При этом экзамен на оценку Oral может сдаваться до сдачи всех заданий (оценки Oral в этом случае не суммируются).
  10. Экзамен на оценку Oral сдается либо в срок основного экзамена, либо в срок официальных пересдач.


Литература

  1. Barber D. Bayesian Reasoning and Machine Learning. Cambridge University Press, 2012.
  2. Murphy K.P. Machine Learning: A Probabilistic Perspective. The MIT Press, 2012.
  3. Bishop C.M. Pattern Recognition and Machine Learning. Springer, 2006.
  4. Mackay D.J.C. Information Theory, Inference, and Learning Algorithms. Cambridge University Press, 2003.
  5. Wainwright M.J., Jordan M.I. Graphical Models, Exponential Families, and Variational Inference. Foundations and Trends in Machine Learning, NOWPress, 2008.
  6. Koller D., Friedman N. Probabilistic Graphical Models: Principles and Techniques. The MIT Press, 2009.
  7. Cowell R.G., Dawid A.P., Lauritzen S.L., Spiegelhalter D.J. Probabilistic networks and expert systems. Berlin: Springer, 1999.
  8. Памятка по теории вероятностей

Страницы курса прошлых лет

2013 год

2012 год

2011 год

2009 год

См. также

Курс «Байесовские методы машинного обучения»

Спецсеминар «Байесовские методы машинного обучения»

Математические методы прогнозирования (кафедра ВМиК МГУ)

Онлайн-курс Стэнфордского университета по вероятностным графическим моделям

Личные инструменты