Графические модели (курс лекций)/2018
Материал из MachineLearning.
(→Расписание занятий) |
(→Расписание занятий) |
||
(1 промежуточная версия не показана) | |||
Строка 40: | Строка 40: | ||
!Дата !! № занятия !! Занятие !! Материалы | !Дата !! № занятия !! Занятие !! Материалы | ||
|- | |- | ||
- | | 9 февраля 2018 || align="center"|1 || Графические модели: байесовские и марковские сети, примеры применения, алгоритм Belief Propagation (BP) для вывода в ациклических графических моделях || | + | | 9 февраля 2018 || align="center"|1 || Графические модели: байесовские и марковские сети, примеры применения, алгоритм Belief Propagation (BP) для вывода в ациклических графических моделях || [[Media:GM13_1.pdf|Презентация 1]], [[Media:GM_applied_tasks.pdf|Презентация 2]]<br> [[Media:SMAIS-2011-BP.pdf|Конспект]] |
|- | |- | ||
| 16 февраля 2018 || align="center"|2 || Помехоустойчивое кодирование, теорема Шеннона, линейные коды, коды с малой плотностью проверок на чётность || | | 16 февраля 2018 || align="center"|2 || Помехоустойчивое кодирование, теорема Шеннона, линейные коды, коды с малой плотностью проверок на чётность || | ||
|- | |- | ||
- | | 2 марта 2018 || align="center"|3 || Скрытые марковские модели и линейные динамические системы. Фильтр Калмана. || | + | | 2 марта 2018 || align="center"|3 || Скрытые марковские модели и линейные динамические системы. Фильтр Калмана. || [[Media:GM12_3.pdf|Презентация 1]], [[Media:GM13_em_hmm_unsupervised.pdf|Презентация 2]]<br> [[Media:LDS.pdf|Конспект по ЛДС]] |
|- | |- | ||
- | | | + | | 23 марта 2018 || align="center"|4 || Алгоритмы на основе разрезов графов, <tex>\alpha</tex>-расширение, алгоритм Tree-ReWeighted Message Passing (TRW) для вывода в циклических графических моделях || [[Media:Lecture6.pdf| Презентация]], [[Media:GM_graphCuts.pdf|Конспект по разрезам графов]], [[Media:TRW.pdf| Конспект по TRW]] |
|- | |- | ||
- | | | + | | 30 марта 2018 || align="center"|5 || Вариационная передача сообщений, подход Expectation Propagation для приближённого вывода в графических моделях, модель TrueSkill || [[Media:Yangel_MP.pdf|Методы вывода как алгоритмы передачи сообщений]]<br> [[Media:Chistyakov_ep_trueskill.pdf|Презентация по TrueSkill]] |
|- | |- | ||
- | + | | 6 апреля 2018 || align="center"|6 || Структурное обучение, совместное обучение граф. моделей и нейросетей || [https://arxiv.org/pdf/1412.5903.pdf Статья 1], [https://arxiv.org/pdf/1511.05121.pdf Статья 2]<br> [https://www.youtube.com/watch?v=YRaozftpAXY Видео-лекция] | |
- | + | ||
- | | 6 апреля 2018 || align="center"| | + | |
|- | |- | ||
|} | |} |
Текущая версия
Курс посвящен математическим методам обработки информации, основанных на использовании внутренних взаимосвязей в данных и их последующем анализе. Эти методы широко используются при решении задач из разных прикладных областей, включая обработку изображений и видео, анализ социальных сетей, помехоустойчивое кодирование, распознавание речи, машинное обучение.
Целью курса является освоение математического аппарата для работы с графическими моделями. Предполагается, что в результате прохождения курса студенты обретут навыки самостоятельного построения графических моделей для решения задач из различных прикладных областей; будут способны решать задачи настройки параметров графических моделей по данным, определять подходящую структуру графической модели, выбирать методы, наиболее эффективные для работы с построенной моделью; получат опыт применения графических моделей для различных задач анализа изображений, сигналов, сетей.
Лектор: Д.А. Кропотов,
Ассистент: Тимур Гарипов.
По всем вопросам, связанным с курсом, просьба писать на bayesml@gmail.com, в название письма обязательно добавлять [ВМК ГМ18].
Новости
27.04.18: Консультация к экзамену состоится 28 апреля в ауд. 713, начало в 12-15.
27.04.18: Внимание! Все практические задания по курсу должны быть сданы до 28 апреля включительно. Задания, сданные после этого времени, до экзамена проверены не будут!
16.03.18: Внимание! Сегодня занятия по курсу отменяются.
Экзамен
Экзамен по курсу состоится 30 апреля в ауд. 523, начало в 11-00.
Вопросы к экзамену + теоретический минимум
Практические задания
Приём заданий по курсу осуществляется в системе anytask.org. Инвайт: CAicCUv
Система выставления оценок по курсу
- В рамках курса предполагается два практических задания и экзамен. Каждое задание оценивается из 5-ти баллов.
- Итоговый балл за курс вычисляется по формуле 0.25*<Оценка_за_задание_1> + 0.25*<Оценка_за_задание_2> + 0.5*<Оценка_за_экзамен> с округлением в большую сторону.
- Для оценок «отлично» и «хорошо» необходимо сдать на положительный балл оба практических задания и экзамен. Для получения оценки «удовлетворительно» необходимо сдать одно практическое задание и экзамен.
- Штраф за просрочку сдачи заданий начисляется из расчета 0.1 балла в день, но суммарно не более 3 баллов.
Расписание занятий
В 2018 году курс читается на факультете ВМиК МГУ по пятницам в ауд. 607, начало в 10-30 (лекция) и 12-15 (семинар).
Дата | № занятия | Занятие | Материалы |
---|---|---|---|
9 февраля 2018 | 1 | Графические модели: байесовские и марковские сети, примеры применения, алгоритм Belief Propagation (BP) для вывода в ациклических графических моделях | Презентация 1, Презентация 2 Конспект |
16 февраля 2018 | 2 | Помехоустойчивое кодирование, теорема Шеннона, линейные коды, коды с малой плотностью проверок на чётность | |
2 марта 2018 | 3 | Скрытые марковские модели и линейные динамические системы. Фильтр Калмана. | Презентация 1, Презентация 2 Конспект по ЛДС |
23 марта 2018 | 4 | Алгоритмы на основе разрезов графов, -расширение, алгоритм Tree-ReWeighted Message Passing (TRW) для вывода в циклических графических моделях | Презентация, Конспект по разрезам графов, Конспект по TRW |
30 марта 2018 | 5 | Вариационная передача сообщений, подход Expectation Propagation для приближённого вывода в графических моделях, модель TrueSkill | Методы вывода как алгоритмы передачи сообщений Презентация по TrueSkill |
6 апреля 2018 | 6 | Структурное обучение, совместное обучение граф. моделей и нейросетей | Статья 1, Статья 2 Видео-лекция |
Литература
- Barber D. Bayesian Reasoning and Machine Learning. Cambridge University Press, 2012.
- Murphy K.P. Machine Learning: A Probabilistic Perspective. The MIT Press, 2012.
- Bishop C.M. Pattern Recognition and Machine Learning. Springer, 2006.
- Mackay D.J.C. Information Theory, Inference, and Learning Algorithms. Cambridge University Press, 2003.
- Wainwright M.J., Jordan M.I. Graphical Models, Exponential Families, and Variational Inference. Foundations and Trends in Machine Learning, NOWPress, 2008.
- Koller D., Friedman N. Probabilistic Graphical Models: Principles and Techniques. The MIT Press, 2009.
Страницы курса прошлых лет
См. также
Курс «Байесовские методы машинного обучения»
Спецсеминар «Байесовские методы машинного обучения»
Математические методы прогнозирования (кафедра ВМиК МГУ)
Онлайн-курс Стэнфордского университета по вероятностным графическим моделям