Графические модели (курс лекций)/2017
Материал из MachineLearning.
(Различия между версиями)
(→Расписание занятий) |
|||
Строка 64: | Строка 64: | ||
== Система выставления оценок по курсу == | == Система выставления оценок по курсу == | ||
- | В рамках курса предполагается | + | Будет объявлена позже. |
+ | <!--В рамках курса предполагается несколько практических и домашних заданий. Каждое практическое задание оценивается из 5-ти баллов, домашнее задание – из 2-х баллов. | ||
# При наличии несданных заданий максимальная возможная оценка за курс — это «удовлетворительно». | # При наличии несданных заданий максимальная возможная оценка за курс — это «удовлетворительно». | ||
# Необходимым условием получения положительной оценки за курс является сдача не менее одного практического задания, не менее одного домашнего задания и сдача устного экзамена не менее чем на оценку «удовлетворительно». | # Необходимым условием получения положительной оценки за курс является сдача не менее одного практического задания, не менее одного домашнего задания и сдача устного экзамена не менее чем на оценку «удовлетворительно». | ||
# Итоговый балл за курс вычисляется по формуле <tex>\frac{5}{14}*Homework+Oral</tex>, где HomeWork — баллы, набранные за задания, а Oral — оценка за устный экзамен (0, 3, 4, 5). Для получения итоговой оценки 5 необходимо набрать 8 итоговых баллов, для оценки 4 — 6 баллов, для оценки 3 — 4 балла. | # Итоговый балл за курс вычисляется по формуле <tex>\frac{5}{14}*Homework+Oral</tex>, где HomeWork — баллы, набранные за задания, а Oral — оценка за устный экзамен (0, 3, 4, 5). Для получения итоговой оценки 5 необходимо набрать 8 итоговых баллов, для оценки 4 — 6 баллов, для оценки 3 — 4 балла. | ||
- | # Штраф за просрочку сдачи заданий начисляется из расчета 0.1 балла в день, но не более 3 баллов. | + | # Штраф за просрочку сдачи заданий начисляется из расчета 0.1 балла в день, но не более 3 баллов.--> |
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | --> | + | |
== Литература == | == Литература == |
Версия 19:13, 8 февраля 2017
Лектор: Д.П. Ветров,
Семинаристы: Д.А. Кропотов, Кирилл Струминский.
По всем вопросам, связанным с курсом, просьба писать на bayesml@gmail.com, в название письма обязательно добавлять [ВМК ГМ17].
Практические задания
Приём заданий по курсу осуществляется в системе anytask.org. Для получения инвайта по курсу просьба писать на почту курса.
Расписание занятий
В 2017 году курс читается на факультете ВМиК МГУ по пятницам в ауд. 526б, начало в 14-35 (лекция) и 16-20 (семинар).
Дата | № занятия | Занятие | Материалы |
---|---|---|---|
10 февраля 2017 | 1 | Лекция «Графические модели: байесовские и марковские сети, примеры применения» | Презентация по байесовским рассуждениям и графическим моделям |
Семинар «Фактор-графы, задачи вывода в ГМ, решение практических задач с помощью ГМ» | Презентация по практическим задачам | ||
17 февраля 2017 | 2 | Лекция «Алгоритм Belief Propagation (BP) для вывода в ациклических графических моделях» | Конспект по алгоритмам передачи сообщений |
Семинар «Алгоритмы передачи сообщений» | |||
3 марта 2017 | 3 | Лекция «Помехоустойчивое кодирование, теорема Шеннона, линейные коды, коды с малой плотностью проверок на чётность» | LDPC-коды в Википедии |
Семинар «Вывод формул для алгоритма декодирования в LDPC-кодах, выдача задания по кодированию» | |||
10 марта 2017 | 4 | Лекция «Скрытые марковские модели. Алгоритм сегментации сигнала, обучение с учителем и без учителя» | Презентация 1, Презентация 2 |
Семинар «Расширения скрытых марковских моделей» | |||
17 марта 2017 | 5 | Лекция «Линейные динамические системы. Фильтр Калмана. Расширенный фильтр Калмана.» | Конспект по ЛДС |
Семинар «Вывод формул фильтра Калмана» | |||
24 марта 2017 | 6 | Лекция «Алгоритмы на основе разрезов графов, -расширение.» | Презентация, конспект по разрезам графов |
Семинар «Алгоритмы разрезов графов» | |||
31 марта 2017 | 7 | Лекция «Алгоритм Tree-ReWeighted Message Passing (TRW) для вывода в циклических графических моделях» | Конспект по TRW |
Семинар «Двойственное разложение» | |||
7 апреля 2017 | 8 | Лекция «Вариационная передача сообщений» | Методы вывода как алгоритмы передачи сообщений |
Семинар «Фильтр частиц» | |||
14 апреля 2017 | 9 | Лекция «Подход Expectation Propagation для приближённого вывода в графических моделях» | |
Семинар «Модель TrueSkill» | Презентация по TrueSkill |
Система выставления оценок по курсу
Будет объявлена позже.
Литература
- Barber D. Bayesian Reasoning and Machine Learning. Cambridge University Press, 2012.
- Murphy K.P. Machine Learning: A Probabilistic Perspective. The MIT Press, 2012.
- Bishop C.M. Pattern Recognition and Machine Learning. Springer, 2006.
- Mackay D.J.C. Information Theory, Inference, and Learning Algorithms. Cambridge University Press, 2003.
- Wainwright M.J., Jordan M.I. Graphical Models, Exponential Families, and Variational Inference. Foundations and Trends in Machine Learning, NOWPress, 2008.
- Koller D., Friedman N. Probabilistic Graphical Models: Principles and Techniques. The MIT Press, 2009.
Страницы курса прошлых лет
См. также
Курс «Байесовские методы машинного обучения»
Спецсеминар «Байесовские методы машинного обучения»
Математические методы прогнозирования (кафедра ВМиК МГУ)
Онлайн-курс Стэнфордского университета по вероятностным графическим моделям