Графические модели (курс лекций)/2016
Материал из MachineLearning.
(Новая: __NOTOC__ {|border = "0" | valign="top"|300px | valign="top"|Курс посвящен математическим методам обработк...) |
(→Расписание занятий) |
||
(11 промежуточных версий не показаны.) | |||
Строка 13: | Строка 13: | ||
По всем вопросам, связанным с курсом, просьба писать на ''bayesml@gmail.com'', в название письма обязательно добавлять [ГМ16]. | По всем вопросам, связанным с курсом, просьба писать на ''bayesml@gmail.com'', в название письма обязательно добавлять [ГМ16]. | ||
+ | |||
+ | '''Таблица с результатами находится [https://docs.google.com/spreadsheets/d/15yzJOZN0oLp4kMPuWmB7XgbEPQDhXZ6wB9lZ7yEnCLw/edit?usp=sharing здесь]'''. | ||
+ | |||
+ | == Экзамен == | ||
+ | |||
+ | Экзамен по курсу состоится 29 апреля в ауд. 579, начало в 12-15. На экзамене при подготовке билета разрешается пользоваться любыми материалами. При непосредственном ответе ничем пользоваться нельзя. | ||
+ | |||
+ | [[Media:GM16_exam_questions.pdf|Вопросы к экзамену + теоретический минимум]] | ||
+ | |||
+ | == Задания == | ||
+ | |||
+ | Домашнее задание 2. [[Media:GM16_hw2.pdf| Двойственные задачи ]]. Срок сдачи — '''24 апреля, 23:59'''. | ||
+ | |||
+ | Практическое задание 2. [[Media:GM16_assignment2.pdf| Алгоритмы минимизации энергии для задачи склеивания панорам]]. Срок сдачи — '''1 апреля, 23:59'''. | ||
+ | |||
+ | Домашнее задание 1. [[Media:GM16_hw1.pdf| Линейные динамические системы]]. Срок сдачи — '''18 марта, 23:59'''. | ||
+ | |||
+ | Практическое задание 1. [[Media:GM16_assignment1.pdf| Алгоритм Loopy Belief Propagation для низкоплотностных кодов]]. Срок сдачи — '''13 марта, 23:59'''. | ||
== Расписание занятий == | == Расписание занятий == | ||
Строка 51: | Строка 69: | ||
| rowspan=2|1 апреля 2016 || rowspan=2 align="center"|8 || Лекция «Структурный метод опорных векторов (SSVM)» || [[Media:SMAIS11_SSVM.pdf|Конспект по SSVM]] | | rowspan=2|1 апреля 2016 || rowspan=2 align="center"|8 || Лекция «Структурный метод опорных векторов (SSVM)» || [[Media:SMAIS11_SSVM.pdf|Конспект по SSVM]] | ||
|- | |- | ||
- | | Семинар | + | | Семинар «Оптимизация для структурного SVM» || [http://www.cs.cornell.edu/people/tj/publications/joachims_etal_09a.pdf Статья по one-slack formulation] |
+ | |- | ||
+ | | rowspan=2|8 апреля 2016 || rowspan=2 align="center"|9 || Лекция «Вариационная передача сообщений» || [[Media:Yangel_MP.pdf|Методы вывода как алгоритмы передачи сообщений]] | ||
+ | |- | ||
+ | | Семинар «Фильтр частиц» || | ||
|- | |- | ||
- | | rowspan=2| | + | | rowspan=2|15 апреля 2016 || rowspan=2 align="center"|10 || Лекция «Подход Expectation Propagation для приближённого вывода в графических моделях» || |
|- | |- | ||
- | | Семинар | + | | Семинар «Модель TrueSkill» || [[Media:Chistyakov_ep_trueskill.pdf|Презентация по TrueSkill]] |
|} | |} | ||
== Система выставления оценок по курсу == | == Система выставления оценок по курсу == | ||
- | В рамках курса предполагается два практических задания. Каждое практическое задание оценивается из 5-ти баллов. | + | В рамках курса предполагается два практических задания и два домашних задания. Каждое практическое задание оценивается из 5-ти баллов, домашнее задание – из 2-х баллов. |
# При наличии несданных заданий максимальная возможная оценка за курс — это «удовлетворительно». | # При наличии несданных заданий максимальная возможная оценка за курс — это «удовлетворительно». | ||
- | # Необходимым условием получения положительной оценки за курс является сдача не менее одного практического задания и сдача устного экзамена не менее чем на оценку «удовлетворительно». | + | # Необходимым условием получения положительной оценки за курс является сдача не менее одного практического задания, не менее одного домашнего задания и сдача устного экзамена не менее чем на оценку «удовлетворительно». |
- | # Итоговый балл за курс вычисляется по формуле Homework+ | + | # Итоговый балл за курс вычисляется по формуле <tex>\frac{5}{14}*Homework+Oral</tex>, где HomeWork — баллы, набранные за задания, а Oral — оценка за устный экзамен (0, 3, 4, 5). Для получения итоговой оценки 5 необходимо набрать 8 итоговых баллов, для оценки 4 — 6 баллов, для оценки 3 — 4 балла. |
# Штраф за просрочку сдачи заданий начисляется из расчета 0.1 балла в день, но не более 3 баллов. | # Штраф за просрочку сдачи заданий начисляется из расчета 0.1 балла в день, но не более 3 баллов. | ||
Строка 135: | Строка 157: | ||
== Литература == | == Литература == | ||
- | # ''Barber D.'' [http://web4.cs.ucl.ac.uk/staff/D.Barber/ | + | # ''Barber D.'' [http://web4.cs.ucl.ac.uk/staff/D.Barber/pmwiki/pmwiki.php?n=Brml.Online Bayesian Reasoning and Machine Learning.] Cambridge University Press, 2012. |
- | # ''Murphy K.P.'' Machine Learning: A Probabilistic Perspective. The MIT Press, 2012. | + | # ''Murphy K.P.'' [http://www.twirpx.com/file/1347295/ Machine Learning: A Probabilistic Perspective.] The MIT Press, 2012. |
- | # ''Bishop C.M.'' [http:// | + | # ''Bishop C.M.'' [http://www.twirpx.com/file/146159/ Pattern Recognition and Machine Learning.] Springer, 2006. |
# ''Mackay D.J.C.'' [http://www.inference.phy.cam.ac.uk/mackay/itila/book.html Information Theory, Inference, and Learning Algorithms.] Cambridge University Press, 2003. | # ''Mackay D.J.C.'' [http://www.inference.phy.cam.ac.uk/mackay/itila/book.html Information Theory, Inference, and Learning Algorithms.] Cambridge University Press, 2003. | ||
# ''Wainwright M.J., Jordan M.I.'' [http://www.eecs.berkeley.edu/~wainwrig/Papers/WaiJor08_FTML.pdf Graphical Models, Exponential Families, and Variational Inference.] Foundations and Trends in Machine Learning, NOWPress, 2008. | # ''Wainwright M.J., Jordan M.I.'' [http://www.eecs.berkeley.edu/~wainwrig/Papers/WaiJor08_FTML.pdf Graphical Models, Exponential Families, and Variational Inference.] Foundations and Trends in Machine Learning, NOWPress, 2008. | ||
# ''Koller D., Friedman N.'' [http://www.twirpx.com/file/804418/ Probabilistic Graphical Models: Principles and Techniques.] The MIT Press, 2009. | # ''Koller D., Friedman N.'' [http://www.twirpx.com/file/804418/ Probabilistic Graphical Models: Principles and Techniques.] The MIT Press, 2009. | ||
- | |||
- | |||
== Страницы курса прошлых лет == | == Страницы курса прошлых лет == |
Текущая версия
Лектор: Д.П. Ветров,
Семинаристы: Д.А. Кропотов, Михаил Хальман.
По всем вопросам, связанным с курсом, просьба писать на bayesml@gmail.com, в название письма обязательно добавлять [ГМ16].
Таблица с результатами находится здесь.
Экзамен
Экзамен по курсу состоится 29 апреля в ауд. 579, начало в 12-15. На экзамене при подготовке билета разрешается пользоваться любыми материалами. При непосредственном ответе ничем пользоваться нельзя.
Вопросы к экзамену + теоретический минимум
Задания
Домашнее задание 2. Двойственные задачи . Срок сдачи — 24 апреля, 23:59.
Практическое задание 2. Алгоритмы минимизации энергии для задачи склеивания панорам. Срок сдачи — 1 апреля, 23:59.
Домашнее задание 1. Линейные динамические системы. Срок сдачи — 18 марта, 23:59.
Практическое задание 1. Алгоритм Loopy Belief Propagation для низкоплотностных кодов. Срок сдачи — 13 марта, 23:59.
Расписание занятий
В 2016 году курс читается на факультете ВМиК МГУ по пятницам в ауд. 579, начало в 14-35 (лекция) и 16-20 (семинар).
Дата | № занятия | Занятие | Материалы |
---|---|---|---|
12 февраля 2016 | 1 | Лекция «Графические модели: байесовские и марковские сети, примеры применения» | Презентация по байесовским рассуждениям и графическим моделям |
Семинар «Фактор-графы, задачи вывода в ГМ, решение практических задач с помощью ГМ» | Презентация по практическим задачам | ||
19 февраля 2016 | 2 | Лекция «Алгоритм Belief Propagation (BP) для вывода в ациклических графических моделях» | Конспект по алгоритмам передачи сообщений |
Семинар «Алгоритмы передачи сообщений» | |||
26 февраля 2016 | 3 | Лекция «Помехоустойчивое кодирование, теорема Шеннона, линейные коды, коды с малой плотностью проверок на чётность» | LDPC-коды в Википедии |
Семинар «Вывод формул для алгоритма декодирования в LDPC-кодах, выдача задания по кодированию» | |||
4 марта 2016 | 4 | Лекция «Скрытые марковские модели. Алгоритм сегментации сигнала, обучение с учителем и без учителя» | Презентация 1, Презентация 2 |
Семинар «Расширения скрытых марковских моделей» | |||
11 марта 2016 | 5 | Лекция «Линейные динамические системы. Фильтр Калмана. Расширенный фильтр Калмана.» | Конспект по ЛДС |
Семинар «Вывод формул фильтра Калмана» | |||
18 марта 2016 | 6 | Лекция «Алгоритмы на основе разрезов графов, -расширение.» | Презентация, конспект по разрезам графов |
Семинар «Алгоритмы разрезов графов» | |||
25 марта 2016 | 7 | Лекция «Алгоритм Tree-ReWeighted Message Passing (TRW) для вывода в циклических графических моделях» | Конспект по TRW |
Семинар «Двойственное разложение» | |||
1 апреля 2016 | 8 | Лекция «Структурный метод опорных векторов (SSVM)» | Конспект по SSVM |
Семинар «Оптимизация для структурного SVM» | Статья по one-slack formulation | ||
8 апреля 2016 | 9 | Лекция «Вариационная передача сообщений» | Методы вывода как алгоритмы передачи сообщений |
Семинар «Фильтр частиц» | |||
15 апреля 2016 | 10 | Лекция «Подход Expectation Propagation для приближённого вывода в графических моделях» | |
Семинар «Модель TrueSkill» | Презентация по TrueSkill |
Система выставления оценок по курсу
В рамках курса предполагается два практических задания и два домашних задания. Каждое практическое задание оценивается из 5-ти баллов, домашнее задание – из 2-х баллов.
- При наличии несданных заданий максимальная возможная оценка за курс — это «удовлетворительно».
- Необходимым условием получения положительной оценки за курс является сдача не менее одного практического задания, не менее одного домашнего задания и сдача устного экзамена не менее чем на оценку «удовлетворительно».
- Итоговый балл за курс вычисляется по формуле , где HomeWork — баллы, набранные за задания, а Oral — оценка за устный экзамен (0, 3, 4, 5). Для получения итоговой оценки 5 необходимо набрать 8 итоговых баллов, для оценки 4 — 6 баллов, для оценки 3 — 4 балла.
- Штраф за просрочку сдачи заданий начисляется из расчета 0.1 балла в день, но не более 3 баллов.
Литература
- Barber D. Bayesian Reasoning and Machine Learning. Cambridge University Press, 2012.
- Murphy K.P. Machine Learning: A Probabilistic Perspective. The MIT Press, 2012.
- Bishop C.M. Pattern Recognition and Machine Learning. Springer, 2006.
- Mackay D.J.C. Information Theory, Inference, and Learning Algorithms. Cambridge University Press, 2003.
- Wainwright M.J., Jordan M.I. Graphical Models, Exponential Families, and Variational Inference. Foundations and Trends in Machine Learning, NOWPress, 2008.
- Koller D., Friedman N. Probabilistic Graphical Models: Principles and Techniques. The MIT Press, 2009.
Страницы курса прошлых лет
См. также
Курс «Байесовские методы машинного обучения»
Спецсеминар «Байесовские методы машинного обучения»
Математические методы прогнозирования (кафедра ВМиК МГУ)
Онлайн-курс Стэнфордского университета по вероятностным графическим моделям