Графические модели (курс лекций)/2014
Материал из MachineLearning.
(→Оценки по курсу) |
(шадриков, задание 3) |
||
Строка 145: | Строка 145: | ||
| align="center"|18 || Шабашев Федор || <!--Бонус--> align="center"| || <!--З1--> align="center"| 4.1 || <!--З2--> align="center"|- || <!--З3--> align="center"| -10 || <!--З4--> align="center"| || <!--K1--> align="center"|2 || <!--K2--> align="center"|0 || <!--S--> align="center"| || <!--E--> align="center"| || <!--M--> align="center"| | | align="center"|18 || Шабашев Федор || <!--Бонус--> align="center"| || <!--З1--> align="center"| 4.1 || <!--З2--> align="center"|- || <!--З3--> align="center"| -10 || <!--З4--> align="center"| || <!--K1--> align="center"|2 || <!--K2--> align="center"|0 || <!--S--> align="center"| || <!--E--> align="center"| || <!--M--> align="center"| | ||
|- | |- | ||
- | | align="center"|19 || [[Участник:SdvAnd|Шадриков Андрей]] || <!--Бонус--> align="center"| || <!--З1--> align="center"| 4.2 || <!--З2--> align="center"|- || <!--З3--> align="center"| - | + | | align="center"|19 || [[Участник:SdvAnd|Шадриков Андрей]] || <!--Бонус--> align="center"| || <!--З1--> align="center"| 4.2 || <!--З2--> align="center"|- || <!--З3--> align="center"| -0.5 || <!--З4--> align="center"| 4.9 || <!--K1--> align="center"|2.67 || <!--K2--> align="center"|1 || <!--S--> align="center"| || <!--E--> align="center"| || <!--M--> align="center"| |
|- | |- | ||
| align="center"|20 || Новиков Максим (420) || <!--Бонус--> align="center"| || <!--З1--> align="center"| 3.4 || <!--З2--> align="center"|-10 || <!--З3--> align="center"| -10 || <!--З4--> align="center"| || <!--K1--> align="center"|- || <!--K2--> align="center"|- || <!--S--> align="center"| || <!--E--> align="center"| || <!--M--> align="center"| | | align="center"|20 || Новиков Максим (420) || <!--Бонус--> align="center"| || <!--З1--> align="center"| 3.4 || <!--З2--> align="center"|-10 || <!--З3--> align="center"| -10 || <!--З4--> align="center"| || <!--K1--> align="center"|- || <!--K2--> align="center"|- || <!--S--> align="center"| || <!--E--> align="center"| || <!--M--> align="center"| |
Версия 09:42, 13 июня 2014
Курс посвящен математическим методам обработки информации, основанных на использовании внутренних взаимосвязей в данных и их последующем анализе. Эти методы широко используются при решении задач из разных прикладных областей, включая обработку изображений и видео, анализ социальных сетей, распознавание речи, машинное обучение. До 2011 года курс читался как спецкурс «Структурные методы анализа изображений и сигналов».
Целью курса является освоение математического аппарата для работы с графическими моделями. Предполагается, что в результате прохождения курса студенты обретут навыки самостоятельного построения графических моделей для решения задач из различных прикладных областей; будут способны решать задачи настройки параметров графических моделей по данным, определять подходящую структуру графической модели, выбирать методы, наиболее эффективные для работы с построенной моделью; получат опыт применения графических моделей для различных задач анализа изображений, сигналов, сетей. |
Лектор: Д.П. Ветров,
Семинарист: А.А. Осокин,
Ассистент: Д.А. Кропотов.
Вопросы и комментарии по курсу можно оставлять на вкладке «Обсуждение» к этой странице или направлять письмом по адресу bayesml@gmail.com. При этом в название письма просьба добавлять [ГМ14].
Расписание занятий
В 2014 году курс читается на факультете ВМиК МГУ по вторникам в ауд. 510, начало в 14-35 (лекция) и 16-20 (семинар).
Дата | № занятия | Занятие | Материалы |
---|---|---|---|
11 февраля 2014 | 1 | Лекция «Введение в курс. Байесовские рассуждения.» | Презентация (pdf) по байесовским рассуждениям и графическим моделям |
Семинар «Правила работы с вероятностями, байесовские рассуждения» | |||
18 февраля 2014 | 2 | Лекция «Графические модели: байесовские и марковские сети» | |
Семинар «Фактор-графы, задачи вывода в ГМ, решение практических задач с помощью ГМ» | Презентация по практическим задачам (pdf) | ||
25 февраля 2014 | 3 | Лекция «Алгоритм Belief Propagation (BP) для вывода в ациклических графических моделях. Алгоритм Loopy BP» | Конспект по алгоритмам передачи сообщений (pdf) |
Семинар «Алгоритмы передачи сообщений» | |||
4 марта 2014 | 4 | Лекция «Помехоустойчивое кодирование, теорема Шеннона, линейные коды, коды с малой плотностью проверок на чётность» | LDPC-коды в Википедии |
Семинар «Вывод формул для алгоритма декодирования в LDPC-кодах, выдача задания по кодированию» | |||
11 марта 2014 | 5 | Лекция «Скрытые марковские модели. Алгоритм сегментации сигнала, обучение с учителем» | Презентация (pdf) |
Семинар «Скрытые марковские модели» | |||
18 марта 2014 | 6 | Лекция «ЕМ-алгоритм. Обучение скрытых марковских моделей без учителя.» | Презентация (pdf) |
Семинар «Матричные вычисления» | Конспект по матричным вычислениям и нормальному распределению (pdf) | ||
25 марта 2014 | 7 | Лекция «Линейные динамические системы. Фильтр Калмана. Расширенный фильтр Калмана.» | Конспект по ЛДС (pdf) |
Семинар «Контрольная по матричным вычислениям. ЕМ-алгоритм» | |||
1 апреля 2014 | 8 | Лекция «Алгоритмы на основе разрезов графов, -расширение.» | Презентация (pdf), Конспект по разрезам графов (pdf) |
Семинар «Алгоритмы разрезов графов» | |||
8 апреля 2014 | 9 | Лекция «Алгоритм Tree-ReWeighted Message Passing (TRW) для вывода в циклических графических моделях» | Конспект по TRW (pdf) |
Семинар «Двойственное разложение» | |||
15 апреля 2014 | 10 | Лекция «Структурный метод опорных векторов (SSVM)» | Конспект по SSVM (pdf) |
Семинар «Структурный метод опорных векторов» | |||
22 апреля 2014 | 11 | Лекция «Методы Монте Карло по схеме марковских цепей (MCMC)» | Конспект по MCMC (pdf) |
Семинар «Методы MCMC» | |||
29 апреля 2014 | 12 | Лекция «Вариационный вывод» | Конспект по вариационному выводу (pdf) |
Семинар «Вариационный вывод» | |||
6 мая 2014 | 13 | Лекция «Вероятностные методы обучения графических моделей, экспоненциальное семейство распределений» | |
Семинар «Экспоненциальное семейство распределений» | |||
13 мая 2014 | 14 | Лекция «Подход Expectation Propagation для приближённого вывода в графических моделях» | |
Семинар «Контрольная по вариационному выводу» |
Экзамен
На экзамене при подготовке билета разрешается пользоваться любыми материалами. Экзамен можно сдавать и в случае отсутствия сдачи некоторых практических заданий.
Вопросы к экзамену + теоретический минимум (pdf)
Практические задания
Задание 1. «Байесовские рассуждения».
Задание 2. «Алгоритм Loopy Belief Propagation для LDPC-кодов».
Задание 3. «Алгоритмы минимизации энергии для задачи склеивания панорам».
Задание 4. «Модель Изинга».
Домашние задания
Оценки по курсу
№ п/п | Студент | Бонус | Практические задания | Контрольные | Сумма | Экзамен | Оценка | ||||
---|---|---|---|---|---|---|---|---|---|---|---|
№1 | №2 | №3 | №4 | №1 | №2 | ||||||
1 | Алешин Илья | 3.3 | - | -10 | 1 | 0 | |||||
2 | Антипов Алексей | -10 | -10 | -10 | 1 | - | |||||
3 | Арбузова Дарья | 3.7 | 4.9 | 5.0 | - | 1 | 3 | ||||
4 | Горелов Алексей | 4.4 | -10 | -10 | 2 | - | |||||
5 | Зиннурова Эльвира | -5 | 5.0 | 4.2 | 5.0 | - | 2 | 2 | |||
6 | Корольков Михаил | -10 | -10 | -10 | - | - | |||||
7 | Ломов Никита | 5.0 | - | 4.1 | 2.7 | 2.67 | - | ||||
8 | Львов Сергей | 4.9 | -10 | -10 | - | 2 | - | ||||
9 | Найдин Олег | 5.0 | 3.9 | 5.3 | 4.2 | 2 | 0 | ||||
10 | Никифоров Андрей | 4.0 | - | 3.7 | 4.8 | 3 | 2 | ||||
11 | Новиков Александр | 4.3 | - | 3.8 | 2.7 | 2.33 | - | ||||
12 | Петров Григорий | 4.1 | - | 2.1 | - | 2 | 0 | ||||
13 | Подоприхин Дмитрий | 5.0 | 5 | 5.5 | 5 | 2 | 3 | ||||
14 | Рыжков Александр | 4.9 | - | 5.0 | 5 | 1 | 1.5 | ||||
15 | Сокурский Юрий (C) | 4.2 | -10 | -10 | 3 | 3 | |||||
16 | Ульянов Дмитрий | -5 | 3.4 | - | 5.5 | - | 1.33 | - | |||
17 | Харациди Олег | 5.0 | - | 0.2 | 1 | 0 | |||||
18 | Шабашев Федор | 4.1 | - | -10 | 2 | 0 | |||||
19 | Шадриков Андрей | 4.2 | - | -0.5 | 4.9 | 2.67 | 1 | ||||
20 | Новиков Максим (420) | 3.4 | -10 | -10 | - | - | |||||
21 | Шахуро Влад (420) | 2.9 | -10 | -10 | - | - | |||||
22 | Грингауз Александр (320) | 4.1 | -10 | -10 | 2.33 | - | |||||
23 | Ибадов Тимур (420) | 3.7 | -10 | -10 | - | - | |||||
24 | Старцев Михаил (420) | 3.6 | -10 | -10 | - | - |
Система выставления оценок по курсу
- При наличии несданных заданий максимальная возможная оценка за курс — это «удовлетворительно».
- Необходимым условием получения положительной оценки за курс является сдача не менее двух практических заданий и сдача устного экзамена не менее чем на оценку «удовлетворительно».
- Итоговая оценка вычисляется по формуле , где Oral — оценка за устный экзамен (0, 3, 4, 5), HomeWork — баллы, набранные за практические задания (см. таблицу выше), Mark — итоговая оценка по 5-балльной шкале. Нецелые значения округляются в сторону ближайшего целого, превосходящего дробное значение. Максимальный балл за HomeWork равен 20.
- На экзамене студент может отказаться от оценки и пойти на пересдачу, на которой может заново получить Oral.
- За каждое несданное задание выставляется минус 10 баллов в баллы по заданиям (допускаются отрицательные значения).
- Если на экзамене итоговая оценка оказывается ниже трех, то студент отправляется на пересдачу. При этом оценка Oral, полученная на пересдаче, добавляется к положительной (три и выше) оценке Oral, полученной на основном экзамене и т.д. до тех пор, пока студент не наберет на итоговую оценку «удовлетворительно» (для итоговых оценок выше «удовлетворительно» оценки Oral не суммируются).
- Студент может досдать недостающие практические задания в любое время. При этом проверка задания гарантируется только в том случае, если задание сдано не позднее, чем за неделю до основного экзамена или пересдачи.
- Штраф за просрочку сдачи заданий начисляется из расчета 0.1 балла в день, но не более 5 баллов.
- В случае успешной сдачи всех практических заданий студент получает возможность претендовать на итоговую оценку «хорошо» и «отлично». При этом экзамен на оценку Oral может сдаваться до сдачи всех заданий (оценки Oral в этом случае не суммируются).
- Экзамен на оценку Oral сдается либо в срок основного экзамена, либо в срок официальных пересдач.
Литература
- Barber D. Bayesian Reasoning and Machine Learning. Cambridge University Press, 2012.
- Murphy K.P. Machine Learning: A Probabilistic Perspective. The MIT Press, 2012.
- Bishop C.M. Pattern Recognition and Machine Learning. Springer, 2006.
- Mackay D.J.C. Information Theory, Inference, and Learning Algorithms. Cambridge University Press, 2003.
- Wainwright M.J., Jordan M.I. Graphical Models, Exponential Families, and Variational Inference. Foundations and Trends in Machine Learning, NOWPress, 2008.
- Koller D., Friedman N. Probabilistic Graphical Models: Principles and Techniques. The MIT Press, 2009.
- Cowell R.G., Dawid A.P., Lauritzen S.L., Spiegelhalter D.J. Probabilistic networks and expert systems. Berlin: Springer, 1999.
- Памятка по теории вероятностей
Страницы курса прошлых лет
См. также
Курс «Байесовские методы машинного обучения»
Спецсеминар «Байесовские методы машинного обучения»
Математические методы прогнозирования (кафедра ВМиК МГУ)
Онлайн-курс Стэнфордского университета по вероятностным графическим моделям