Графические модели (курс лекций)/2015
Материал из MachineLearning.
(Новая: __NOTOC__ {{stop|Страница курса находится в стадии формирования}} {|border = "0" | valign="top"|300px | va...) |
|||
Строка 12: | Строка 12: | ||
Лектор: [[Участник:Dmitry Vetrov|Д.П. Ветров]], | Лектор: [[Участник:Dmitry Vetrov|Д.П. Ветров]], | ||
- | + | Семинаристы: [[Участник:Kropotov|Д.А. Кропотов]], [[Участник:mfigurnov|М.В. Фигурнов]]. | |
- | + | По всем вопросам, связанным с курсом, просьба писать на ''bayesml@gmail.com'', в название письма обязательно добавлять [ГМ15]. | |
- | + | ||
- | + | ||
== Расписание занятий == | == Расписание занятий == | ||
- | В | + | В 2015 году курс читается на факультете [[ВМиК]] МГУ по пятницам в ауд. 579, начало в 14-35 (лекция) и 16-20 (семинар). |
{| class="standard" | {| class="standard" | ||
!Дата !! № занятия !! Занятие !! Материалы | !Дата !! № занятия !! Занятие !! Материалы | ||
|- | |- | ||
- | | rowspan=2| | + | | rowspan=2|13 февраля 2015 || rowspan=2 align="center"|1 || Лекция «Графические модели: байесовские и марковские сети, примеры применения» || [[Media:GM13_1.pdf|Презентация]] по байесовским рассуждениям и графическим моделям |
|- | |- | ||
- | |Семинар | + | |Семинар «Фактор-графы, задачи вывода в ГМ, решение практических задач с помощью ГМ» || Презентация по практическим задачам |
|- | |- | ||
- | | rowspan=2| | + | | rowspan=2|20 февраля 2015 || rowspan=2 align="center"|2 || Лекция «Алгоритм Belief Propagation (BP) для вывода в ациклических графических моделях. Алгоритм Loopy BP» || [[Media:SMAIS-2011-BP.pdf|Конспект по алгоритмам передачи сообщений]] |
- | + | ||
- | + | ||
- | + | ||
- | + | ||
|- | |- | ||
|Семинар «Алгоритмы передачи сообщений» || | |Семинар «Алгоритмы передачи сообщений» || | ||
|- | |- | ||
- | | rowspan=2| | + | | rowspan=2|27 февраля 2015 || rowspan=2 align="center"|3 || Лекция «Помехоустойчивое кодирование, теорема Шеннона, линейные коды, коды с малой плотностью проверок на чётность» || [http://ru.wikipedia.org/wiki/LDPC LDPC-коды] в Википедии |
|- | |- | ||
|Семинар «Вывод формул для алгоритма декодирования в LDPC-кодах, выдача задания по кодированию» || | |Семинар «Вывод формул для алгоритма декодирования в LDPC-кодах, выдача задания по кодированию» || | ||
|- | |- | ||
- | | rowspan=2| | + | | rowspan=2|6 марта 2015 || rowspan=2 align="center"|4 || Лекция «Скрытые марковские модели. Алгоритм сегментации сигнала, обучение с учителем и без учителя» || [[Media:GM12_3.pdf|Презентация (pdf)]] [[Media:GM13_em_hmm_unsupervised.pdf|Презентация (pdf)]] |
|- | |- | ||
|Семинар «Скрытые марковские модели» || | |Семинар «Скрытые марковские модели» || | ||
|- | |- | ||
- | | rowspan=2| | + | | rowspan=2|13 марта 2015 || rowspan=2 align="center"|5 || Лекция «Линейные динамические системы. Фильтр Калмана. Расширенный фильтр Калмана.» || [[Media:LDS.pdf|Конспект по ЛДС (pdf)]] |
|- | |- | ||
|Семинар «Матричные вычисления» || [[Media:Matrix-Gauss.pdf|Конспект по матричным вычислениям и нормальному распределению (pdf)]] | |Семинар «Матричные вычисления» || [[Media:Matrix-Gauss.pdf|Конспект по матричным вычислениям и нормальному распределению (pdf)]] | ||
|- | |- | ||
- | | rowspan=2| | + | | rowspan=2|20 марта 2015 || rowspan=2 align="center"|6 || Лекция «Алгоритмы на основе разрезов графов, <tex>\alpha</tex>-расширение.» || [[Media:Lecture6.pdf| Презентация (pdf)]], [[Media:GM_graphCuts.pdf|Конспект по разрезам графов (pdf)]] |
|- | |- | ||
- | |Семинар | + | |Семинар «Алгоритмы разрезов графов» || |
|- | |- | ||
- | | rowspan=2| | + | | rowspan=2|27 марта 2015 || rowspan=2 align="center"|7 || Лекция «Алгоритм Tree-ReWeighted Message Passing (TRW) для вывода в циклических графических моделях» || [[Media:TRW.pdf| Конспект по TRW (pdf)]] |
- | || [[Media: | + | |
|- | |- | ||
- | | Семинар | + | | Семинар «Двойственное разложение» || |
|- | |- | ||
- | | rowspan=2| | + | | rowspan=2|3 апреля 2015 || rowspan=2 align="center"|8 || Лекция «Структурный метод опорных векторов (SSVM)» || [[Media:SMAIS11_SSVM.pdf|Конспект по SSVM (pdf)]] |
|- | |- | ||
- | |Семинар | + | | Семинар «Структурный метод опорных векторов» || |
|- | |- | ||
- | |rowspan=2 | + | | rowspan=2|10 апреля 2015 || rowspan=2 align="center"|9 || Лекция «Подход Expectation Propagation для приближённого вывода в графических моделях» || [[Media:Yangel_MP.pdf|Методы выводы как алгоритмы передачи сообщений (pdf)]] |
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
|- | |- | ||
+ | | Семинар «Структурный метод опорных векторов» || |- | ||
|} | |} | ||
- | |||
- | |||
- | |||
- | |||
- | |||
- | |||
- | |||
- | |||
- | |||
- | |||
- | |||
- | |||
- | |||
- | |||
- | |||
- | |||
- | |||
- | |||
- | |||
- | |||
== Система выставления оценок по курсу == | == Система выставления оценок по курсу == | ||
Строка 116: | Строка 72: | ||
# В случае успешной сдачи всех практических заданий студент получает возможность претендовать на итоговую оценку «хорошо» и «отлично». При этом экзамен на оценку Oral может сдаваться до сдачи всех заданий (оценки Oral в этом случае <b>не суммируются</b>). | # В случае успешной сдачи всех практических заданий студент получает возможность претендовать на итоговую оценку «хорошо» и «отлично». При этом экзамен на оценку Oral может сдаваться до сдачи всех заданий (оценки Oral в этом случае <b>не суммируются</b>). | ||
# Экзамен на оценку Oral сдается либо в срок основного экзамена, либо в срок официальных пересдач. | # Экзамен на оценку Oral сдается либо в срок основного экзамена, либо в срок официальных пересдач. | ||
- | |||
- | |||
- | |||
- | |||
- | |||
<!-- | <!-- |
Версия 16:57, 3 февраля 2015
Страница курса находится в стадии формирования |
Курс посвящен математическим методам обработки информации, основанных на использовании внутренних взаимосвязей в данных и их последующем анализе. Эти методы широко используются при решении задач из разных прикладных областей, включая обработку изображений и видео, анализ социальных сетей, распознавание речи, машинное обучение. До 2011 года курс читался как спецкурс «Структурные методы анализа изображений и сигналов».
Целью курса является освоение математического аппарата для работы с графическими моделями. Предполагается, что в результате прохождения курса студенты обретут навыки самостоятельного построения графических моделей для решения задач из различных прикладных областей; будут способны решать задачи настройки параметров графических моделей по данным, определять подходящую структуру графической модели, выбирать методы, наиболее эффективные для работы с построенной моделью; получат опыт применения графических моделей для различных задач анализа изображений, сигналов, сетей. |
Лектор: Д.П. Ветров,
Семинаристы: Д.А. Кропотов, М.В. Фигурнов.
По всем вопросам, связанным с курсом, просьба писать на bayesml@gmail.com, в название письма обязательно добавлять [ГМ15].
Расписание занятий
В 2015 году курс читается на факультете ВМиК МГУ по пятницам в ауд. 579, начало в 14-35 (лекция) и 16-20 (семинар).
Дата | № занятия | Занятие | Материалы |
---|---|---|---|
13 февраля 2015 | 1 | Лекция «Графические модели: байесовские и марковские сети, примеры применения» | Презентация по байесовским рассуждениям и графическим моделям |
Семинар «Фактор-графы, задачи вывода в ГМ, решение практических задач с помощью ГМ» | Презентация по практическим задачам | ||
20 февраля 2015 | 2 | Лекция «Алгоритм Belief Propagation (BP) для вывода в ациклических графических моделях. Алгоритм Loopy BP» | Конспект по алгоритмам передачи сообщений |
Семинар «Алгоритмы передачи сообщений» | |||
27 февраля 2015 | 3 | Лекция «Помехоустойчивое кодирование, теорема Шеннона, линейные коды, коды с малой плотностью проверок на чётность» | LDPC-коды в Википедии |
Семинар «Вывод формул для алгоритма декодирования в LDPC-кодах, выдача задания по кодированию» | |||
6 марта 2015 | 4 | Лекция «Скрытые марковские модели. Алгоритм сегментации сигнала, обучение с учителем и без учителя» | Презентация (pdf) Презентация (pdf) |
Семинар «Скрытые марковские модели» | |||
13 марта 2015 | 5 | Лекция «Линейные динамические системы. Фильтр Калмана. Расширенный фильтр Калмана.» | Конспект по ЛДС (pdf) |
Семинар «Матричные вычисления» | Конспект по матричным вычислениям и нормальному распределению (pdf) | ||
20 марта 2015 | 6 | Лекция «Алгоритмы на основе разрезов графов, -расширение.» | Презентация (pdf), Конспект по разрезам графов (pdf) |
Семинар «Алгоритмы разрезов графов» | |||
27 марта 2015 | 7 | Лекция «Алгоритм Tree-ReWeighted Message Passing (TRW) для вывода в циклических графических моделях» | Конспект по TRW (pdf) |
Семинар «Двойственное разложение» | |||
3 апреля 2015 | 8 | Лекция «Структурный метод опорных векторов (SSVM)» | Конспект по SSVM (pdf) |
Семинар «Структурный метод опорных векторов» | |||
10 апреля 2015 | 9 | Лекция «Подход Expectation Propagation для приближённого вывода в графических моделях» | Методы выводы как алгоритмы передачи сообщений (pdf) |
Семинар «Структурный метод опорных векторов» | - |
Система выставления оценок по курсу
- При наличии несданных заданий максимальная возможная оценка за курс — это «удовлетворительно».
- Необходимым условием получения положительной оценки за курс является сдача не менее двух практических заданий и сдача устного экзамена не менее чем на оценку «удовлетворительно».
- Итоговая оценка вычисляется по формуле , где Oral — оценка за устный экзамен (0, 3, 4, 5), HomeWork — баллы, набранные за практические задания (см. таблицу выше), Mark — итоговая оценка по 5-балльной шкале. Нецелые значения округляются в сторону ближайшего целого, превосходящего дробное значение. Максимальный балл за HomeWork равен 20.
- На экзамене студент может отказаться от оценки и пойти на пересдачу, на которой может заново получить Oral.
- За каждое несданное задание выставляется минус 10 баллов в баллы по заданиям (допускаются отрицательные значения).
- Если на экзамене итоговая оценка оказывается ниже трех, то студент отправляется на пересдачу. При этом оценка Oral, полученная на пересдаче, добавляется к положительной (три и выше) оценке Oral, полученной на основном экзамене и т.д. до тех пор, пока студент не наберет на итоговую оценку «удовлетворительно» (для итоговых оценок выше «удовлетворительно» оценки Oral не суммируются).
- Студент может досдать недостающие практические задания в любое время. При этом проверка задания гарантируется только в том случае, если задание сдано не позднее, чем за неделю до основного экзамена или пересдачи.
- Штраф за просрочку сдачи заданий начисляется из расчета 0.1 балла в день, но не более 5 баллов.
- В случае успешной сдачи всех практических заданий студент получает возможность претендовать на итоговую оценку «хорошо» и «отлично». При этом экзамен на оценку Oral может сдаваться до сдачи всех заданий (оценки Oral в этом случае не суммируются).
- Экзамен на оценку Oral сдается либо в срок основного экзамена, либо в срок официальных пересдач.
Литература
- Barber D. Bayesian Reasoning and Machine Learning. Cambridge University Press, 2012.
- Murphy K.P. Machine Learning: A Probabilistic Perspective. The MIT Press, 2012.
- Bishop C.M. Pattern Recognition and Machine Learning. Springer, 2006.
- Mackay D.J.C. Information Theory, Inference, and Learning Algorithms. Cambridge University Press, 2003.
- Wainwright M.J., Jordan M.I. Graphical Models, Exponential Families, and Variational Inference. Foundations and Trends in Machine Learning, NOWPress, 2008.
- Koller D., Friedman N. Probabilistic Graphical Models: Principles and Techniques. The MIT Press, 2009.
- Cowell R.G., Dawid A.P., Lauritzen S.L., Spiegelhalter D.J. Probabilistic networks and expert systems. Berlin: Springer, 1999.
- Памятка по теории вероятностей
Страницы курса прошлых лет
См. также
Курс «Байесовские методы машинного обучения»
Спецсеминар «Байесовские методы машинного обучения»
Математические методы прогнозирования (кафедра ВМиК МГУ)
Онлайн-курс Стэнфордского университета по вероятностным графическим моделям