|
|
(218 промежуточных версий не показаны.) |
Строка 1: |
Строка 1: |
- | __NOTOC__
| + | #REDIRECT [[Графические модели (курс лекций)/2015]] |
- | | + | |
- | {{notice|Внимание! Выложено второе практическое задание по курсу. Срок сдачи — 21 марта.}}
| + | |
- | | + | |
- | {|border = "0"
| + | |
- | |[[Изображение:Mrf.jpg|300px]]
| + | |
- | | valign="top"|Курс посвящен математическим методам обработки информации, основанных на использовании внутренних взаимосвязей в данных и их последующем анализе. Эти методы широко используются при решении задач из разных прикладных областей, включая обработку изображений и видео, анализ социальных сетей, распознавание речи, машинное обучение. До 2011 года курс читался как спецкурс [[Структурные методы анализа изображений и сигналов (курс лекций)/2011|«Структурные методы анализа изображений и сигналов»]].
| + | |
- | |}
| + | |
- | | + | |
- | Лекторы: [[Участник:Dmitry Vetrov|Д.П. Ветров]], [[Участник:Kropotov|Д.А. Кропотов]].
| + | |
- | | + | |
- | Семинарист: [[Участник:Anton|А.А. Осокин]].
| + | |
- | | + | |
- | == Расписание занятий ==
| + | |
- | | + | |
- | В 2012 году курс читается в весеннем семестре на факультете [[ВМиК]] МГУ по средам в ауд. 524, начало в 16-50.
| + | |
- | | + | |
- | {| class="standard"
| + | |
- | !Дата||Занятие||Материалы
| + | |
- | |-
| + | |
- | |8 февраля 2012 || Лекция 1 «Графические модели: Байесовские и марковские сети» || [[Media:Lecture1 GM.pdf|Презентация (PDF, 1.01 Мб)]]
| + | |
- | |-
| + | |
- | |15 февраля 2012 || Лекция 2 «Точные методы вывода в ациклических графических моделях. Алгоритм Belief Propagation» || [[Media:SMAIS-2011-BP.pdf| Конспект (PDF, 64 Кб)]]
| + | |
- | |-
| + | |
- | |22 февраля 2012 || Семинар 1 ||
| + | |
- | |-
| + | |
- | |29 февраля 2012 || Лекция 3 «Скрытые марковские модели. Алгоритм сегментации сигнала, обучение с учителем» || [[Media:Lecture3.pdf| Презентация (PDF, 700 Кб)]]
| + | |
- | |-
| + | |
- | |7 марта 2012 || Лекция 4 «Задача фильтрации многомерных сигналов. Линейные динамические системы. Фильтр Калмана» || [[Media:GM12_4.pdf|Конспект (PDF, 281Кб)]]
| + | |
- | |-
| + | |
- | |14 марта 2012 || Лекция 5 «ЕМ-алгоритм. Обучение скрытых марковских моделей и линейных динамических систем.» || [[Media:Lecture5.pdf| Презентация (PDF, 1.14 Мб)]]
| + | |
- | |-
| + | |
- | |21 марта 2012 || Лекция 6 «Алгоритмы на основе разрезов графов, <tex>\alpha</tex>-расширение.» || [[Media:Lecture6.pdf| Презентация (PDF, 618 Кб)]]
| + | |
- | |-
| + | |
- | |28 марта 2012 || Лекция 7 «Приближенные методы вывода в циклических графических моделях. Алгоритм Tree-ReWeighted Message Passing (TRW)» || [[Media:TRW.pdf| Конспект лекции (PDF, 86Кб)]]
| + | |
- | |-
| + | |
- | |4 апреля 2012 || Семинар 2 ||
| + | |
- | |-
| + | |
- | |11 апреля 2012 || Лекция 8 «Методы Монте Карло по схеме марковских цепей» ||
| + | |
- | |-
| + | |
- | |18 апреля 2012 || Лекция 9 «Структурный метод опорных векторов» ||
| + | |
- | |-
| + | |
- | |25 апреля 2012 || Семинар 3 ||
| + | |
- | |-
| + | |
- | |2 мая 2012 || ||
| + | |
- | |-
| + | |
- | |16 мая 2012 || Лекция 10 «Вариационный вывод» ||
| + | |
- | |-
| + | |
- | |}
| + | |
- | | + | |
- | == Практические задания ==
| + | |
- | | + | |
- | Задание 1. [[Графические модели (курс лекций)/2012/Задание 1| «Алгоритмы передачи сообщений»]].
| + | |
- | | + | |
- | Задание 2. [[Графические модели (курс лекций)/2012/Задание 2| «Динамические системы и фильтр Калмана»]].
| + | |
- | | + | |
- | Задание 3. TRW и α-расширение.
| + | |
- | | + | |
- | Задание 4. Структурное обучение.
| + | |
- | | + | |
- | == Оценки ==
| + | |
- | {|class = "standard sortable"
| + | |
- | ! class="unsortable"|№ п/п !! Студент !! Задание 1 !! Задание 2 !! Задание 3 !! Задание 4 !! Сумма
| + | |
- | |-
| + | |
- | | align="center"|1 || Александров Я. || 2 || || || ||
| + | |
- | |-
| + | |
- | | align="center"|2 || Артюхин С. || <tex>\frac{872837945567613}{290945981855871}</tex> || || || ||
| + | |
- | |-
| + | |
- | | align="center"|3 || Бобрик К. || 3 || || || ||
| + | |
- | |-
| + | |
- | | align="center"|4 || Гаврилюк К. || 3 || || || ||
| + | |
- | |-
| + | |
- | | align="center"|5 || Елшин Д. || 3 || || || ||
| + | |
- | |-
| + | |
- | | align="center"|6 || Ермушева А. || 2 || || || ||
| + | |
- | |-
| + | |
- | | align="center"|7 || Зимовнов А.|| 3 || || || ||
| + | |
- | |-
| + | |
- | | align="center"|8 || Игнатьев О. || 2.999999998 || || || ||
| + | |
- | |-
| + | |
- | | align="center"|9 || Кириллов А. || 3 || || || ||
| + | |
- | |-
| + | |
- | | align="center"|10 || Марченко Е.|| 3 || || || ||
| + | |
- | |-
| + | |
- | | align="center"|11 || Матвеева Д. || 3 || || || ||
| + | |
- | |-
| + | |
- | | align="center"|12 || Меркулова Т. || 2.9 || || || ||
| + | |
- | |-
| + | |
- | | align="center"|13 || Некрасов К. || 2.999999998 || || || ||
| + | |
- | |-
| + | |
- | | align="center"|14 || Новиков П. || 3 || || || ||
| + | |
- | |-
| + | |
- | | align="center"|15 || Панов А. || <tex>\frac{872837945567613}{290945981855871}</tex> || || || ||
| + | |
- | |-
| + | |
- | | align="center"|16 || Плященко Е. || 2 || || || ||
| + | |
- | |-
| + | |
- | | align="center"|17 || Полежаев В. || 3 || || || ||
| + | |
- | |-
| + | |
- | | align="center"|18 || Сабурова М. || 3 || || || ||
| + | |
- | |-
| + | |
- | | align="center"|19 || Соколов Е.|| 3 || || || ||
| + | |
- | |-
| + | |
- | | align="center"|20 || Фигурнов М. || 3 || || || ||
| + | |
- | |-
| + | |
- | | align="center"|21 || Цупков С. || 2.999999998 || || || ||
| + | |
- | |-
| + | |
- | | align="center"|22 || Шанин И. || - || || || ||
| + | |
- | |-
| + | |
- | | align="center"|23 || Львов С. (212) || 3 || || || ||
| + | |
- | |-
| + | |
- | | align="center"|24 || Ульянов Д. (212) || 3 || || || ||
| + | |
- | |-
| + | |
- | | align="center"|25 || Тихонов А. (517) || 0 || || || ||
| + | |
- | |}
| + | |
- | | + | |
- | == Программа курса ==
| + | |
- | | + | |
- | === Введение в курс и понятие графических моделей. Байесовские и марковские сети. ===
| + | |
- | | + | |
- | Обзор курса. Задачи анализа структурированных данных. Представление зависимостей между объектами в виде графов. Байесовские сети. Элементарные способы работы с байесовскими сетями. Марковские сети. Потенциалы на кликах. Примеры использования марковских сетей для анализа изображений.
| + | |
- | | + | |
- | ''Ликбез: независимость случайных событий. Условная вероятность. Условная независимость.''
| + | |
- | | + | |
- | [http://en.wikipedia.org/wiki/Graphical_models Статья в Википедии по графическим моделям]
| + | |
- | | + | |
- | {|
| + | |
- | |<videoflash type="vimeo">7348738</videoflash>
| + | |
- | |<videoflash type="vimeo">7517616</videoflash>
| + | |
- | |}
| + | |
- | | + | |
- | [[Media:Lecture1 GM.pdf|Презентация лекции (PDF, 1.01 Мб)]]
| + | |
- | | + | |
- | === Точные методы вывода в ациклических графических моделях: Алгоритм Belief Propagation. ===
| + | |
- | | + | |
- | Поиск наиболее вероятной конфигурации ацикличной марковской сети с помощью алгоритма Belief Propagation (динамическое программирование). Интерфейс передачи сообщений. Подсчет мин-маргиналов. Поиск маргинальных распределений для графических моделей в форме дерева. Использование произвольных полукольцевых операций в графических моделях.
| + | |
- | | + | |
- | [[Media:SMAIS-2011-BP.pdf| Конспект лекции (PDF, 64 Кб)]]<br>
| + | |
- | [http://en.wikipedia.org/wiki/Belief_propagation Статья в Википедии про алгоритм Belief Propagation]
| + | |
- | | + | |
- | === Скрытые марковские модели (СММ). Алгоритм сегментации сигнала ===
| + | |
- | | + | |
- | Примеры задач сегментации сигналов. Обучение СММ с учителем. Поиск наиболее вероятной последовательности состояний (алгоритм Витерби).
| + | |
- | | + | |
- | === Линейные динамические системы. Фильтр Калмана ===
| + | |
- | | + | |
- | Свойства многомерного нормального распределения. Задача сопровождения объекта. Линейные динамические системы, фильтр Калмана. Обучение параметров линейной динамической системы с учителем. Расширенный фильтр Калмана, пример использования.
| + | |
- | | + | |
- | [[Media:GM12_4.pdf|Конспект лекции (PDF, 281Кб)]]
| + | |
- | | + | |
- | === Обучение СММ без учителя ===
| + | |
- | | + | |
- | ЕМ-алгоритм и его использование в анализе графических моделей. Алгоритм Баума-Уэлша для подсчета условного распределения скрытой переменной в отдельной точке. ЕМ-алгоритм для обучения СММ без учителя. Особенности численной реализации на ЭВМ. Модификации СММ (СММ высших порядков, факториальные СММ, многопоточные СММ, СММ ввода-вывода). Примеры использования СММ.
| + | |
- | | + | |
- | [[Media:lecture5.pdf|Презентация (PDF, 1.2Мб)]]
| + | |
- | | + | |
- | === Алгоритмы на основе разрезов графов ===
| + | |
- | | + | |
- | Энергетическая формулировка задач компьютерного зрения. Разрезы графов, алгоритмы нахождения максимального потока. Интерактивная сегментация изображений. Энергия, которую можно минимизировать с помощью разрезов графов. Приближенная минимизация энергии с помощью алгоритма альфа-расширения.
| + | |
- | | + | |
- | === Приближенные методы вывода в графических моделях: Tree-ReWeighted Message Passing (TRW). ===
| + | |
- | | + | |
- | ЛП-релаксация задачи байесовского вывода. Двойственное разложение. Независимость алгоритма TRW от способа разбиений на деревья. Свойства алгоритма TRW для субмодулярной энергии.
| + | |
- | | + | |
- | [[Media:TRW.pdf|Конспект лекции (PDF, 86Кб)]]
| + | |
- | | + | |
- | === Методы настройки марковских случайных полей. Структурный метод опорных векторов. ===
| + | |
- | | + | |
- | === Методы Монте Карло по схеме марковских цепей ===
| + | |
- | Теоретические свойства марковских цепей: однородной, эргодичность и инвариантные распределения. Схема Метрополиса-Хастингса. Схема Гиббса. Примеры применения для дискретных марковских сетей. Фильтр частиц.
| + | |
- | | + | |
- | === Вариационный вывод ===
| + | |
- | | + | |
- | == Литература ==
| + | |
- | | + | |
- | # [http://matthias.vallentin.net/probability-and-statistics-cookbook/ Памятка по теории вероятностей]
| + | |
- | # ''Bishop C.M.'' [http://research.microsoft.com/en-us/um/people/cmbishop/prml/ Pattern Recognition and Machine Learning.] Springer, 2006.
| + | |
- | # ''Mackay D.J.C.'' [http://www.inference.phy.cam.ac.uk/mackay/itila/book.html Information Theory, Inference, and Learning Algorithms.] Cambridge University Press, 2003.
| + | |
- | # ''Jordan M.I. (Ed.)'' Learning in graphical models. Cambridge MA: MIT Press, 1999
| + | |
- | # ''Cowell R.G., Dawid A.P., Lauritzen S.L., Spiegelhalter D.J.'' Probabilistic networks and expert systems. Berlin: Springer, 1999.
| + | |
- | | + | |
- | == Страницы курса прошлых лет ==
| + | |
- | | + | |
- | [[Структурные методы анализа изображений и сигналов (курс лекций, А.С. Конушин, Д.П. Ветров, Д.А. Кропотов, О.В. Баринова, В.С. Конушин, 2009)|2009 год]]
| + | |
- | | + | |
- | [[Структурные методы анализа изображений и сигналов (курс лекций)/2011|2011 год]]
| + | |
- | | + | |
- | == См. также ==
| + | |
- | | + | |
- | [[Бммо|Курс «Байесовские методы машинного обучения»]]
| + | |
- | | + | |
- | [[Спецсеминар "Байесовские методы машинного обучения"|Спецсеминар «Байесовские методы машинного обучения»]]
| + | |
- | | + | |
- | [[Математические методы прогнозирования (кафедра ВМиК МГУ)]]
| + | |
- | | + | |
- | [https://stanford.campus-class.org/pgm/auth/welcome Онлайн-курс Стэнфордского университета по вероятностным графическим моделям]
| + | |
- | | + | |
- | [[Категория:Учебные курсы]]
| + | |
- | [[Категория:Байесовские методы]]
| + | |