Графические модели (курс лекций)
Материал из MachineLearning.
(→Оценки) |
(текущие полученные шестые задания) |
||
Строка 65: | Строка 65: | ||
! class="unsortable"|№ п/п !! Студент !! Задание 1 (3 балла) !! Задание 2 (4 балла) !! Задание 3 (4 балла) !! Задание 4 (3 балла) !! Задание 5 (3+3 балла) !! Задание 6 (5 баллов) !! Сумма | ! class="unsortable"|№ п/п !! Студент !! Задание 1 (3 балла) !! Задание 2 (4 балла) !! Задание 3 (4 балла) !! Задание 4 (3 балла) !! Задание 5 (3+3 балла) !! Задание 6 (5 баллов) !! Сумма | ||
|- | |- | ||
- | | align="center"|1 || Александров Я. || 2 || 2.5 || 3 || 2 || 2+? || || 11.5 | + | | align="center"|1 || Александров Я. || 2 || 2.5 || 3 || 2 || 2+? || X || 11.5 |
|- | |- | ||
- | | align="center"|2 || Артюхин С. || 3 || 3 || 4 || 2 || 5.5 || || 17.5 | + | | align="center"|2 || Артюхин С. || 3 || 3 || 4 || 2 || 5.5 || X-0.5 || 17.5 |
|- | |- | ||
| align="center"|3 || Бобрик К. || 3 || 2.5 || || 3 || || || 8.5 | | align="center"|3 || Бобрик К. || 3 || 2.5 || || 3 || || || 8.5 | ||
|- | |- | ||
- | | align="center"|4 || Гаврилюк К. || 3 || 3 || 4 || 2 || 6 || | + | | align="center"|4 || Гаврилюк К. || 3 || 3 || 4 || 2 || 6 || X || 18 |
|- | |- | ||
| align="center"|5 || Елшин Д. || 3 || 3 || 4 || 2 || 6 || || 18 | | align="center"|5 || Елшин Д. || 3 || 3 || 4 || 2 || 6 || || 18 | ||
Строка 77: | Строка 77: | ||
| align="center"|6 || Ермушева А. || 2 || 2.5 || 2.5 || 2 || 5 || || 14 | | align="center"|6 || Ермушева А. || 2 || 2.5 || 2.5 || 2 || 5 || || 14 | ||
|- | |- | ||
- | | align="center"|7 || Зимовнов А.|| 3 || 4 || 4 || 2 || 7 || || 19 | + | | align="center"|7 || Зимовнов А.|| 3 || 4 || 4 || 2 || 7 || X || 19 |
|- | |- | ||
- | | align="center"|8 || Игнатьев О. || 3 || 3 || 2.5 || 0 || 4.5 || || 13 | + | | align="center"|8 || Игнатьев О. || 3 || 3 || 2.5 || 0 || 4.5 || X || 13 |
|- | |- | ||
- | | align="center"|9 || Кириллов А. || 3 || 3 || 4 || 2 || 6 || || 18 | + | | align="center"|9 || Кириллов А. || 3 || 3 || 4 || 2 || 6 || X || 18 |
|- | |- | ||
| align="center"|10 || Марченко Е.|| 3 || 3 || 2.5 || 2 || || || 10.5 | | align="center"|10 || Марченко Е.|| 3 || 3 || 2.5 || 2 || || || 10.5 | ||
|- | |- | ||
- | | align="center"|11 || Матвеева Д. || 3 || 3 || 4 || 2 || 6 || || 18 | + | | align="center"|11 || Матвеева Д. || 3 || 3 || 4 || 2 || 6 || X || 18 |
|- | |- | ||
- | | align="center"|12 || Меркулова Т. || 3 || 2.5 || 3 || || || || 8.5 | + | | align="center"|12 || Меркулова Т. || 3 || 2.5 || 3 || || || X || 8.5 |
|- | |- | ||
| align="center"|13 || Некрасов К. || 3 || 3.5 || 3 || 2 || || || 11.5 | | align="center"|13 || Некрасов К. || 3 || 3.5 || 3 || 2 || || || 11.5 | ||
Строка 93: | Строка 93: | ||
| align="center"|14 || Новиков П. || 3 || 3 || 3.5 || 1.5 || || || 11 | | align="center"|14 || Новиков П. || 3 || 3 || 3.5 || 1.5 || || || 11 | ||
|- | |- | ||
- | | align="center"|15 || Панов А. || 3 || 3 || 3.5 || 1.5 || 7 || || 18 | + | | align="center"|15 || Панов А. || 3 || 3 || 3.5 || 1.5 || 7 || X || 18 |
|- | |- | ||
| align="center"|16 || Плященко Е. || 2 || 4 || 1.5 || 1.5 || 5 || || 14 | | align="center"|16 || Плященко Е. || 2 || 4 || 1.5 || 1.5 || 5 || || 14 | ||
|- | |- | ||
- | | align="center"|17 || Полежаев В. || 3 || 2.5 || 4 || 2 || 6 || || 17.5 | + | | align="center"|17 || Полежаев В. || 3 || 2.5 || 4 || 2 || 6 || X-0.5 || 17.5 |
|- | |- | ||
| align="center"|18 || Сабурова М. || 3 || 3 || 0 || 1.5 || 2+? || || 9.5 | | align="center"|18 || Сабурова М. || 3 || 3 || 0 || 1.5 || 2+? || || 9.5 | ||
|- | |- | ||
- | | align="center"|19 || Соколов Е.|| 3 || 4 || 4 || 2 || 6 || || 18 | + | | align="center"|19 || Соколов Е.|| 3 || 4 || 4 || 2 || 6 || X || 18 |
|- | |- | ||
| align="center"|20 || Фигурнов М. || 3 || 3 || 4 || 2 || 6.5 || || 18.5 | | align="center"|20 || Фигурнов М. || 3 || 3 || 4 || 2 || 6.5 || || 18.5 |
Версия 18:43, 24 мая 2012
Курс посвящен математическим методам обработки информации, основанных на использовании внутренних взаимосвязей в данных и их последующем анализе. Эти методы широко используются при решении задач из разных прикладных областей, включая обработку изображений и видео, анализ социальных сетей, распознавание речи, машинное обучение. До 2011 года курс читался как спецкурс «Структурные методы анализа изображений и сигналов». |
Лекторы: Д.П. Ветров, Д.А. Кропотов.
Семинарист: А.А. Осокин.
Расписание занятий
В 2012 году курс читается в весеннем семестре на факультете ВМиК МГУ по средам в ауд. 524, начало в 16-50.
Дата | Занятие | Материалы |
---|---|---|
8 февраля 2012 | Лекция 1 «Графические модели: Байесовские и марковские сети» | Презентация (PDF, 1.01 Мб) |
15 февраля 2012 | Лекция 2 «Точные методы вывода в ациклических графических моделях. Алгоритм Belief Propagation» | Конспект (PDF, 64 Кб) |
22 февраля 2012 | Семинар 1 | |
29 февраля 2012 | Лекция 3 «Скрытые марковские модели. Алгоритм сегментации сигнала, обучение с учителем» | Презентация (PDF, 700 Кб) |
7 марта 2012 | Лекция 4 «Задача фильтрации многомерных сигналов. Линейные динамические системы. Фильтр Калмана» | Конспект (PDF, 281Кб) |
14 марта 2012 | Лекция 5 «ЕМ-алгоритм. Обучение скрытых марковских моделей и линейных динамических систем.» | Презентация (PDF, 1.14 Мб) |
21 марта 2012 | Лекция 6 «Алгоритмы на основе разрезов графов, -расширение.» | Презентация (PDF, 618 Кб) |
28 марта 2012 | Лекция 7 «Приближенные методы вывода в циклических графических моделях. Алгоритм Tree-ReWeighted Message Passing (TRW)» | Конспект лекции (PDF, 86Кб) |
4 апреля 2012 | Семинар 2 | |
11 апреля 2012 | Лекция 8 «Структурный метод опорных векторов» | Конспект (PDF, 103Кб) |
18 апреля 2012 | Лекция 9 «Методы Монте Карло по схеме марковских цепей» | Конспект (PDF, 121Кб) |
25 апреля 2012 | Лекция 10 «Вариационный вывод» | Конспект1 (JPG, 930Кб), Конспект2 (JPG, 900Кб) |
2 мая 2012 | Семинар 3 | |
16 мая 2012 | Лекция 11 «Использование графических моделей для решения различных прикладных задач анализа данных» |
Практические задания
Задание 1. «Алгоритмы передачи сообщений».
Задание 2. «Динамические системы и фильтр Калмана».
Задание 3. «TRW и α-расширение».
Задание 4. «Разрезы графов и двойственное разложение».
Задание 5. «Структурное обучение».
Задание 6. «Модель Изинга».
Оценки
№ п/п | Студент | Задание 1 (3 балла) | Задание 2 (4 балла) | Задание 3 (4 балла) | Задание 4 (3 балла) | Задание 5 (3+3 балла) | Задание 6 (5 баллов) | Сумма |
---|---|---|---|---|---|---|---|---|
1 | Александров Я. | 2 | 2.5 | 3 | 2 | 2+? | X | 11.5 |
2 | Артюхин С. | 3 | 3 | 4 | 2 | 5.5 | X-0.5 | 17.5 |
3 | Бобрик К. | 3 | 2.5 | 3 | 8.5 | |||
4 | Гаврилюк К. | 3 | 3 | 4 | 2 | 6 | X | 18 |
5 | Елшин Д. | 3 | 3 | 4 | 2 | 6 | 18 | |
6 | Ермушева А. | 2 | 2.5 | 2.5 | 2 | 5 | 14 | |
7 | Зимовнов А. | 3 | 4 | 4 | 2 | 7 | X | 19 |
8 | Игнатьев О. | 3 | 3 | 2.5 | 0 | 4.5 | X | 13 |
9 | Кириллов А. | 3 | 3 | 4 | 2 | 6 | X | 18 |
10 | Марченко Е. | 3 | 3 | 2.5 | 2 | 10.5 | ||
11 | Матвеева Д. | 3 | 3 | 4 | 2 | 6 | X | 18 |
12 | Меркулова Т. | 3 | 2.5 | 3 | X | 8.5 | ||
13 | Некрасов К. | 3 | 3.5 | 3 | 2 | 11.5 | ||
14 | Новиков П. | 3 | 3 | 3.5 | 1.5 | 11 | ||
15 | Панов А. | 3 | 3 | 3.5 | 1.5 | 7 | X | 18 |
16 | Плященко Е. | 2 | 4 | 1.5 | 1.5 | 5 | 14 | |
17 | Полежаев В. | 3 | 2.5 | 4 | 2 | 6 | X-0.5 | 17.5 |
18 | Сабурова М. | 3 | 3 | 0 | 1.5 | 2+? | 9.5 | |
19 | Соколов Е. | 3 | 4 | 4 | 2 | 6 | X | 18 |
20 | Фигурнов М. | 3 | 3 | 4 | 2 | 6.5 | 18.5 | |
21 | Цупков С. | 3 | 3.5 | 3.5 | 3 | 5 | 18 | |
22 | Шанин И. | 1.5 | 1.5 | |||||
24 | Ульянов Д. (212) | 3 | 4 | 3.25 | 1.5 | 11.75 |
Программа курса
Введение в курс и понятие графических моделей. Байесовские и марковские сети.
Обзор курса. Задачи анализа структурированных данных. Представление зависимостей между объектами в виде графов. Байесовские сети. Элементарные способы работы с байесовскими сетями. Марковские сети. Потенциалы на кликах. Примеры использования марковских сетей для анализа изображений.
Ликбез: независимость случайных событий. Условная вероятность. Условная независимость.
Статья в Википедии по графическим моделям
Презентация лекции (PDF, 1.01 Мб)
Точные методы вывода в ациклических графических моделях: Алгоритм Belief Propagation.
Поиск наиболее вероятной конфигурации ацикличной марковской сети с помощью алгоритма Belief Propagation (динамическое программирование). Интерфейс передачи сообщений. Подсчет мин-маргиналов. Поиск маргинальных распределений для графических моделей в форме дерева. Использование произвольных полукольцевых операций в графических моделях.
Конспект лекции (PDF, 64 Кб)
Статья в Википедии про алгоритм Belief Propagation
Скрытые марковские модели (СММ). Алгоритм сегментации сигнала
Примеры задач сегментации сигналов. Обучение СММ с учителем. Поиск наиболее вероятной последовательности состояний (алгоритм Витерби).
Линейные динамические системы. Фильтр Калмана
Свойства многомерного нормального распределения. Задача сопровождения объекта. Линейные динамические системы, фильтр Калмана. Обучение параметров линейной динамической системы с учителем. Расширенный фильтр Калмана, пример использования.
Обучение СММ без учителя
ЕМ-алгоритм и его использование в анализе графических моделей. Алгоритм Баума-Уэлша для подсчета условного распределения скрытой переменной в отдельной точке. ЕМ-алгоритм для обучения СММ без учителя. Особенности численной реализации на ЭВМ. Модификации СММ (СММ высших порядков, факториальные СММ, многопоточные СММ, СММ ввода-вывода). Примеры использования СММ.
Алгоритмы на основе разрезов графов
Энергетическая формулировка задач компьютерного зрения. Разрезы графов, алгоритмы нахождения максимального потока. Интерактивная сегментация изображений. Энергия, которую можно минимизировать с помощью разрезов графов. Приближенная минимизация энергии с помощью алгоритма альфа-расширения.
Приближенные методы вывода в графических моделях: Tree-ReWeighted Message Passing (TRW).
ЛП-релаксация задачи байесовского вывода. Двойственное разложение. Независимость алгоритма TRW от способа разбиений на деревья. Свойства алгоритма TRW для субмодулярной энергии.
Методы настройки марковских случайных полей. Структурный метод опорных векторов.
Задача структурного обучения. Метод опорных векторов для случая многих классов. Структурный метод опорных векторов. Обучение с помощью метода отсекающей плоскости. Обучение с помощью двойственной задачи. Примеры.
Методы Монте Карло по схеме марковских цепей
Генерация выборки из одномерных распределений. Теоретические свойства марковских цепей: однородность, эргодичность и инвариантные распределения. Схема Метрополиса-Хастингса. Схема Гиббса. Примеры применения для дискретных марковских сетей. Фильтр частиц.
Вариационный вывод
Литература
- Памятка по теории вероятностей
- Bishop C.M. Pattern Recognition and Machine Learning. Springer, 2006.
- Mackay D.J.C. Information Theory, Inference, and Learning Algorithms. Cambridge University Press, 2003.
- Jordan M.I. (Ed.) Learning in graphical models. Cambridge MA: MIT Press, 1999
- Cowell R.G., Dawid A.P., Lauritzen S.L., Spiegelhalter D.J. Probabilistic networks and expert systems. Berlin: Springer, 1999.
Страницы курса прошлых лет
См. также
Курс «Байесовские методы машинного обучения»
Спецсеминар «Байесовские методы машинного обучения»
Математические методы прогнозирования (кафедра ВМиК МГУ)
Онлайн-курс Стэнфордского университета по вероятностным графическим моделям