Структурные методы анализа изображений и сигналов (курс лекций, А.С. Конушин, Д.П. Ветров, Д.А. Кропотов, О.В. Баринова, В.С. Конушин, 2009)
Материал из MachineLearning.
(+ ссылка на pptx презентацию лекции Лемпицкого) |
|||
Строка 64: | Строка 64: | ||
Расширения разрезов графов для сегментации изображений. Branch-and-Mincut. Bounding box prior for interactive segmentation. | Расширения разрезов графов для сегментации изображений. Branch-and-Mincut. Bounding box prior for interactive segmentation. | ||
- | [[Медиа:SMAIS_2009_lempicky.pdf| Презентация лекции Виктора Лемпицкого (PDF, 5.58 Мб)]] | + | [[Медиа:SMAIS_2009_lempicky.pdf| Презентация лекции Виктора Лемпицкого (PDF, 5.58 Мб)]] [http://courses.graphicon.ru/files/courses/smisa/2009/lectures/lecture06.pptx (PPTX, 13 Мб)] |
<u>Часть 2. Графические модели для анализа и распознавания сигналов.</u> | <u>Часть 2. Графические модели для анализа и распознавания сигналов.</u> |
Версия 17:45, 6 декабря 2009
Внимание! В ближайший четверг, 10 декабря, состоится консультация перед экзаменом. Просьба ко всем участникам прийти на консультацию подготовленными, по возможности с конкретными вопросами. Список вопросов к экзамену будет объявлен в ближайшее время. — Д.А. Кропотов 00:15, 4 декабря 2009 (MSK) |
Внимание! Появились комментарии ко второму заданию. — Д.А. Кропотов 13:26, 3 декабря 2009 (MSK) |
Студентам на заметку: на вкладке «Обсуждение» к данной странице можно задать вопрос по курсу, высказать свои пожелания, предложения и т.п.
Д.А. Кропотов, 20 сентября 2009 |
Курс посвящен математическим методам обработки информации, основанных на выделении структуры в исходных данных и ее последующем анализе. Эти методы широко используются при решении задач из разных прикладных областей, включая обработку изображений и видео, анализ поведения, распознавание речи, машинное обучение.
Краткая презентация о курсе (PDF, 532 Кб)
Программа курса
Часть 1. Графические модели для анализа изображений.
Введение в курс и понятие графических моделей.
Обзор курса. Задачи анализа структурированных данных. Представление зависимостей между объектами в виде графов. Основные задачи, для решения которых используются графические модели. Демонстрация современных работ, опирающихся на данные в курсе методы.
Напоминание основных понятий, которые будут активно использоваться в следующих лекциях. Основные операции с вероятностями (правило суммы, произведения, формула Байеса). Понятия мат. ожидание и матрицы ковариаций. Нормальное распределение. Независимость событий. Маргинализация (исключение переменной). Метод максимального правдоподобия, МАР-оценивание на примере нормального распределения. Матричная нотация (скалярное произведение, следы матриц, квадратичные формы, дифференцирование по вектору). Правило множителей Лагранжа с ограничениями в виде равенств и неравенств.
Основные графические модели
Байесовские сети. Элементарные способы работы с байесовскими сетями. Марковские сети. Потенциалы на кликах. Примеры использования марковских сетей для анализа изображений. Ликбез: независимость случайных событий. Условная вероятность. Условная независимость.
Марковские сети и дискретная оптимизация
Энергетическая формулировка задач компьютерного зрения. Разрезы графов, алгоритмы нахождения максимального потока. Интерактивная сегментация изображений. Энергия, которую можно минимизировать с помощью разрезов графов. Многоуровневые разрезы графов. Приближенная минимизация энергии с помощью разрезов графов. Алгоритм, основанный на замене. Примеры минимизируемых энергий. Сегментация видео. Сшивка изображений. Трехмерная реконструкция.
Презентация с тьюториала на Графиконе 2009 по разрезам графов
Методы настройки марковских случайных полей
Методы обучения в марковских случайных полях. Применение для семантической сегментации изображений, распознавания объектов с учетом контекста и трехмерной реконструкции.
Алгоритмы обмена сообщениями. Belief propagation и Loopy belief propagation.
Приближенные методы вывода в графических моделях
Алгоритмы обмена сообщениями на графах. Алгоритмы Belief Propagation и Tree-ReWeighted Belief Propagation.
Презентация лекции Владимира Колмогорова (PDF, 209 Кб)
Расширения разрезов графов для сегментации изображений
Расширения разрезов графов для сегментации изображений. Branch-and-Mincut. Bounding box prior for interactive segmentation.
Презентация лекции Виктора Лемпицкого (PDF, 5.58 Мб) (PPTX, 13 Мб)
Часть 2. Графические модели для анализа и распознавания сигналов.
Скрытые марковские модели. Алгоритм сегментации сигнала
Примеры задач сегментации сигналов. Обучение НММ с учителем. Поиск наиболее вероятной последовательности состояний. ЕМ-алгоритм и его использование в анализе графических моделей.
Обучение СММ без учителя
Алгоритм Баума-Уэлша для подсчета условного распределения скрытой переменной в отдельной точке. ЕМ-алгоритм для обучения НММ без учителя. Особенности численной реализации на ЭВМ. Модификации НММ (НММ высших порядков, факториальные НММ, многопоточные НММ, НММ ввода-вывода). Примеры использования НММ.
Видео-лекция (часть 1) Видео-лекция (часть 2)
Методы фильтрации данных
Линейные динамические системы, фильтр Калмана. Настройка параметров фильтра Калмана. Уравнения Рауса-Тунга-Штрибеля. Расширенный фильтр Калмана, пример использования.
Методы Монте Карло с марковскими цепями
Взятие интегралов методами Монте-Карло, голосование по апостериорному распределению вместо точечного решающего правила. Схема Гиббса. Гибридные методы Монте-Карло. Использование методов Монте Карло на примере фильтра частиц.
Использование методов обработки сигналов в задачах анализа поведения
Задачи одиночного/множественного трекинга лабораторных животных. Определение числа особей в блобе. Алгоритм разделения особей. Идентификация животных и определение ключевых точек. Сегментация на поведенческие акты.
Презентация (PDF, 5.39Мб) (Для просмотра необходим Acrobat Reader 9 и выше).
Часть 3. Методы понижения размерности.
Методы понижения размерности
Метод главных компонент. Вероятностный РСА. Анализ независимых компонент. Нелинейное уменьшение размерности.
Модель активных контуров
Модель активных контуров и примеры ее применения в задачах компьютерного зрения.
Расписание занятий
В 2009 году курс читается по четвергам на факультете ВМиК МГУ, в ауд. 671, начало в 18-05.
Дата | Занятие |
---|---|
10 сентября 2009 | Лекция 1 «Введение в курс. Напоминание известных математических фактов для последующих лекций» |
17 сентября 2009 | Лекция 2 «Графические модели. Общее представление» |
24 сентября 2009 | Лекция 3 «Минимизация энергии с помощью разрезов графов» |
1 октября 2009 | Лекция 4 «Алгоритмы обмена сообщениями. Методы настройки потенциалов случайных полей» |
8 октября 2009 | Лекция 5 «Алгоритмы обмена сообщениями в циклических графах. Tree-reweighted message passing» |
15 октября 2009 | Лекция 6 «Расширения разрезов графов для сегментации изображений. Branch-and-Mincut. Bounding box prior for interactive segmentation» |
22 октября 2009 | Лекция 7 «Скрытые марковские модели. Обучение с учителем. ЕМ-алгоритм.» |
29 октября 2009 | Лекция 8 «Скрытые марковские модели. Обучение без учителя.» |
5 ноября 2009 | Лекция 9 «Модель активных контуров и примеры ее применения в задачах компьютерного зрения.» |
12 ноября 2009 | Лекция 10 «Линейные динамические системы. Фильтр Калмана.» |
19 ноября 2009 | Лекция 11 «Методы Монте-Карло с марковскими цепями. Фильтр частиц.» |
26 ноября 2009 | Лекция 12 «Практические примеры задач. Анализ поведения животных.» |
3 декабря 2009 | Лекция 13 «Методы понижения размерности» |
10 декабря 2009 | Обзор курса. Консультация перед экзаменом. |
17 декабря 2009 | Экзамен |
Практические задания по курсу
Для успешной сдачи спецкурса необходимо выполнить все практические задания, а также сдать экзамен. Выполненные практические задания следует загружать сюда. Там же будут доступны результаты проверки заданий.
Задание 1. Минимизация энергии с помощью разрезов графа. Описание задания доступно здесь.
Задание 2. Скрытые марковские модели. Комментарии к заданию 2 (PDF, 327Кб)
Оценка за курс
В этом году оценка за курс будет вычисляться по формуле 0.25*(оценка за первое задание)+0.25*(оценка за второе задание)+0.5*(оценка за экзамен). При этом оценка за курс будет выставляться только тем, кто успешно справился с обоими практическими заданиями + сдал экзамен.
Участник | Группа | Задание 1 | Задание 2 | Экзамен | Итоговая оценка | |
---|---|---|---|---|---|---|
Вариант | Оценка | |||||
Новиков Павел Александрович | 203 | 5.0 | 3 | Задание не получено | ||
Дударенко Марина Алексеевна | 317 | 5.0 | 1 | 4.0 | ||
Тихонов Андрей Александрович | 317 | 5.0 | 2 | 3.0 | ||
Ермишин Федор Дмитриевич | 321 | 4.5 | 2 | Задание не получено | ||
Кухаренко Артем Игоревич | 321 | 5.5 | 3 | 4.0 | ||
Воронов Александр Александрович | 421 | 5.0 | 1 | Задание не получено | ||
Лукина Татьяна Михайловна | 421 | 4.5 | 2 | 4.5 | ||
Потапов Дмитрий Борисович | 421 | 4.5 | 3 | 4.0 | ||
Третьяк Елена Викторовна | 421 | 4.5 | 1 | 4.0 | ||
Блажевич Ксения Игоревна | 422 | 5.0 | 2 | 4.0 | ||
Ломакин Василий Дмитриевич | 517 | 5.5 | 3 | 5.0 | ||
Одинокова Евгения Андреевна | 517 | 5.0 | 2 | 4.0 | ||
Юданов Анатолий Александрович | 525 | 5.0 | 1 | 4.0 |
Литература
- Bishop C.M. Pattern Recognition and Machine Learning. Springer, 2006.
- Mackay D.J.C. Information Theory, Inference, and Learning Algorithms. Cambridge University Press, 2003.
- Jordan M.I. (Ed.) Learning in graphical models. Cambridge MA: MIT Press, 1999
- Cowell R.G., Dawid A.P., Lauritzen S.L., Spiegelhalter D.J. Probabilistic networks and expert systems. Berlin: Springer, 1999.
См. также
Страница курса на сайте лаборатории компьютерной графики и мультимедиа ВМиК МГУ
Курс «Байесовские методы машинного обучения»