Структурные методы анализа изображений и сигналов (курс лекций) / Задание 2
Материал из MachineLearning.
Статья в настоящий момент дорабатывается. Д.А. Кропотов 14:18, 30 октября 2009 (MSK) |
Содержание |
Задание 2. Скрытые марковские модели.
Начало: 31 октября 2009
Срок сдачи: 13 октября 2009
Задание состоит из трех вариантов. Распределение вариантов задания по студентам см. здесь.
Вариант 1
Формулировка задания
Рассматривается классическая скрытая марковская модель первого порядка, в которой полное правдоподобие задается как: <math>$$p(X,T│Θ)=p(t_1) \prod_{n=2}^Np(t_n |t_{n-1} ) \prod_{n=1}^Np(x_n |t_n )$$</math> Пусть скрытая компонента в произвольный момент времени может принимать значения из множества {1,…,К}. Априорное распределение на значение скрытой компоненты в первый момент времени задается вектором w1,…,wK, причем все wi неотрицательны и в сумме дают единицу. Распределение p(t_n |t_(n-1) ) задается матрицей перехода A размера K x K, где в ij-ой позиции стоит вероятность перехода из состояния i в состояние j. Все элементы этой матрицы неотрицательны и сумма элементов по каждой строке равна единице. Модель генерации данных задается нормальными распределениями со своими значениями вектора мат.ожидания и матрицы ковариации для каждого состояния. Таким образом, набор параметров модели определяется вектором w, матрицей A, значениями векторов математических ожиданий и матриц ковариаций для каждого состояния. Для выполнения задания необходимо реализовать: Алгоритм Витерби для сегментации сигнала при известных значениях параметров EM-алгоритм обучения СММ при заданном числе состояний K. Алгоритм генерации выборки из вероятностной модели СММ Среда реализации – MATLAB. Неэффективная реализация кода может негативно отразиться на оценке.