Структурные методы анализа изображений и сигналов (курс лекций) / Задание 2
Материал из MachineLearning.
(→Формулировка задания) |
|||
Строка 11: | Строка 11: | ||
=== Вариант 1 === | === Вариант 1 === | ||
==== Формулировка задания ==== | ==== Формулировка задания ==== | ||
+ | Рассматривается классическая скрытая марковская модель первого порядка, в которой полное правдоподобие задается как: | ||
+ | <math>$$p(X,T│Θ)=p(t_1) \prod_{n=2}^Np(t_n |t_{n-1} ) \prod_{n=1}^Np(x_n |t_n )$$</math> | ||
+ | Пусть скрытая компонента в произвольный момент времени может принимать значения из множества {1,…,К}. Априорное распределение на значение скрытой компоненты в первый момент времени задается вектором w1,…,wK, причем все wi неотрицательны и в сумме дают единицу. Распределение p(t_n |t_(n-1) ) задается матрицей перехода A размера K x K, где в ij-ой позиции стоит вероятность перехода из состояния i в состояние j. Все элементы этой матрицы неотрицательны и сумма элементов по каждой строке равна единице. Модель генерации данных задается нормальными распределениями со своими значениями вектора мат.ожидания и матрицы ковариации для каждого состояния. | ||
+ | Таким образом, набор параметров модели определяется вектором w, матрицей A, значениями векторов математических ожиданий и матриц ковариаций для каждого состояния. | ||
+ | Для выполнения задания необходимо реализовать: | ||
+ | Алгоритм Витерби для сегментации сигнала при известных значениях параметров | ||
+ | EM-алгоритм обучения СММ при заданном числе состояний K. | ||
+ | Алгоритм генерации выборки из вероятностной модели СММ | ||
+ | Среда реализации – MATLAB. Неэффективная реализация кода может негативно отразиться на оценке. | ||
+ | |||
==== Спецификация реализуемых функций ==== | ==== Спецификация реализуемых функций ==== | ||
==== Оформление задания ==== | ==== Оформление задания ==== |
Версия 13:28, 30 октября 2009
Статья в настоящий момент дорабатывается. Д.А. Кропотов 14:18, 30 октября 2009 (MSK) |
Содержание |
Задание 2. Скрытые марковские модели.
Начало: 31 октября 2009
Срок сдачи: 13 октября 2009
Задание состоит из трех вариантов. Распределение вариантов задания по студентам см. здесь.
Вариант 1
Формулировка задания
Рассматривается классическая скрытая марковская модель первого порядка, в которой полное правдоподобие задается как: <math>$$p(X,T│Θ)=p(t_1) \prod_{n=2}^Np(t_n |t_{n-1} ) \prod_{n=1}^Np(x_n |t_n )$$</math> Пусть скрытая компонента в произвольный момент времени может принимать значения из множества {1,…,К}. Априорное распределение на значение скрытой компоненты в первый момент времени задается вектором w1,…,wK, причем все wi неотрицательны и в сумме дают единицу. Распределение p(t_n |t_(n-1) ) задается матрицей перехода A размера K x K, где в ij-ой позиции стоит вероятность перехода из состояния i в состояние j. Все элементы этой матрицы неотрицательны и сумма элементов по каждой строке равна единице. Модель генерации данных задается нормальными распределениями со своими значениями вектора мат.ожидания и матрицы ковариации для каждого состояния. Таким образом, набор параметров модели определяется вектором w, матрицей A, значениями векторов математических ожиданий и матриц ковариаций для каждого состояния. Для выполнения задания необходимо реализовать: Алгоритм Витерби для сегментации сигнала при известных значениях параметров EM-алгоритм обучения СММ при заданном числе состояний K. Алгоритм генерации выборки из вероятностной модели СММ Среда реализации – MATLAB. Неэффективная реализация кода может негативно отразиться на оценке.