EM алгоритм (пример)

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Литература)
Строка 32: Строка 32:
* Bishop, C. Pattern Recognition And Machine Learning. Springer. 2006.
* Bishop, C. Pattern Recognition And Machine Learning. Springer. 2006.
-
{{Задание|Никита Спирин|В.В. Стрижов|22 апреля 2009}}
+
{{Задание|Никита Спирин|В.В. Стрижов|28 мая 2009}}
[[Категория:Учебные материалы]]
[[Категория:Учебные материалы]]

Версия 13:15, 23 апреля 2009

Содержание

EM-алгоритм — общий метод нахождения оценок функции правдоподобия в моделях со скрытыми переменными. В данной статье рассматривается интерпретация смеси гауссовых распределений в терминах дискретных скрытых переменных.

Постановка задачи

Задана выборка \{(\mathbf{x}_i,y_i)\}_{i=1}^\ell, в которой

TODO

Требуется найти такие значения параметров \mathbf{w}, которые доставляли бы минимум норме вектора невязки \|f(\mathbf{w},\mathbf{x})-\mathbf{y}\|_2.

Описание алгоритма

Вектор \mathbf{w} определяется с решение нормального уравнения

\mathbf{w}=(X^TX)^{-1}X^T\mathbf{y}.

Вычислительный эксперимент

Цель вычислительного эксперимента -

y = 1;
Это подпись
Это подпись

Исходный код

Смотри также


Литература

  • Bishop, C. Pattern Recognition And Machine Learning. Springer. 2006.


Данная статья является непроверенным учебным заданием.
Студент: Участник:Никита Спирин
Преподаватель: Участник:В.В. Стрижов
Срок: 28 мая 2009

До указанного срока статья не должна редактироваться другими участниками проекта MachineLearning.ru. По его окончании любой участник вправе исправить данную статью по своему усмотрению и удалить данное предупреждение, выводимое с помощью шаблона {{Задание}}.

См. также методические указания по использованию Ресурса MachineLearning.ru в учебном процессе.

Личные инструменты