Аппроксимация Лапласа (пример)
Материал из MachineLearning.
(→Сэмплирование) |
(→Постановка задачи) |
||
Строка 16: | Строка 16: | ||
# показать зависимость среднеквадратичной ошибки от значений параметров модели: <tex>SSE=SSE(w)</tex>; | # показать зависимость среднеквадратичной ошибки от значений параметров модели: <tex>SSE=SSE(w)</tex>; | ||
# построить график и сделать апроксимацию Лапласа для нее; | # построить график и сделать апроксимацию Лапласа для нее; | ||
- | # найти расстояния между получеными зависимостями, используя [http://en.wikipedia.org/wiki/Kullback%E2%80%93Leibler_divergence расстояние Кульбака - Лейблера]. | + | # найти расстояния между получеными зависимостями, используя [[http://en.wikipedia.org/wiki/Kullback%E2%80%93Leibler_divergence | расстояние Кульбака - Лейблера]]. |
==Описание алгоритма== | ==Описание алгоритма== |
Версия 21:39, 22 ноября 2010
Аппроксимация Лапласа - способ оценки параметров нахождения нормального распределения при апроксимации заданой плотности вероятности.
Содержание |
Сэмплирование
Сэмплирование – метод выбора подмножества наблюдаемых величин из данного множества, для дальнейшего его анализа. Одно из основных приминений методов сэмплирования заключается в оценке математического ожидания сложных вероятностных распределений:
для которых тяжело делать выборку непосредственно из распределения p(z). Однако, можно подсчитать значение p(z) в любой точке z. Один из наиболее простых методов подсчета математического ожидаия – разбить ось z на равномерную сетку и подсчитать интеграл как сумму
Существует несколько методов сэмплирования для создания выборки длинны L [1].
Постановка задачи
Задана выборка — множество значений свободных переменных и множество
соответствующих им значений зависимой переменной.
Необходимо для выбранной регрессионной модели
- показать зависимость среднеквадратичной ошибки от значений параметров модели:
;
- построить график и сделать апроксимацию Лапласа для нее;
- найти расстояния между получеными зависимостями, используя [| расстояние Кульбака - Лейблера].
Описание алгоритма
Расстояние Кульбака - Лейблера:
Вычислительный эксперимент
Обозначим плоность распределения SSE как , а его апроксимация лапласса
Пример 1
Задуманная функция . Берем линейную регрессионную модель с двумя параметрами:
.
Используя метод наименьших квадратов находим оптимальное значение
и
(при которых SSE минимально).
При фиксированном задаем различные значение
(500 случайных значений на отрезке [-1;2]) и строим зависимость:
.
Повторим эксперимент, только теперь варируем сразу оба параметра и
:
апроксимация Лапласса:
На рис.2 наблюдается зависимость между коэффициентами и
. Следовательно, ковариационная матрица
не будет диагональной.
Смотри также
Литература
- Bishop, C. Pattern Recognition And Machine Learning. Springer. 2006.
Примечания
![]() | Данная статья является непроверенным учебным заданием.
До указанного срока статья не должна редактироваться другими участниками проекта MachineLearning.ru. По его окончании любой участник вправе исправить данную статью по своему усмотрению и удалить данное предупреждение, выводимое с помощью шаблона {{Задание}}. См. также методические указания по использованию Ресурса MachineLearning.ru в учебном процессе. |