Аппроксимация Лапласа (пример)
Материал из MachineLearning.
(→Постановка задачи) |
|||
Строка 1: | Строка 1: | ||
- | '''Аппроксимация Лапласа''' - | + | '''Аппроксимация Лапласа''' - способ оценки параметров нахождения нормального распределения при апроксимации заданой плотности вероятности. |
==Сэмплирование== | ==Сэмплирование== | ||
- | '''Сэмплирование''' – | + | '''Сэмплирование''' – метод выбора подмножества наблюдаемых величин из данного множества, для дальнейшего его анализа. |
Одно из основных приминений методов сэмплирования заключается в оценке мат. ожидания сложных вероятностных распределений: <tex>E[f]=\int f(z)p(z) dz</tex>, для которых тяжело делать выборку непосредственно из распределения ''p(z)''. Однако, можно подсчитать значение ''p(z)'' в любой точке '''z'''. Один из наиболее простых методов подсчета мат. ожидаия – разбить ось z на равномерную сетку и подсчитать интеграл как сумму <tex>E[f]</tex> ≅<tex>\sum_{l=1}^{L} f(z^{(l)})p(z^{(l)}) dz</tex>. Существует несколько методов сэмплирования для создания подходящей выборки длинны ''L'' ???. | Одно из основных приминений методов сэмплирования заключается в оценке мат. ожидания сложных вероятностных распределений: <tex>E[f]=\int f(z)p(z) dz</tex>, для которых тяжело делать выборку непосредственно из распределения ''p(z)''. Однако, можно подсчитать значение ''p(z)'' в любой точке '''z'''. Один из наиболее простых методов подсчета мат. ожидаия – разбить ось z на равномерную сетку и подсчитать интеграл как сумму <tex>E[f]</tex> ≅<tex>\sum_{l=1}^{L} f(z^{(l)})p(z^{(l)}) dz</tex>. Существует несколько методов сэмплирования для создания подходящей выборки длинны ''L'' ???. | ||
Строка 9: | Строка 9: | ||
Задана выборка — множество <tex>X^N=\{{x}_1,\ldots,{x}_N|x\in\R^M\}</tex> значений свободных переменных и множество <tex>\{y_1,\ldots, y_N| y\in\R\}</tex> соответствующих им значений зависимой переменной. | Задана выборка — множество <tex>X^N=\{{x}_1,\ldots,{x}_N|x\in\R^M\}</tex> значений свободных переменных и множество <tex>\{y_1,\ldots, y_N| y\in\R\}</tex> соответствующих им значений зависимой переменной. | ||
- | Необходимо для выбранной регрессионной модели <tex>f(\mathbf{w},\mathbf{x})</tex>показать зависимость среднеквадратичной ошибки от значений параметров модели: <tex>SSE=SSE(w)</tex>; построить график и сделать апроксимацию Лапласа для | + | Необходимо для выбранной регрессионной модели <tex>f(\mathbf{w},\mathbf{x})</tex>показать зависимость среднеквадратичной ошибки от значений параметров модели: <tex>SSE=SSE(w)</tex>; построить график и сделать апроксимацию Лапласа для нее; найти расстояния между получеными зависимостями, используя [http://en.wikipedia.org/wiki/Kullback%E2%80%93Leibler_divergence расстояние Кульбака - Лейблера]. |
==Описание алгоритма== | ==Описание алгоритма== |
Версия 19:23, 21 ноября 2010
Аппроксимация Лапласа - способ оценки параметров нахождения нормального распределения при апроксимации заданой плотности вероятности.
Содержание |
Сэмплирование
Сэмплирование – метод выбора подмножества наблюдаемых величин из данного множества, для дальнейшего его анализа. Одно из основных приминений методов сэмплирования заключается в оценке мат. ожидания сложных вероятностных распределений: , для которых тяжело делать выборку непосредственно из распределения p(z). Однако, можно подсчитать значение p(z) в любой точке z. Один из наиболее простых методов подсчета мат. ожидаия – разбить ось z на равномерную сетку и подсчитать интеграл как сумму ≅. Существует несколько методов сэмплирования для создания подходящей выборки длинны L ???.
Постановка задачи
Задана выборка — множество значений свободных переменных и множество соответствующих им значений зависимой переменной. Необходимо для выбранной регрессионной модели показать зависимость среднеквадратичной ошибки от значений параметров модели: ; построить график и сделать апроксимацию Лапласа для нее; найти расстояния между получеными зависимостями, используя расстояние Кульбака - Лейблера.
Описание алгоритма
метрика Кульбака - Лейблера:
Вычислительный эксперимент
Обозначим плоность распределения SSE как , а его апроксимация лапласса
Пример 1
Задуманная функция . Берем линейную регрессионную модель с 2-мя параметрами: . Используя МНК находим оптимальное значение и (при которых SSE минимально).
При фиксированном задаем различные значение (500 рандомных значений на отрезке [-1;2]) и строим зависимость:
.
Повторим эксперимент, только теперь варируем сразу оба параметра и :
апроксимация лапласса:
На рис.2 наблюдается зависимость между коэффициентами и . Следовательно, ковариационная матрица cov(w_1,w_2) не будет диагональной.
Смотри также
Литература
Данная статья является непроверенным учебным заданием.
До указанного срока статья не должна редактироваться другими участниками проекта MachineLearning.ru. По его окончании любой участник вправе исправить данную статью по своему усмотрению и удалить данное предупреждение, выводимое с помощью шаблона {{Задание}}. См. также методические указания по использованию Ресурса MachineLearning.ru в учебном процессе. |