Аппроксимация Лапласа
Материал из MachineLearning.
(→Литература) |
(→Описание) |
||
(2 промежуточные версии не показаны) | |||
Строка 3: | Строка 3: | ||
==Описание== | ==Описание== | ||
===Постановка задачи=== | ===Постановка задачи=== | ||
- | Пусть | + | Пусть задано ненормированное распределение <tex>P^*(x)</tex>. Необходимо найти нормировочную константу |
<tex>Z_P=\int_{-\infty}^{\infty} P(x) dx,</tex> | <tex>Z_P=\int_{-\infty}^{\infty} P(x) dx,</tex> | ||
- | причем | + | причем это распеделение имеет максимум в точке <tex>x_0</tex>. |
===Применение метода=== | ===Применение метода=== | ||
Разложим ее по Тейлору: | Разложим ее по Тейлору: | ||
Строка 39: | Строка 39: | ||
==Замечания== | ==Замечания== | ||
+ | [[Изображение:Model5Sw.png|100px|thumb|right|Пример аппроксимируемой функции]] | ||
Необходимо отметить, что такой способ оценки нормирующего зависит от того, рассматриваем мы [[Случайная величина|случайную величину]] <tex>x</tex> или произвольную нелинейную функцию от нее <tex>u(x)</tex>. Действительно, <tex>P(u)</tex> имеет вид <tex>P(u) = P(x)\frac{\partial x}{\partial u}</tex>, | Необходимо отметить, что такой способ оценки нормирующего зависит от того, рассматриваем мы [[Случайная величина|случайную величину]] <tex>x</tex> или произвольную нелинейную функцию от нее <tex>u(x)</tex>. Действительно, <tex>P(u)</tex> имеет вид <tex>P(u) = P(x)\frac{\partial x}{\partial u}</tex>, | ||
и, вообще говоря, нормировочный коэффициент <tex>Z_P</tex> будет отличаться, если метод будет использоваться для такой преобразованной случайной величины. Такого эффекта не наблюдалось бы, если бы оценка нормировочного коэффициента была точна. Мы либо должны учитывать этот факт при применении аппроксимации Лапласа, либо пытаться каким-то образом искать такую функцию <tex>u(x)</tex>, для которой данная оценка наиболее точна. | и, вообще говоря, нормировочный коэффициент <tex>Z_P</tex> будет отличаться, если метод будет использоваться для такой преобразованной случайной величины. Такого эффекта не наблюдалось бы, если бы оценка нормировочного коэффициента была точна. Мы либо должны учитывать этот факт при применении аппроксимации Лапласа, либо пытаться каким-то образом искать такую функцию <tex>u(x)</tex>, для которой данная оценка наиболее точна. | ||
+ | |||
+ | ==См. также== | ||
+ | * [[Аппроксимация Лапласа (пример)]] | ||
+ | * [[Связанный Байесовский вывод]] | ||
+ | * [[Метод наибольшего правдоподобия]] | ||
==Литература== | ==Литература== |
Текущая версия
Содержание |
Определение
Аппроксимация Лапласа -- способ оценивания нормировочного коэффициента для ненормированной плотности вероятности.
Описание
Постановка задачи
Пусть задано ненормированное распределение . Необходимо найти нормировочную константу
причем это распеделение имеет максимум в точке .
Применение метода
Разложим ее по Тейлору:
где
Тогда можно аппроксимировать ненормированным гауссианом:
для такой аппроксимации плотности вероятности запишем нормирующий коэффициент:
Многомерная случайная величина
Можно получить аналогичный результат, если – векторная величина. Введем обозначение
Тогда разложение по Тейлору логарифма плотности вероятности имеет вид:
отбрасывая члены с порядком по выше квадратичного, получаем нормировочный коэффициент:
Замечания
Необходимо отметить, что такой способ оценки нормирующего зависит от того, рассматриваем мы случайную величину или произвольную нелинейную функцию от нее . Действительно, имеет вид , и, вообще говоря, нормировочный коэффициент будет отличаться, если метод будет использоваться для такой преобразованной случайной величины. Такого эффекта не наблюдалось бы, если бы оценка нормировочного коэффициента была точна. Мы либо должны учитывать этот факт при применении аппроксимации Лапласа, либо пытаться каким-то образом искать такую функцию , для которой данная оценка наиболее точна.
См. также
Литература
1. David J.C. MacKay Information Theory, Inference, and Learning Algorithms. — Cambridge University Press, 2005. — С. 341-342.