Связанный Байесовский вывод
Материал из MachineLearning.
(→Литература) |
|||
(2 промежуточные версии не показаны) | |||
Строка 31: | Строка 31: | ||
По теореме Байеса мы связываем правдоподобие P<tex>(H_1|D)</tex> модели <tex>H_1</tex> при фиксированных данных, | По теореме Байеса мы связываем правдоподобие P<tex>(H_1|D)</tex> модели <tex>H_1</tex> при фиксированных данных, | ||
вероятность <tex>P(D|H_1)</tex> получения данных с этой моделью и априорное правдоподобие <tex>P(H_1)</tex> модели <tex>H_1</tex>. | вероятность <tex>P(D|H_1)</tex> получения данных с этой моделью и априорное правдоподобие <tex>P(H_1)</tex> модели <tex>H_1</tex>. | ||
- | Так как значение нормирующего множителя <tex>P(D)={\sum\limits_{j=1}^nP(D|H_j)P(H_j)}</tex> для | + | Так как значение нормирующего множителя <tex>P(D)={\sum\limits_{j=1}^nP(D|H_j)P(H_j)}</tex> для обеих моделей одинаково, |
то отношение правдоподобия моделей <tex>H_1</tex> и <tex>H_2</tex> имеет вид | то отношение правдоподобия моделей <tex>H_1</tex> и <tex>H_2</tex> имеет вид | ||
<center><tex>\frac{P(H_1|D)}{P(H_2|D)}=\frac{P(H_1)P(D|H_1)}{P(H_2)P(D|H_2)}.</tex> (1)</center> | <center><tex>\frac{P(H_1|D)}{P(H_2|D)}=\frac{P(H_1)P(D|H_1)}{P(H_2)P(D|H_2)}.</tex> (1)</center> | ||
Строка 95: | Строка 95: | ||
При отыскании параметров на практике обычно применяют оптимизационные методы типа [[алгоритм Левенберга-Марквардта|алгоритма Левенберга-Марквардта]], | При отыскании параметров на практике обычно применяют оптимизационные методы типа [[алгоритм Левенберга-Марквардта|алгоритма Левенберга-Марквардта]], | ||
чтобы получить наиболее вероятные параметры <tex>\mathbf{w}_{MP}</tex>. | чтобы получить наиболее вероятные параметры <tex>\mathbf{w}_{MP}</tex>. | ||
- | (Различают наиболее вероятные параметры <tex>\mathbf{w}_{MP}</tex> выводятся на первом уровне как аргумент функции вероятности и | + | (Различают наиболее вероятные параметры <tex>\mathbf{w}_{MP}</tex>, которые выводятся на первом уровне как аргумент функции вероятности, и |
наиболее правдоподобные параметры <tex>\mathbf{w}_{ML}</tex> , которые отыскиваются как аргумент функции наибольшего правдоподобия.) | наиболее правдоподобные параметры <tex>\mathbf{w}_{ML}</tex> , которые отыскиваются как аргумент функции наибольшего правдоподобия.) | ||
Строка 165: | Строка 165: | ||
Множитель Оккама есть степень сжатия пространства параметров модели при появлении данных. | Множитель Оккама есть степень сжатия пространства параметров модели при появлении данных. | ||
Модель <tex>H_i</tex> может быть представлена семейство параметрических функций, из которых фиксируется одна, как только появляются данные. | Модель <tex>H_i</tex> может быть представлена семейство параметрических функций, из которых фиксируется одна, как только появляются данные. | ||
- | Множитель есть число, обратное количеству таких функций (для | + | Множитель есть число, обратное количеству таких функций (для конечного их числа). |
- | Логарифм множителя Оккама | + | Логарифм множителя Оккама есть мера количества информации о параметрах модели, которая будет получена при появлении данных. |
На рисунке показаны три модели, <tex>H_1, H_2</tex> и <tex>H_3</tex>, которые имеют равные априорные вероятности. | На рисунке показаны три модели, <tex>H_1, H_2</tex> и <tex>H_3</tex>, которые имеют равные априорные вероятности. | ||
Строка 196: | Строка 196: | ||
Поэтому, чтобы условная вероятность отвечала условиям нормировки, используют нормирующий множитель: | Поэтому, чтобы условная вероятность отвечала условиям нормировки, используют нормирующий множитель: | ||
<center><tex>P(D|H)=\frac{P(HD)}{P(H)}.</tex></center> | <center><tex>P(D|H)=\frac{P(HD)}{P(H)}.</tex></center> | ||
- | + | Согласно формуле умножения вероятностей, числитель этой дроби равен | |
<center><tex>P(HD)=P(D|H)P(H).</tex></center> | <center><tex>P(HD)=P(D|H)P(H).</tex></center> | ||
Разбиение множества <tex>\Omega</tex> на полную группу несовместимых | Разбиение множества <tex>\Omega</tex> на полную группу несовместимых | ||
Строка 217: | Строка 217: | ||
* [[Гипотеза порождения данных]] | * [[Гипотеза порождения данных]] | ||
* [[Метод наибольшего правдоподобия]] | * [[Метод наибольшего правдоподобия]] | ||
+ | * [[Аппроксимация Лапласа]] | ||
+ | * [[Аппроксимация Лапласа (пример)]] | ||
== Литература == | == Литература == |
Текущая версия
Cвязанный Байесовский вывод — метод сравнения регрессионных моделей основанный на анализе их пространства параметров. Этот метод использует классический Байесовский вывод дважды: для вычисления апостериорной вероятности параметров модели и для вычисления апостериорной вероятности самой модели. Связанность заключается в том, что оба вывода используют общий сомножитель, называемый доcтоверностью модели. Неотъемлемой частью этого метода является анализ пространства параметров модели и зависимости целевой функции от значений параметров. Результатом такого анализа является возможность оценить насколько важны отдельные параметры модели для аппроксимации данных. Cвязанный Байесовский вывод используется как в задачах регрессии, так и в задачах классификации.
Содержание |
Сравнение моделей
При сравнении моделей используется правило бритвы Оккама в следующей формулировке: Совместный Байесовский вывод автоматически количественно выполняет правило Оккама. Бритва Оккама — принцип предпочтения простых моделей (теорий, гипотез) сложным. Если несколько моделей одинаково хорошо описывают наблюдения, принцип Оккама рекомнедует выбор простейшей модели.
Теорема Байеса говорит о том, что наиболее вероятными будут те модели, которое наиболее точно предсказывают появление некоторых данных. Эта вероятность определяется нормализованной функцией распределения на пространстве данных . Вероятность появления данных при фиксированной модели называется правдоподобием модели .
Простая модель описывает ограниченное множество данных, что показано на рисунке функцией плотности распределения . Более сложная модель , имеющая, например, большее количество параметров, описывает (иначе говоря, приближает с некоторой точностью, не хуже заданной) большее множество данных. Это, согласно нормированию функции плотности распределения, означает, что в некоторой области простая модель будет более вероятной при условии, что обе модели имеют одинаковую априорную вероятность.
Найдем правдоподобие двух альтернативных моделей и , описывающих данные . По теореме Байеса мы связываем правдоподобие P модели при фиксированных данных, вероятность получения данных с этой моделью и априорное правдоподобие модели . Так как значение нормирующего множителя для обеих моделей одинаково, то отношение правдоподобия моделей и имеет вид
Отношение в правой части указывает на то, насколько велико априорное предпочтение модели модели . Отношение указывает насколько модель соответствует наблюдаемым данным лучше, чем модель .
Выражение (1) вводит правило Оккама следующим образом. Во-первых, возможно задать отношение так, чтобы оно отражало сложность моделей на основании некоторой дополнительной информации. Во-вторых, независимо от предыдущего способа задания критерия отбора моделей, это отношение автоматически выполняет правило Оккама. Действительно, если — более сложная модель, ее плотность распределения имеет меньшие значения, при том условии, что ее дисперсия больше. Если невязки, доставляемые обеими моделями равны, простая модель будет более вероятна, чем сложная модель . Таким образом, независимо от априорных предпочтений, вводится правило Оккама, согласно которому при равных априорных предпочтениях и равном соответствии предполагаемых моделей измеряемым данным, простая модель более вероятна, чем сложная.
Пример вычисления правдоподобия моделей
Рассмотрим последовательность Требуется предсказать следующие два числа и найти закономерность последовательности. Первый вариант: . Закономерность есть последующее число есть предыдущее плюс , иначе . Второй вариант: . Закономерность есть .
С одной стороны, возможно непосредственно назначить априорные вероятности для обеих моделей так, чтобы штрафовать более сложную модель. С другой стороны, возможно вычислить их правдоподобие, и чтобы определить, насколько хорошо обе функции описывают данные.
Модель зависит от двух параметров: добавляемого числа и от первого числа в последовательности. Пусть каждый из этих параметров принадлежит множеству . Так как только пара значений доставляют функцию, соответствующую данным , то вероятность появления данных при заданной модели равна
Для того, чтобы вычислить , требуется вычислить вероятность параметров в кубическом многочлене .
Эти параметры представлены с виде рациональных чисел (в противном случае обе эти модели были бы несравнимы). Пусть числители параметров, так же как и в предыдущем случае, принимают значения из множества а знаменатели — из множества . При вычислении вероятности принимается во внимание, что несколько способов представить дробь на заданных множествах. Например, . Вероятность равна
Отношение правдоподобия двух моделей (а значит и их апостериорных вероятностей при условии равенства априорных предпочтений), и составляет одну сорокамиллионную.
Два уровня Байесовского вывода
При создании моделей различают два уровня Байесовского вывода. На первом уровне предполагается, что рассматриваемая модель адекватна. Производится настройка параметров модели по данным. В результате получаются наиболее правдоподобные значения параметров и значения ошибок моделей при этих параметрах. Эта процедура повторяется для каждой модели. Задача, решаемая на втором уровне вывода — сравнение моделей. Результатом является упорядоченное множество моделей.
Каждая модель имеет вектор параметров . Задача первого уровня — получить оценку параметров модели при полученных данных . Согласно теореме Байеса, апостериорная вероятность параметров равна
Нормирующая константа обычно не принимается во внимание на первом уровне вывода. Однако она становится весьма важной на втором уровне вывода. Эта константа называется в англоязычной литературе evidenve то есть достоверность модели.
При отыскании параметров на практике обычно применяют оптимизационные методы типа алгоритма Левенберга-Марквардта, чтобы получить наиболее вероятные параметры . (Различают наиболее вероятные параметры , которые выводятся на первом уровне как аргумент функции вероятности, и наиболее правдоподобные параметры , которые отыскиваются как аргумент функции наибольшего правдоподобия.)
Ошибка (иногда называемая прогностической способностью) модели оценивается с помощью функции апостериорного распределения параметров модели.
Для оценки используется приближение рядом Тейлора логарифма апостериорного распределения функции
где , и отыскивается значение гессиана при значении весов максимального правдоподобия в окресности :
Таким образом, функция апостериорного распределения параметров модели может быть локально приближена с помощью матрицы , которая является матрицей ковариации в окресности значения ее параметров .
На втором уровне байесовского вывода требуется определить, какая модель наиболее адекватно описывает данные. Апостериорная вероятность -й модели задана как
Следует отметить, что сомножитель , включающий данные , есть достоверность модели , которая была названа ранее, в выражении (2), нормирующей константой. Достоверность модели может быть получено интегрированием функции правдоподобия по всему пространству параметров модели
Второй сомножитель — априорная вероятность над пространством моделей, определяет, насколько адекватной (cоответствующий английский термин — plausible) является модель до того, как появились данные. Основной проблемой Байесовского вывода является отсутствие объективных методов назначения априорной вероятности . Путь априорные вероятности всех моделей равны. Тогда модели ранжируются по значениям достоверности .
Чрезвычайно важное предположение, которое необходимо сделать для решения задачи вычисления правдоподобия, — предположение о том, что распределение имеет выраженный пик в окрестности наиболее вероятного значения .
На рисунке показано, как вычисляется множитель Оккама для модели с единственным параметром на оси абсцисс. Сплошной линией показано априорное распределение параметра с дисперсией . Апостериорное распределение показано пунктирной линией имеет единственный максимум в точке и имеет дисперсию .
Функцию распределения вероятности параметров модели приближают гауссианой, определенной в пространстве параметров. Для этого используется Аппроксимация Лапласа. Согласно этому методу, эта функция равна высоте пика подынтегрального выражения умноженной на ширину пика, .
Таким образом, достоверность модели находится с помощью оценок наибольшего правдоподобия параметров модели и множителя Оккама, принимающего значения на отрезке , который штрафует модель за ее параметры . Чем точнее была априорная оценка параметров, тем меньше штраф.
При аппроксимации Лапласа множитель Оккама может быть получен с помощью определителя ковариационной матрицы весов
где — гессиан ковариационной матрицы весов, вычисленный в точке . Аглоритмически, Байесовский метод сравнения моделей посредством вычисления достоверности не сложнее, чем задача настройки параметров каждой модели и оценки матрицы Гессе.
Итак, для того, чтобы отранжировать альтернативные модели по предпочтению, необходимо, воспользовавшись Байесовским выводом, вычислить достоверность . Байесовское сравнение моделей — это расширение метода выбора моделей по методу наибольшего правдоподобия. Достоверность возможно вычислить как для параметрических, так и для непараметических моделей.
Пример интепретации множителя Оккама
Переменная является апостериорной неопределенностью вектора параметров . Пусть априорное распределение является равномерным на некотором большом интервале и отражает множество значений, которые были возможны априори, согласно модели . Тогда и
Множитель Оккама есть степень сжатия пространства параметров модели при появлении данных. Модель может быть представлена семейство параметрических функций, из которых фиксируется одна, как только появляются данные. Множитель есть число, обратное количеству таких функций (для конечного их числа). Логарифм множителя Оккама есть мера количества информации о параметрах модели, которая будет получена при появлении данных.
На рисунке показаны три модели, и , которые имеют равные априорные вероятности. Каждая модель имеет один параметр (показан на осях абсцисс), причем параметрам назначены различные априорные области определения . Модель — наиболее «гибкая», или «сложная», с наибольшей априорной областью определения. Одномерное пространство данных показано на оси ординат. Для каждой модели назначено совместное распределение вероятности для данных и для параметров. Распределение показано облаками точек — случайных значений этой функции. Число точек для каждой из трех моделей одинаково, так как моделям были назначены одинаковые априорные вероятности.
Когда приходят набор данных (в данном примере это одна единственная точка на оси ординат), выводится апостериорное распределение параметров моделей. Апостериорное распределение показано пунктирной линией внизу. Сплошной линией показано априорное распределение параметров .
Для набора данных , показанных пунктирной горизонтальной линией, достоверность наиболее гибкой модели имеет меньшее значение, чем достоверность модели . Это происходит из-за того, что модель имеет меньшую область пересечения распределения вероятности с линиией , чем модель . В терминах распределения параметров, модель имеет меньшую достоверность, так как множитель Оккама для модели меньше, чем для модели . Самая простая модель имеет самую малую достоверность, так как хуже всего приближает данные . Модель слишком универсальна, ее множитель Оккама — штраф за универсальность модели — велик и поэтому она не является лучшей. Для полученного набора данных наиболее вероятна модель .
Формула Байеса, кратко
Условная вероятность есть вероятность события при условии наступления события . Из всех элементов множества элементарных событий, принадлежащих входят в лишь те события, которые принадлежат пересечению и . Эти элементы определяют . Но, если бы было нормировано, то равнялось бы . Поэтому, чтобы условная вероятность отвечала условиям нормировки, используют нормирующий множитель:
Согласно формуле умножения вероятностей, числитель этой дроби равен
Разбиение множества на полную группу несовместимых событий позволяет любое событие записать в виде
откуда
Пусть . Тогда из
вытекает
что после учета (3) при водит к формуле Байеса
Смотри также
- Регрессионный анализ
- Регрессионная модель
- Гипотеза порождения данных
- Метод наибольшего правдоподобия
- Аппроксимация Лапласа
- Аппроксимация Лапласа (пример)
Литература
- Bishop, C. M., Tipping, M. E. Bayesian regression and classification / Suykens, J., Horvath, G. et al., eds. Advances in Learning Theory: Methods, Models and Applications, Vol. 190. IOS Press, NATO Science Series III: Computer and Systems Sciences. 2000. P 267—285.
- Bishop, C. Pattern Recognition And Machine Learning. Springer. 2006.
- LeCun, Y., Denker, J. S., Solla, S. A. Optimal brain damage / Touretzky, D. S., ed. Advances in Neural Information Processing Systems. Morgan Kaufmann. 1990. P. 598—605.
- MacKay, D. Information, inference, learning algorithms. Cambridge University Press. 2003.
- MacKay, D. Hyperparameters: optimise or integrate out? / Heidberger, G., ed. Maximum entropy and Bayesian Methods. Santa Barbara, Dordrecht: Kluwer. 1993.
- MacKay, D. Choice of basis for Laplace approximation / Machine Learning, vol. 33(1), 1998.
- MacKay, D. Bayesian interpolation / Neural Computation 4(3). 1992. P. 415—447.
- MakKay, D. Hyperparameters: optimize, or integrate out? Neural Computation. 1999.
- Nabney, Yan T., Netlab: Algorithms for pattern recognition. Springer. 2004.
- Grunwald, P D., Myung, I. J. (eds.) Advances In Minimum Description Length: Theory And Applications. Springer. 2005.
- Burnham, K., Anderson, D. R. Model Selection and Multimodel Inference. Springer. 2002.
- Стрижов В. В. Методы индуктивного порождения регрессионных моделей. М.: ВЦ РАН. 2008. 55 с. Брошюра, PDF.
- Стрижов В.В., Крымова Е.А. Методы выбора регрессионных моделей. М.: ВЦ РАН, 2010. 60 с. Брошюра, PDF.