Участник:Burnaevevgeny
Материал из MachineLearning.
(→Современная непараметрическая байесовская статистика) |
(→Современная непараметрическая байесовская статистика) |
||
(8 промежуточных версий не показаны.) | |||
Строка 8: | Строка 8: | ||
== Современная непараметрическая байесовская статистика == | == Современная непараметрическая байесовская статистика == | ||
5 курс, программа "Математические методы оптимизации и стохастики" | 5 курс, программа "Математические методы оптимизации и стохастики" | ||
+ | |||
Время проведения: суббота, с 15.20 до 18.10 | Время проведения: суббота, с 15.20 до 18.10 | ||
+ | |||
Место проведения: ИППИ РАН, 615 аудитория | Место проведения: ИППИ РАН, 615 аудитория | ||
Строка 35: | Строка 37: | ||
'''Программа курса''' | '''Программа курса''' | ||
- | + | ||
+ | 1. Введение в байесовскую статистику | ||
::::* Пространство априорных распределений. Виды априорных распределений: информативное, неинформативное, сопряженное, Джефри. Априорное распределение с геометрической точки зрения. | ::::* Пространство априорных распределений. Виды априорных распределений: информативное, неинформативное, сопряженное, Джефри. Априорное распределение с геометрической точки зрения. | ||
::::* Состоятельность и устойчивость априорного распределения. Теорема Дуба и условия Вальда. | ::::* Состоятельность и устойчивость априорного распределения. Теорема Дуба и условия Вальда. | ||
::::* Асимптотическая нормальность апостериорного распределения и теорема Бернштейна-фон Мизеса. | ::::* Асимптотическая нормальность апостериорного распределения и теорема Бернштейна-фон Мизеса. | ||
::::* Перестановочность и теорема де Финетти. | ::::* Перестановочность и теорема де Финетти. | ||
- | + | 2. Непараметрическая байесовская статистика | |
::::* Пространство M вероятностных распределений на конечном множестве и на R. Расстояния между распределениями. | ::::* Пространство M вероятностных распределений на конечном множестве и на R. Расстояния между распределениями. | ||
::::* Пространство априорных распределений для вероятностных распределений из M. | ::::* Пространство априорных распределений для вероятностных распределений из M. | ||
Строка 46: | Строка 49: | ||
::::* Случайный процесс Дирихле. Свойства случайного процесса Дирихле. Использование случайного процесса Дирихле как априорного распределения. | ::::* Случайный процесс Дирихле. Свойства случайного процесса Дирихле. Использование случайного процесса Дирихле как априорного распределения. | ||
::::* Теоремы о состоятельности непараметрической байесовской статистики. | ::::* Теоремы о состоятельности непараметрической байесовской статистики. | ||
- | + | 3. Приложения непараметрической байесовской статистики | |
::::* Байесовская непараметрическая оценка плотности. | ::::* Байесовская непараметрическая оценка плотности. | ||
::::* Гауссовские случайные процессы. Регрессия на основе Гауссовских процессов. | ::::* Гауссовские случайные процессы. Регрессия на основе Гауссовских процессов. | ||
Строка 67: | Строка 70: | ||
# обзор параметрической байесовской статистики [3], [11], [13], [14] | # обзор параметрической байесовской статистики [3], [11], [13], [14] | ||
::::* байесовский выбор модели | ::::* байесовский выбор модели | ||
- | ::::* приближенные методы для оценки апостериорного распределения: Laplace Approximation, BIC criterion, | + | ::::* приближенные методы для оценки апостериорного распределения: Laplace Approximation, BIC criterion, Variational lower bound, Variational Bayesian EM algorithm, Expectation propagation |
- | Variational lower bound, Variational Bayesian EM algorithm, Expectation propagation | + | |
::::* обзор методов Монте-Карло: rejection sampling, importance sampling, MCMC | ::::* обзор методов Монте-Карло: rejection sampling, importance sampling, MCMC | ||
Строка 84: | Строка 86: | ||
::::* reference prior distribution | ::::* reference prior distribution | ||
- | Занятие | + | Занятие (3 октября) |
::::* занятия не было | ::::* занятия не было | ||
- | Занятие | + | Занятие 5 (10 октября) [4] |
::::* состоятельность и робастность апостериорного распределения | ::::* состоятельность и робастность апостериорного распределения | ||
::::* асимптотическая нормальность оценки максимума правдоподобия и теорема Бернштейна-фон Мизеса | ::::* асимптотическая нормальность оценки максимума правдоподобия и теорема Бернштейна-фон Мизеса | ||
::::* теорема Колмогорова о продолжении вероятностной меры | ::::* теорема Колмогорова о продолжении вероятностной меры | ||
- | Занятие | + | Занятие 6 (17 октября) [4], [16] |
::::* контрольная работа 1 | ::::* контрольная работа 1 | ||
::::* априорное распределение на пространстве вероятностных мер | ::::* априорное распределение на пространстве вероятностных мер | ||
Строка 99: | Строка 101: | ||
::::* определение процесса Дирихле | ::::* определение процесса Дирихле | ||
- | Занятие | + | Занятие 7 (24 октября) [4], [16] |
::::* процесс Дирихле и его свойства | ::::* процесс Дирихле и его свойства | ||
- | |||
- | |||
::::* апостериорное распределение в случае процессов Дирихле | ::::* апостериорное распределение в случае процессов Дирихле | ||
- | ::::* | + | ::::* генерация реализации процесса Дирихле |
+ | ::::* связь процессов Дирихле и кластеризации | ||
+ | ::::* урновая схема Пойа | ||
+ | ::::* chinese restaurant process | ||
+ | |||
+ | Занятие (31 октября) | ||
+ | ::::* занятия не было | ||
+ | |||
+ | Занятие 8 (7 ноября) [6] | ||
+ | ::::* Использование гауссовских случайных полей в качестве априорных распределений на пространстве функций | ||
+ | ::::* Регрессия на основе гауссовских процессов | ||
+ | ::::* Разбор домашнего задания | ||
+ | |||
+ | Занятие 9 (14 ноября) [6] | ||
+ | ::::* связь между RKHS, Kernel Ridge Regression и Gaussian Process Regression | ||
+ | ::::* Bayesian Optimization на основе Gaussian Process Regression | ||
+ | |||
+ | Занятие 10 (21 ноября) | ||
+ | ::::* занятия не было | ||
+ | |||
+ | Занятие 11 (28 ноября) | ||
+ | ::::* разбор домашнего задания | ||
+ | ::::* проведение второй части контрольной работы по курсу | ||
+ | ::::* моделирование кластеризации с помощью процессов Дирихле и применение методов Монте-Карло для оценки параметров кластеров и их количества | ||
+ | |||
+ | Занятие 12 (5 декабря) | ||
+ | ::::* Разбор решения второй части контрольной работы по курсу | ||
+ | ::::* Байесовская кластеризация (от классических методов до байесовской линейной логистической регрессии, логистической регрессии на основе гауссовских процессов) | ||
- | Занятие | + | Занятие 13 (12 декабря) |
- | ::::* | + | ::::* Регрессия на основе гауссовских процессов для выборок, имеющих факторный план эксперимента |
- | ::::* | + | ::::* Байесовская кластеризация - продолжение |
'''Литература''' | '''Литература''' |
Текущая версия
Евгений Бурнаев
к.ф.-м.н., доцент, зав. сектором Интеллектуального Анализа Данных и Моделирования, Институт проблем передачи информации РАН
Лекционный курс. Осень 2015
Современная непараметрическая байесовская статистика
5 курс, программа "Математические методы оптимизации и стохастики"
Время проведения: суббота, с 15.20 до 18.10
Место проведения: ИППИ РАН, 615 аудитория
Аннотация
В последние годы байесовские методы широко применяются в статистическом оценивании наряду с методами, основанными на чисто вероятностном подходе. Байесовские методы обладают рядом привлекательных свойств с точки зрения приложений: они позволяют учесть априорные знания о задаче, получить более устойчивое решение, смоделировать сложное взаимодействие между компонентами задачи. Существующие курсы излагают большое количество таких методов, однако не дают фундаментального представления о байесовской статистике в целом и границах ее применимости — таким образом, не позволяя студенту в полной мере использовать байесовский подход в случае решения нестандартной статистической задачи.
В данном курсе излагается задача теоретического обоснования непараметрической байесовской статистики, решенная на достаточном уровне математической строгости относительно недавно. Изложение практических приложений байесовской статистики в курсе ведется с позиций и практического, и теоретического исследователя: с одной стороны показано как предложенные методы работают на реальных задачах, с другой стороны дается обоснование того, почему такие методы будут работать, какие у них теоретические ограничения и как наиболее успешно можно их применять.
Курс разбит на три смысловые части: во введении даются теоретические результаты для параметрической байесовской статистики, далее излагается теория непараметрической байесовской статистики , в заключительной части на примере регрессии гауссовских процессов показано как для сложных непараметрических байесовских моделей могут быть получены оценки риска, и как с помощью такого подхода могут решаться различные прикладные задачи математической статистики.
В результате освоения программы курс студент:
- сможет оценивать теоретическую привлекательность использования байесовского подхода в конкретной прикладной задаче;
- освоит аппарат параметрической и непараметрической байесовской статистики;
- получит в распоряжение инструменты для работы с непараметрическими байесовскими методами.
Организация занятий Курс состоит из сдвоенных пар, состоящих из одной лекции и одного семинара каждая. Студентам в течении курса выдается 2–3 задания (решение задач, статистическое моделирование) для домашней работы. Также в течении семестра предполагается проведение 2-х самостоятельных работ.
Домашние задания
- Задание 1. Задание необходимо прислать до 5 ноября включительно
- Задание 2. Задание необходимо прислать до 22 ноября включительно
- Задание 3. Задание необходимо прислать до 6 декабря включительно
Программа курса
1. Введение в байесовскую статистику
- Пространство априорных распределений. Виды априорных распределений: информативное, неинформативное, сопряженное, Джефри. Априорное распределение с геометрической точки зрения.
- Состоятельность и устойчивость априорного распределения. Теорема Дуба и условия Вальда.
- Асимптотическая нормальность апостериорного распределения и теорема Бернштейна-фон Мизеса.
- Перестановочность и теорема де Финетти.
2. Непараметрическая байесовская статистика
- Пространство M вероятностных распределений на конечном множестве и на R. Расстояния между распределениями.
- Пространство априорных распределений для вероятностных распределений из M.
- Распределение Дирихле. Свойства распределение Дирихле.
- Случайный процесс Дирихле. Свойства случайного процесса Дирихле. Использование случайного процесса Дирихле как априорного распределения.
- Теоремы о состоятельности непараметрической байесовской статистики.
3. Приложения непараметрической байесовской статистики
- Байесовская непараметрическая оценка плотности.
- Гауссовские случайные процессы. Регрессия на основе Гауссовских процессов.
- Адаптивное планирование эксперимента и суррогатная оптимизация на основе Гауссовских процессов.
- Теореме Бернштейна-фон-Мизеса для регрессии на основе Гауссовских процессов.
- Оценки риска для регрессии на основе гауссовских процессов с использованием аппарата непараметрической байесовской статистики.
Прошедшие занятия
Занятие 1 (5 сентября)
- организационные вопросы
- обзор параметрической байесовской статистики [3], [11], [13], [14]
- классификация, регрессия, кластеризация
- байесовское моделирование
- предпосылки байесовского моделирования
- байесовский выбор модели
- классы априорных распределений
Занятие 2 (12 сентября)
- обзор параметрической байесовской статистики [3], [11], [13], [14]
- байесовский выбор модели
- приближенные методы для оценки апостериорного распределения: Laplace Approximation, BIC criterion, Variational lower bound, Variational Bayesian EM algorithm, Expectation propagation
- обзор методов Монте-Карло: rejection sampling, importance sampling, MCMC
Занятие 3 (19 сентября) [14]
- байесовская линейная регрессия
Занятие 4 (26 сентября) [15]
- Теорема де-Финетти
- Байесовская теория принятия решений, связь между аспотериорным, байесовским и минимаксным решающими правилами
- различные подходы к выборку априорного распределения
- априорное распределение на основе распределения Дирихле
- сопряженные априорные распределения
- апостериорное распределение для гауссовской модели и соответствующего сопряженного распределения параметров
- априорное распределение Jeffrey
- reference prior distribution
Занятие (3 октября)
- занятия не было
Занятие 5 (10 октября) [4]
- состоятельность и робастность апостериорного распределения
- асимптотическая нормальность оценки максимума правдоподобия и теорема Бернштейна-фон Мизеса
- теорема Колмогорова о продолжении вероятностной меры
Занятие 6 (17 октября) [4], [16]
- контрольная работа 1
- априорное распределение на пространстве вероятностных мер
- дискретные вероятностные меры
- распределение Дирихле и его свойства
- определение процесса Дирихле
Занятие 7 (24 октября) [4], [16]
- процесс Дирихле и его свойства
- апостериорное распределение в случае процессов Дирихле
- генерация реализации процесса Дирихле
- связь процессов Дирихле и кластеризации
- урновая схема Пойа
- chinese restaurant process
Занятие (31 октября)
- занятия не было
Занятие 8 (7 ноября) [6]
- Использование гауссовских случайных полей в качестве априорных распределений на пространстве функций
- Регрессия на основе гауссовских процессов
- Разбор домашнего задания
Занятие 9 (14 ноября) [6]
- связь между RKHS, Kernel Ridge Regression и Gaussian Process Regression
- Bayesian Optimization на основе Gaussian Process Regression
Занятие 10 (21 ноября)
- занятия не было
Занятие 11 (28 ноября)
- разбор домашнего задания
- проведение второй части контрольной работы по курсу
- моделирование кластеризации с помощью процессов Дирихле и применение методов Монте-Карло для оценки параметров кластеров и их количества
Занятие 12 (5 декабря)
- Разбор решения второй части контрольной работы по курсу
- Байесовская кластеризация (от классических методов до байесовской линейной логистической регрессии, логистической регрессии на основе гауссовских процессов)
Занятие 13 (12 декабря)
- Регрессия на основе гауссовских процессов для выборок, имеющих факторный план эксперимента
- Байесовская кластеризация - продолжение
Литература
- I. Castillo, R. Nickl, et al. Nonparametric bernstein–von mises theorems in gaussian white noise. The Annals of Statistics, 41(4):1999–2028, 2013.
- S. Ghosal et al. Asymptotic normality of posterior distributions in high-dimensional linear models. Bernoulli, 5(2):315–331, 1999.
- J.K. Ghosh, D. Mohan, and S. Tapas. An introduction to Bayesian analysis. Springer New York, 2006.
- J.K. Ghosh and R.V. Ramamoorthi. Bayesian nonparametrics. Springer, 2003.
- B. Kleijn, A.W. van der Vaart, and H. van Zanten. Lectures on Nonparametric Bayesian Statistics. Springer, 2013.
- C.E. Rasmussen and C.K.I. Williams. Gaussian processes for machine learning, volume 1. MIT press Cambridge, MA, 2006.
- H. Snoussi and A. Mohammad-Djafari. Information geometry and prior selection. In AIP Conference Proceedings, volume 659, page 307, 2003.
- V. Spokoiny. Basics of Modern Parametric Statistics. Springer, 2013.
- T. Suzuki. Pac-bayesian bound for gaussian process regression and multiple kernel additive model. In JMLR Workshop and Conference Proceedings, volume 23, pages 8–1, 2012.
- A.W. van der Vaart and J.H. Van Zanten. Rates of contraction of posterior distributions based on gaussian process priors. The Annals of Statistics, 1(1):1435–1463, 2008.
- L. Wasserman. All of statistics: a concise course in statistical inference. Springer, 2003.
- И.А. Ибрагимов and Р.З. Хасьминский. Асимптотическая теория оценивания. Наука, 1979.
- Д.П. Ветров. Байесовские методы машинного обучения. Курс лекций. [1]
- Bishop C.M. Pattern Recognition and Machine Learning. Springer, 2006.
- Robert, C., The Bayesian Choice (2nd Edition), Springer, 2001.
- Van der Vaart. Lecture notes on nonparametric Bayesian statistics, 2012. [2]