Участник:Burnaevevgeny
Материал из MachineLearning.
(Новая: '''Евгений Бурнаев''' к.ф.-м.н., доцент, зав. сектором Интеллектуального Анализа Данных и Моделирования, ...) |
|||
Строка 18: | Строка 18: | ||
В результате освоения программы курс студент: | В результате освоения программы курс студент: | ||
- | + | * сможет оценивать теоретическую привлекательность использования байесовского подхода в конкретной прикладной задаче; | |
- | + | * освоит аппарат параметрической и непараметрической байесовской статистики; | |
- | + | * получит в распоряжение инструменты для работы с непараметрическими байесовскими методами. | |
'''Организация занятий''' | '''Организация занятий''' | ||
Строка 28: | Строка 28: | ||
'''Домашние задания''' | '''Домашние задания''' | ||
- | Задание 1. Задание необходимо прислать до 5 ноября включительно | + | * Задание 1. Задание необходимо прислать до 5 ноября включительно |
- | Задание 2. Задание необходимо прислать до 22 ноября включительно | + | * Задание 2. Задание необходимо прислать до 22 ноября включительно |
- | Задание 3. Задание необходимо прислать до 6 декабря включительно | + | * Задание 3. Задание необходимо прислать до 6 декабря включительно |
'''Программа курса''' | '''Программа курса''' | ||
- | + | # Введение в байесовскую статистику | |
- | + | * Пространство априорных распределений. Виды априорных распределений: информативное, неинформативное, сопряженное, Джефри. Априорное распределение с геометрической точки зрения. | |
- | + | * Состоятельность и устойчивость априорного распределения. Теорема Дуба и условия Вальда. | |
- | + | * Асимптотическая нормальность апостериорного распределения и теорема Бернштейна-фон Мизеса. | |
- | + | * Перестановочность и теорема де Финетти. | |
- | + | # Непараметрическая байесовская статистика | |
- | + | * Пространство M вероятностных распределений на конечном множестве и на R. Расстояния между распределениями. | |
- | + | * Пространство априорных распределений для вероятностных распределений из M. | |
- | + | * Распределение Дирихле. Свойства распределение Дирихле. | |
- | + | * Случайный процесс Дирихле. Свойства случайного процесса Дирихле. Использование случайного процесса Дирихле как априорного распределения. | |
- | + | * Теоремы о состоятельности непараметрической байесовской статистики. | |
- | + | # Приложения непараметрической байесовской статистики | |
- | + | * Байесовская непараметрическая оценка плотности. | |
- | + | * Гауссовские случайные процессы. Регрессия на основе Гауссовских процессов. | |
- | + | * Адаптивное планирование эксперимента и суррогатная оптимизация на основе Гауссовских процессов. | |
- | + | * Теореме Бернштейна-фон-Мизеса для регрессии на основе Гауссовских процессов. | |
- | + | * Оценки риска для регрессии на основе гауссовских процессов с использованием аппарата непараметрической байесовской статистики. | |
'''Прошедшие занятия''' | '''Прошедшие занятия''' | ||
Занятие 1 (5 сентября) | Занятие 1 (5 сентября) | ||
- | + | # организационные вопросы | |
- | + | # обзор параметрической байесовской статистики [3], [11], [13], [14] | |
- | + | * классификация, регрессия, кластеризация | |
- | + | * байесовское моделирование | |
- | + | * предпосылки байесовского моделирования | |
- | + | * байесовский выбор модели | |
- | + | * классы априорных распределений | |
Занятие 2 (12 сентября) | Занятие 2 (12 сентября) | ||
- | + | # обзор параметрической байесовской статистики [3], [11], [13], [14] | |
- | + | * байесовский выбор модели | |
- | + | * приближенные методы для оценки апостериорного распределения: Laplace Approximation, BIC criterion, | |
Variational lower bound, Variational Bayesian EM algorithm, Expectation propagation | Variational lower bound, Variational Bayesian EM algorithm, Expectation propagation | ||
- | + | * обзор методов Монте-Карло: rejection sampling, importance sampling, MCMC | |
Занятие 3 (19 сентября) [14] | Занятие 3 (19 сентября) [14] | ||
- | + | # байесовская линейная регрессия | |
Занятие 4 (26 сентября) [15] | Занятие 4 (26 сентября) [15] | ||
- | + | * Теорема де-Финетти | |
- | + | * Байесовская теория принятия решений, связь между аспотериорным, байесовским и минимаксным решающими правилами | |
- | + | * различные подходы к выборку априорного распределения | |
- | + | * априорное распределение на основе распределения Дирихле | |
- | + | * сопряженные априорные распределения | |
- | + | * апостериорное распределение для гауссовской модели и соответствующего сопряженного распределения параметров | |
- | + | * априорное распределение Jeffrey | |
- | + | * reference prior distribution | |
Занятие 5 (3 октября) | Занятие 5 (3 октября) | ||
- | + | * занятия не было | |
Занятие 6 (10 октября) [4] | Занятие 6 (10 октября) [4] | ||
- | + | * состоятельность и робастность апостериорного распределения | |
- | + | * асимптотическая нормальность оценки максимума правдоподобия и теорема Бернштейна-фон Мизеса | |
- | + | * теорема Колмогорова о продолжении вероятностной меры | |
Занятие 7 (17 октября) [4], [16] | Занятие 7 (17 октября) [4], [16] | ||
- | + | * контрольная работа 1 | |
- | + | * априорное распределение на пространстве вероятностных мер | |
- | + | * дискретные вероятностные меры | |
- | + | * распределение Дирихле и его свойства | |
- | + | * определение процесса Дирихле | |
Занятие 8 (24 октября) [4], [16] | Занятие 8 (24 октября) [4], [16] | ||
- | + | * процесс Дирихле и его свойства | |
- | + | * представление Sethuraman для процесса Дирихле | |
- | + | * Tail-free процессы | |
- | + | * апостериорное распределение в случае процессов Дирихле | |
- | + | * смеси процессов Дирихле | |
Занятие 9 (31 октября) [4], [16] | Занятие 9 (31 октября) [4], [16] | ||
- | + | * применение процессов Дирихле для непараметрической байесовской оценки плотности | |
- | + | * состоятельность непараметрических байесовских выводов | |
'''Литература''' | '''Литература''' | ||
- | + | # I. Castillo, R. Nickl, et al. Nonparametric bernstein–von mises theorems in gaussian white noise. The Annals of Statistics, 41(4):1999–2028, 2013. | |
- | + | # S. Ghosal et al. Asymptotic normality of posterior distributions in high-dimensional linear models. Bernoulli, 5(2):315–331, 1999. | |
- | + | # J.K. Ghosh, D. Mohan, and S. Tapas. An introduction to Bayesian analysis. Springer New York, 2006. | |
[4] J.K. Ghosh and R.V. Ramamoorthi. Bayesian nonparametrics. Springer, 2003. | [4] J.K. Ghosh and R.V. Ramamoorthi. Bayesian nonparametrics. Springer, 2003. | ||
- | + | # B. Kleijn, A.W. van der Vaart, and H. van Zanten. Lectures on Nonparametric Bayesian Statistics. Springer, 2013. | |
- | + | # C.E. Rasmussen and C.K.I. Williams. Gaussian processes for machine learning, volume 1. MIT press Cambridge, MA, 2006. | |
- | + | # H. Snoussi and A. Mohammad-Djafari. Information geometry and prior selection. In AIP Conference Proceedings, volume 659, page 307, 2003. | |
- | + | # V. Spokoiny. Basics of Modern Parametric Statistics. Springer, 2013. | |
- | + | # T. Suzuki. Pac-bayesian bound for gaussian process regression and multiple kernel additive model. In JMLR Workshop and Conference Proceedings, volume 23, pages 8–1, 2012. | |
- | + | # A.W. van der Vaart and J.H. Van Zanten. Rates of contraction of posterior distributions based on gaussian process priors. The Annals of Statistics, 1(1):1435–1463, 2008. | |
- | + | # L. Wasserman. All of statistics: a concise course in statistical inference. Springer, 2003. | |
- | + | # И.А. Ибрагимов and Р.З. Хасьминский. Асимптотическая теория оценивания. Наука, 1979. | |
- | + | # Д.П. Ветров. Байесовские методы машинного обучения. Курс лекций. [http://www.machinelearning.ru/wiki/index.php?title=%D0%91%D0%BC%D0%BC%D0%BE] | |
- | + | # Bishop C.M. Pattern Recognition and Machine Learning. Springer, 2006. | |
- | + | # Robert, C., The Bayesian Choice (2nd Edition), Springer, 2001. | |
- | + | # Van der Vaart. Lecture notes on nonparametric Bayesian statistics, 2012. [http://www.math.leidenuniv.nl/~avdvaart/BNP/BNP.pdf] |
Версия 13:41, 18 октября 2015
Евгений Бурнаев
к.ф.-м.н., доцент, зав. сектором Интеллектуального Анализа Данных и Моделирования, Институт проблем передачи информации РАН
Лекционный курс. Осень 2015
Современная непараметрическая байесовская статистика
5 курс, программа "Математические методы оптимизации и стохастики"
Аннотация
В последние годы байесовские методы широко применяются в статистическом оценивании наряду с методами, основанными на чисто вероятностном подходе. Байесовские методы обладают рядом привлекательных свойств с точки зрения приложений: они позволяют учесть априорные знания о задаче, получить более устойчивое решение, смоделировать сложное взаимодействие между компонентами задачи. Существующие курсы излагают большое количество таких методов, однако не дают фундаментального представления о байесовской статистике в целом и границах ее применимости — таким образом, не позволяя студенту в полной мере использовать байесовский подход в случае решения нестандартной статистической задачи.
В данном курсе излагается задача теоретического обоснования непараметрической байесовской статистики, решенная на достаточном уровне математической строгости относительно недавно. Изложение практических приложений байесовской статистики в курсе ведется с позиций и практического, и теоретического исследователя: с одной стороны показано как предложенные методы работают на реальных задачах, с другой стороны дается обоснование того, почему такие методы будут работать, какие у них теоретические ограничения и как наиболее успешно можно их применять.
Курс разбит на три смысловые части: во введении даются теоретические результаты для параметрической байесовской статистики, далее излагается теория непараметрической байесовской статистики , в заключительной части на примере регрессии гауссовских процессов показано как для сложных непараметрических байесовских моделей могут быть получены оценки риска, и как с помощью такого подхода могут решаться различные прикладные задачи математической статистики.
В результате освоения программы курс студент:
- сможет оценивать теоретическую привлекательность использования байесовского подхода в конкретной прикладной задаче;
- освоит аппарат параметрической и непараметрической байесовской статистики;
- получит в распоряжение инструменты для работы с непараметрическими байесовскими методами.
Организация занятий Курс состоит из сдвоенных пар, состоящих из одной лекции и одного семинара каждая. Студентам в течении курса выдается 2–3 задания (решение задач, статистическое моделирование) для домашней работы. Также в течении семестра предполагается проведение 2-х самостоятельных работ.
Домашние задания
- Задание 1. Задание необходимо прислать до 5 ноября включительно
- Задание 2. Задание необходимо прислать до 22 ноября включительно
- Задание 3. Задание необходимо прислать до 6 декабря включительно
Программа курса
- Введение в байесовскую статистику
- Пространство априорных распределений. Виды априорных распределений: информативное, неинформативное, сопряженное, Джефри. Априорное распределение с геометрической точки зрения.
- Состоятельность и устойчивость априорного распределения. Теорема Дуба и условия Вальда.
- Асимптотическая нормальность апостериорного распределения и теорема Бернштейна-фон Мизеса.
- Перестановочность и теорема де Финетти.
- Непараметрическая байесовская статистика
- Пространство M вероятностных распределений на конечном множестве и на R. Расстояния между распределениями.
- Пространство априорных распределений для вероятностных распределений из M.
- Распределение Дирихле. Свойства распределение Дирихле.
- Случайный процесс Дирихле. Свойства случайного процесса Дирихле. Использование случайного процесса Дирихле как априорного распределения.
- Теоремы о состоятельности непараметрической байесовской статистики.
- Приложения непараметрической байесовской статистики
- Байесовская непараметрическая оценка плотности.
- Гауссовские случайные процессы. Регрессия на основе Гауссовских процессов.
- Адаптивное планирование эксперимента и суррогатная оптимизация на основе Гауссовских процессов.
- Теореме Бернштейна-фон-Мизеса для регрессии на основе Гауссовских процессов.
- Оценки риска для регрессии на основе гауссовских процессов с использованием аппарата непараметрической байесовской статистики.
Прошедшие занятия Занятие 1 (5 сентября)
- организационные вопросы
- обзор параметрической байесовской статистики [3], [11], [13], [14]
- классификация, регрессия, кластеризация
- байесовское моделирование
- предпосылки байесовского моделирования
- байесовский выбор модели
- классы априорных распределений
Занятие 2 (12 сентября)
- обзор параметрической байесовской статистики [3], [11], [13], [14]
- байесовский выбор модели
- приближенные методы для оценки апостериорного распределения: Laplace Approximation, BIC criterion,
Variational lower bound, Variational Bayesian EM algorithm, Expectation propagation
- обзор методов Монте-Карло: rejection sampling, importance sampling, MCMC
Занятие 3 (19 сентября) [14]
- байесовская линейная регрессия
Занятие 4 (26 сентября) [15]
- Теорема де-Финетти
- Байесовская теория принятия решений, связь между аспотериорным, байесовским и минимаксным решающими правилами
- различные подходы к выборку априорного распределения
- априорное распределение на основе распределения Дирихле
- сопряженные априорные распределения
- апостериорное распределение для гауссовской модели и соответствующего сопряженного распределения параметров
- априорное распределение Jeffrey
- reference prior distribution
Занятие 5 (3 октября)
- занятия не было
Занятие 6 (10 октября) [4]
- состоятельность и робастность апостериорного распределения
- асимптотическая нормальность оценки максимума правдоподобия и теорема Бернштейна-фон Мизеса
- теорема Колмогорова о продолжении вероятностной меры
Занятие 7 (17 октября) [4], [16]
- контрольная работа 1
- априорное распределение на пространстве вероятностных мер
- дискретные вероятностные меры
- распределение Дирихле и его свойства
- определение процесса Дирихле
Занятие 8 (24 октября) [4], [16]
- процесс Дирихле и его свойства
- представление Sethuraman для процесса Дирихле
- Tail-free процессы
- апостериорное распределение в случае процессов Дирихле
- смеси процессов Дирихле
Занятие 9 (31 октября) [4], [16]
- применение процессов Дирихле для непараметрической байесовской оценки плотности
- состоятельность непараметрических байесовских выводов
Литература
- I. Castillo, R. Nickl, et al. Nonparametric bernstein–von mises theorems in gaussian white noise. The Annals of Statistics, 41(4):1999–2028, 2013.
- S. Ghosal et al. Asymptotic normality of posterior distributions in high-dimensional linear models. Bernoulli, 5(2):315–331, 1999.
- J.K. Ghosh, D. Mohan, and S. Tapas. An introduction to Bayesian analysis. Springer New York, 2006.
[4] J.K. Ghosh and R.V. Ramamoorthi. Bayesian nonparametrics. Springer, 2003.
- B. Kleijn, A.W. van der Vaart, and H. van Zanten. Lectures on Nonparametric Bayesian Statistics. Springer, 2013.
- C.E. Rasmussen and C.K.I. Williams. Gaussian processes for machine learning, volume 1. MIT press Cambridge, MA, 2006.
- H. Snoussi and A. Mohammad-Djafari. Information geometry and prior selection. In AIP Conference Proceedings, volume 659, page 307, 2003.
- V. Spokoiny. Basics of Modern Parametric Statistics. Springer, 2013.
- T. Suzuki. Pac-bayesian bound for gaussian process regression and multiple kernel additive model. In JMLR Workshop and Conference Proceedings, volume 23, pages 8–1, 2012.
- A.W. van der Vaart and J.H. Van Zanten. Rates of contraction of posterior distributions based on gaussian process priors. The Annals of Statistics, 1(1):1435–1463, 2008.
- L. Wasserman. All of statistics: a concise course in statistical inference. Springer, 2003.
- И.А. Ибрагимов and Р.З. Хасьминский. Асимптотическая теория оценивания. Наука, 1979.
- Д.П. Ветров. Байесовские методы машинного обучения. Курс лекций. [1]
- Bishop C.M. Pattern Recognition and Machine Learning. Springer, 2006.
- Robert, C., The Bayesian Choice (2nd Edition), Springer, 2001.
- Van der Vaart. Lecture notes on nonparametric Bayesian statistics, 2012. [2]