Байесовский выбор моделей (теория и практика, А.А. Адуенко, В.В. Стрижов)/Группа 974, осень 2022
Материал из MachineLearning.
(Различия между версиями)
Строка 17: | Строка 17: | ||
* [[Media:Bayes_applied_2022_fall.pdf|Практическое задание 1]] | * [[Media:Bayes_applied_2022_fall.pdf|Практическое задание 1]] | ||
* [https://www.dropbox.com/s/ezatrbyej7ue047/task1_data.zip?dl=0 Данные для практического задания 1] | * [https://www.dropbox.com/s/ezatrbyej7ue047/task1_data.zip?dl=0 Данные для практического задания 1] | ||
- | * [[Media:Aduenko2022LogRegressionEM.pdf|Лекция 6: Байесовская | + | * [[Media:Aduenko2022LogRegressionEM.pdf|Лекция 6: Байесовская логистическая регрессия и отбор признаков. ЕМ-алгоритм.]] |
Версия 03:16, 11 октября 2022
Байесовский выбор моделей
Курс лекций, преподаватель Александр Александрович Адуенко (aduenko1 at gmail.com)
- Курс, прочитанный осенью 2021 года
- Короткий адрес страницы https://bit.ly/3DitwLA
- Лекция 1: Введение
- Лекция 2: Введение: наивный байесовский классификатор. Экспоненциальное семейство распределений.
- Задание 1
- Лекция 3: Байесовская линейная регрессия. Обоснованность (evidence).
- Лекция 4: Байесовская линейная регрессия (напоминание). Обоснованность (evidence).
- Тест 1
- Лекция 5: Обоснованность: Анализ свойств и связь со статистической значимостью.
- Задание 2
- Практическое задание 1
- Данные для практического задания 1
- Лекция 6: Байесовская логистическая регрессия и отбор признаков. ЕМ-алгоритм.
Дополнительные материалы
- См. последний слайд каждой лекции со списком литературы.
- David MacKay, 2005, Information Theory, Inference, and Learning Algorithms
- Christopher Bishop, 2006, Pattern Recognition and Machine Learning
- David Barber, 2014, Bayesian Reasoning and Machine Learning
- Daphne Koller and Nir Friedman, 2009, Probabilistic Graphical Models
- Kevin P. Murphy, 2012, Machine Learning: a Probabilistic Perspective