Выбор моделей в машинном обучении (теория и практика, А.А. Адуенко, В.В. Стрижов)/Группа 674, осень 2019
Материал из MachineLearning.
(Различия между версиями)
(15 промежуточных версий не показаны.) | |||
Строка 5: | Строка 5: | ||
Курс лекций, преподаватель Александр Александрович Адуенко (aduenko1 at gmail.com) | Курс лекций, преподаватель Александр Александрович Адуенко (aduenko1 at gmail.com) | ||
+ | * [[Численные методы обучения по прецедентам (практика, В.В. Стрижов)/Группа 474, осень 2018|Курс, прочитанный осенью '''2018''' года]] | ||
* Короткий адрес страницы [http://bit.ly/2lD8lhs http://bit.ly/2lD8lhs] | * Короткий адрес страницы [http://bit.ly/2lD8lhs http://bit.ly/2lD8lhs] | ||
* [[Media:Aduenko2019Introduction.pdf|Лекция 1: Введение]] | * [[Media:Aduenko2019Introduction.pdf|Лекция 1: Введение]] | ||
* [[Media:Bayes_theory_1_2019.pdf|Задание 1]] | * [[Media:Bayes_theory_1_2019.pdf|Задание 1]] | ||
* [[Media:Aduenko2019Introduction2.pdf|Лекция 2: Введение. Экспоненциальное семейство распределений.]] | * [[Media:Aduenko2019Introduction2.pdf|Лекция 2: Введение. Экспоненциальное семейство распределений.]] | ||
+ | * [[Media:Aduenko2019Evidence.pdf|Лекция 3: Байесовская линейная регрессия. Обоснованность (evidence).]] | ||
+ | * [[Media:Bayes_test_1_2019.pdf|Тест 1.]] | ||
+ | * [[Media:Bayes_applied_1_2019.pdf|Практическое задание 1.]] | ||
+ | * [https://www.dropbox.com/sh/v5r6vz51hzca7iy/AAByUjA3X5P2RzKEgf7RWdIKa?dl=0 Данные для практического задания 1] | ||
+ | * [[Media:Aduenko2019Evidence2.pdf|Лекция 4: Байесовская линейная регрессия (напоминание). Обоснованность (evidence).]] | ||
+ | * [[Media:Aduenko2019EvidenceLogRegression.pdf|Лекция 5: Байесовская логистическая регрессия и отбор признаков.]] | ||
+ | * [[Media:Bayes_theory_2_2019_new.pdf|Задание 2]] | ||
+ | * [[Media:Bayes_test_2_2019.pdf|Тест 2]] | ||
+ | * [[Media:Aduenko2019EM.pdf|Лекция 6: EM-алгоритм для максимизации обоснованности.]] | ||
+ | * [[Media:Aduenko2019EMndVariationalEM.pdf|Лекция 7: EM-алгоритм и вариационный EM-алгоритм.]] | ||
== Дополнительные материалы == | == Дополнительные материалы == | ||
Строка 17: | Строка 28: | ||
# Daphne Koller and Nir Friedman, 2009, Probabilistic Graphical Models | # Daphne Koller and Nir Friedman, 2009, Probabilistic Graphical Models | ||
# [https://doc.lagout.org/science/Artificial%20Intelligence/Machine%20learning/Machine%20Learning_%20A%20Probabilistic%20Perspective%20%5BMurphy%202012-08-24%5D.pdf Kevin P. Murphy, 2012, Machine Learning: a Probabilistic Perspective] | # [https://doc.lagout.org/science/Artificial%20Intelligence/Machine%20learning/Machine%20Learning_%20A%20Probabilistic%20Perspective%20%5BMurphy%202012-08-24%5D.pdf Kevin P. Murphy, 2012, Machine Learning: a Probabilistic Perspective] | ||
- | |||
- |
Версия 11:17, 16 октября 2019
Байесовский выбор моделей
Курс лекций, преподаватель Александр Александрович Адуенко (aduenko1 at gmail.com)
- Курс, прочитанный осенью 2018 года
- Короткий адрес страницы http://bit.ly/2lD8lhs
- Лекция 1: Введение
- Задание 1
- Лекция 2: Введение. Экспоненциальное семейство распределений.
- Лекция 3: Байесовская линейная регрессия. Обоснованность (evidence).
- Тест 1.
- Практическое задание 1.
- Данные для практического задания 1
- Лекция 4: Байесовская линейная регрессия (напоминание). Обоснованность (evidence).
- Лекция 5: Байесовская логистическая регрессия и отбор признаков.
- Задание 2
- Тест 2
- Лекция 6: EM-алгоритм для максимизации обоснованности.
- Лекция 7: EM-алгоритм и вариационный EM-алгоритм.
Дополнительные материалы
- См. последний слайд каждой лекции со списком литературы.
- David MacKay, 2005, Information Theory, Inference, and Learning Algorithms
- Christopher Bishop, 2006, Pattern Recognition and Machine Learning
- David Barber, 2014, Bayesian Reasoning and Machine Learning
- Daphne Koller and Nir Friedman, 2009, Probabilistic Graphical Models
- Kevin P. Murphy, 2012, Machine Learning: a Probabilistic Perspective