Математические методы распознавания образов (курс лекций, В.В.Китов)
Материал из MachineLearning.
(→Первый семестр) |
(→Первый семестр) |
||
Строка 88: | Строка 88: | ||
===Ядерное сглаживание для оценки плотности.=== | ===Ядерное сглаживание для оценки плотности.=== | ||
- | [[Media:Kitov-ML-eng-11-Kernel_density_estimation.pdf | Скачать презентацию (eng)]] | + | [[Media:Kitov-ML-eng-11-Kernel_density_estimation.pdf | Скачать презентацию (eng)]] {{важно| — обновление 19.12.2016}}. |
===Задачи регрессии.=== | ===Задачи регрессии.=== |
Версия 16:20, 19 декабря 2016
Курс посвящен алгоритмам машинного обучения (machine learning), которые сами настраиваются на известных данных, выделяя их характерную структуру и взаимосвязи между ними, для их компактного описания, визуализации и последующего предсказания новых аналогичных данных. Основной акцент курса сделан на задачах предсказания дискретных величин (классификация) и непрерывных величин (регрессия), хотя в курсе также рассматриваются смежные области - эффективное снижение размерности пространства, выделение наиболее значимых признаков для предсказания, методы оценивания и сравнения вероятностных распределений, рекомендательные системы и планирование экспериментов.
Курс читается студентам 3 курса кафедры «Математические методы прогнозирования» ВМиК МГУ, магистрам, зачисленным на эту кафедру, и не проходивших ранее аналогичных курсов, а также для всех желающих. На материал данного курса опираются последующие кафедральные курсы.
По изложению, рассматриваются математические основы методов, лежащие в их основе предположения о данных, взаимосвязи методов между собой и особенности их практического применения.
Курс сопровождается семинарами, раскрывающими дополнительные темы курса и отрабатывающими навыки практического применения рассматриваемых методов. Практическое использование методов машинного обучения в основном будет вестись с использованием языка python и соответствующих библиотек для научных вычислений.
От студентов требуются знания линейной алгебры, математического анализа и теории вероятностей. Знание математической статистики, методов оптимизации и какого-либо языка программирования желательно, но не обязательно.
- Курс во многом пересекается с курсом К.В.Воронцова по машинному обучению, с которым также рекомендуется ознакомиться.
- Анонимные отзывы и комментарии по лекциям можно оставлять здесь.
Экзамен (зимняя экзаменационная сессия)
Пройдет 15 января (воскресенье) в 9-00 в ауд. 510.
Программа курса
Первый семестр
Основные понятия и примеры прикладных задач.
Скачать презентацию (eng) — обновление 19.12.2016.
Метрические методы регрессии и классификации.
Скачать презентацию (KNN базовый, eng)
Скачать презентацию (Оптимизация KNN, eng)
Линейные методы снижения размерности.
+ вывод решения для задачи линейной регрессии методом наименьших квадратов. L1 и L2 регуляризация, вывод решения регрессии с L2 регуляризацией. Свойства существования и единственности решений.
Сингулярное разложение.
Скачать презентацию (eng) — обновление 19.12.2016.
+разреженное кодирование, доказательство существования SVD разложения и доказательство оптимальности (по норме Фробениуса) приближения матрицы сокращенным SVD разложением.
Методы решающих деревьев.
+семинар: Random Forest
Оценивание моделей.
+ROC кривая для случайного классификатора.
Классификация линейными методами.
Метод опорных векторов.
Скачать презентацию (eng) — обновление 19.12.2016.
Обобщение методов через ядра.
Скачать презентацию (eng) — обновление 19.12.2016.
Байесовская теория классификации.
+доказательство, что Байесовское правило минимальной ошибки действительно приводит к минимизации вероятности неправильной классификации.
+ предположение наивного Байеса.
+ модель Бернулли
+ Мультиномиальная модель
+ особенности работы с текстами (лемматизация, биграммы, извлечение коллокаций)
Ядерное сглаживание для оценки плотности.
Скачать презентацию (eng) — обновление 19.12.2016.
Задачи регрессии.
Скачать презентацию (eng) — обновление 19.12.2016.
Второй семестр
Смеси распределений. EM-алгоритм.
+bias-variance decomposition