Математические методы распознавания образов (курс лекций, В.В.Китов)

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Первый семестр)
(Программа курса)
Строка 68: Строка 68:
===Обобщения методов через ядра Мерсера.===
===Обобщения методов через ядра Мерсера.===
-
без двойственной задачи для гребневой регрессии
+
+ двойственная задача для гребневой регрессии
[https://yadi.sk/i/i2_1Kp5s3MzSuC Презентация].
[https://yadi.sk/i/i2_1Kp5s3MzSuC Презентация].
-
 
-
===Отбор признаков===
 
-
[https://yadi.sk/i/Vz1QD-GB3MzT3e Презентация].
 
-
 
-
до взаимной информации.
 
-
 
-
----
 
-
 
-
===Байесовское решающее правило. Генеративные и дискриминативные модели.===
 
-
[https://yadi.sk/i/2ouj6b8S3MzT66 Презентация].
 
-
 
-
===Смещение и дисперсия моделей. Статистическая теория переобучения.===
 
-
[https://yadi.sk/i/7etNZyEY3MzT9L Презентация].
 
===Решающие деревья.===
===Решающие деревья.===
Строка 90: Строка 77:
===Ансамбли прогнозирующих алгоритмов.===
===Ансамбли прогнозирующих алгоритмов.===
[https://yadi.sk/i/omYktp5J3MzTEZ Презентация].
[https://yadi.sk/i/omYktp5J3MzTEZ Презентация].
-
 
-
==Второй семестр==
 
===Бустинг.===
===Бустинг.===
Строка 101: Строка 86:
[http://www.kdd.org/kdd2016/papers/files/rfp0697-chenAemb.pdf Статья со всеми деталями]
[http://www.kdd.org/kdd2016/papers/files/rfp0697-chenAemb.pdf Статья со всеми деталями]
-
===Методы отбора признаков.===
+
===Отбор признаков===
-
[[Media:Kitov-ML-eng-16-Feature_selection.pdf‎ | Скачать презентацию]].
+
[https://yadi.sk/i/Vz1QD-GB3MzT3e Презентация].
 +
 
 +
(рассмотрены до взаимной информации)
 +
 
 +
 
 +
==Второй семестр==
 +
 
 +
===Байесовское решающее правило. Генеративные и дискриминативные модели.===
 +
[https://yadi.sk/i/2ouj6b8S3MzT66 Презентация].
 +
 
 +
===Смещение и дисперсия моделей. Статистическая теория переобучения.===
 +
[https://yadi.sk/i/7etNZyEY3MzT9L Презентация].
===Свойства выпуклых функций. Неравенство Йенсена. ===
===Свойства выпуклых функций. Неравенство Йенсена. ===

Версия 21:24, 24 ноября 2017

Содержание

Курс посвящен алгоритмам машинного обучения (machine learning), которые сами настраиваются на известных данных, выделяя их характерную структуру и взаимосвязи между ними, для их прогнозирования, анализа, компактного описания и визуализации. Основной акцент курса сделан на задачах предсказания дискретных величин (классификация) и непрерывных величин (регрессия), хотя в курсе также рассматриваются смежные области - эффективное снижение размерности пространства, выделение наиболее значимых признаков для предсказания, методы оценивания и сравнения вероятностных распределений, рекомендательные системы и планирование экспериментов.

Лектор: Виктор Китов

Семинарист: Евгений Соколов

Курс читается студентам 3 курса кафедры «Математические методы прогнозирования» ВМиК МГУ, магистрам, зачисленным на эту кафедру, и не проходивших ранее аналогичных курсов, а также для всех желающих. На материал данного курса опираются последующие кафедральные курсы.

По изложению, рассматриваются математические основы методов, лежащие в их основе предположения о данных, взаимосвязи методов между собой и особенности их практического применения.

Курс сопровождается семинарами, раскрывающими дополнительные темы курса и отрабатывающими навыки практического применения рассматриваемых методов. Практическое использование методов машинного обучения в основном будет вестись с использованием языка python и соответствующих библиотек для научных вычислений.

От студентов требуются знания линейной алгебры, математического анализа, теории вероятностей, математической статистики и методов оптимизации. Практические задания должны выполняться с использованием языка Python и его научных библиотек.


Программа курса

Первый семестр

Введение в машинное обучение.

Презентация.

Метод ближайших центроидов и K ближайших соседей.

Презентация.

Другие метрические методы.

Презентация. -метод Парзеновского окна

Сложность моделей. Подготовка данных.

Презентация.

Метрики близости.

Презентация.

Оптимизация метода K ближайших соседей.

Презентация.

Метод главных компонент.

+ вывод решения

Презентация.

Свойства симметричных матриц, положительно определенные матрицы, векторное дифференцирование.

Линейная регрессия.

Презентация.

Линейная классификация.

Презентация.

Оценивание классификаторов.

Презентация. +классификатор выпуклой оболочки ROC кривых.

Метод опорных векторов.

+вывод двойственной задачи SVM +support vector regression

Презентация.

Обобщения методов через ядра Мерсера.

+ двойственная задача для гребневой регрессии

Презентация.

Решающие деревья.

Презентация.

Ансамбли прогнозирующих алгоритмов.

Презентация.

Бустинг.

Скачать презентацию.

xgBoost.

Скачать презентацию.

Статья со всеми деталями

Отбор признаков

Презентация.

(рассмотрены до взаимной информации)


Второй семестр

Байесовское решающее правило. Генеративные и дискриминативные модели.

Презентация.

Смещение и дисперсия моделей. Статистическая теория переобучения.

Презентация.

Свойства выпуклых функций. Неравенство Йенсена.

Расстояние Кульбака-Лейблера, его неотрицательность.

Скачать презентацию.

EM-алгоритм.

Скачать презентацию

Смеси распределений, их оценивание через EM-алгоритм

Скачать презентацию 1

Скачать презентацию 2

Тематическое моделирование

Скачать презентацию

Кластеризация

Скачать презентацию

Отбор признаков для кластеризации

Скачать презентацию

Оценка качества кластеризации

Скачать презентацию

Нейросети

Скачать презентацию

Рекомендательные системы.

Скачать презентацию

Нелинейное снижение размерности

Скачать презентацию

Личные инструменты