Математические методы распознавания образов (курс лекций, В.В.Китов)

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Экзамен)
 
(34 промежуточные версии не показаны)
Строка 4: Строка 4:
Курс посвящен алгоритмам машинного обучения (machine learning), которые сами настраиваются на известных данных, выделяя их характерную структуру и взаимосвязи между ними, для их прогнозирования, анализа, компактного описания и визуализации. Основной акцент курса сделан на задачах предсказания дискретных величин (классификация) и непрерывных величин (регрессия), хотя в курсе также рассматриваются смежные области - эффективное снижение размерности пространства, выделение наиболее значимых признаков для предсказания, методы оценивания и сравнения вероятностных распределений, рекомендательные системы и планирование экспериментов.
Курс посвящен алгоритмам машинного обучения (machine learning), которые сами настраиваются на известных данных, выделяя их характерную структуру и взаимосвязи между ними, для их прогнозирования, анализа, компактного описания и визуализации. Основной акцент курса сделан на задачах предсказания дискретных величин (классификация) и непрерывных величин (регрессия), хотя в курсе также рассматриваются смежные области - эффективное снижение размерности пространства, выделение наиболее значимых признаков для предсказания, методы оценивания и сравнения вероятностных распределений, рекомендательные системы и планирование экспериментов.
-
Лектор: [[Участник:Victor Kitov|Виктор Китов]]
+
Лектор: [https://victorkitov.github.io Виктор Китов]
Семинарист: [[Участник:EvgSokolov|Евгений Соколов]]
Семинарист: [[Участник:EvgSokolov|Евгений Соколов]]
 +
 +
===О курсе===
Курс читается студентам 3 курса кафедры «Математические методы прогнозирования» ВМиК МГУ, магистрам, зачисленным на эту кафедру, и не проходивших ранее аналогичных курсов, а также для всех желающих. На материал данного курса опираются последующие кафедральные курсы.
Курс читается студентам 3 курса кафедры «Математические методы прогнозирования» ВМиК МГУ, магистрам, зачисленным на эту кафедру, и не проходивших ранее аналогичных курсов, а также для всех желающих. На материал данного курса опираются последующие кафедральные курсы.
Строка 21: Строка 23:
=Экзамен=
=Экзамен=
-
[https://yadi.sk/i/P13lX_86na1Kiw Билеты]
 
-
=Записи удаленных занятий=
+
[https://disk.yandex.ru/i/IV-PV5kxhjW1kQ Процедура экзамена и вопросы]
-
Записи некоторых удаленных занятий вы можете посмотреть [https://www.youtube.com/playlist?list=PLVF5PzSHILHS4D2vIDyBmnAsMyLLFc6Ir здесь].
+
-
 
+
-
=Записи лекций=
+
-
[https://youtu.be/73qat9HQUpU ММРО - Сингулярное разложение (лекция, 02.04.20)]
+
-
 
+
-
[https://youtu.be/UdosFKwSkDE ММРО - Рекомендательные системы (лекция 09.04.2020)]
+
-
 
+
-
SVD - Доказательство существования и основных свойств (лекция 16.04.2020) - запись не велась.
+
-
 
+
-
[https://youtu.be/Z4NVF9bb5JM ММРО - Модель LDA, кластеризация (лекция, 23.03.20)]
+
-
 
+
-
[https://youtu.be/mEwkuYwVeAw ММРО - Продолжение кластеризации и KDE (лекция 30.04.2020)]
+
-
 
+
-
[https://youtu.be/TnWyKWTEoL0 ММРО - Обнаружение аномалий и активное обучение (лекция 07.05.2020)]
+
-
 
+
-
[https://youtu.be/JeWsCDwcb_g ММРО - Нелинейное снижение размерности, частичное обучение (лекция 14.05.2020)]
+
=Программа курса=
=Программа курса=
Строка 55: Строка 40:
===[https://yadi.sk/i/E4RT7Jyg3Q3U99 Оптимизация метода K ближайших соседей]===
===[https://yadi.sk/i/E4RT7Jyg3Q3U99 Оптимизация метода K ближайших соседей]===
-
===[https://yadi.sk/i/BzsGrci40Kwmgw Метод главных компонент]===
+
===[https://yadi.sk/i/woDoCFT5m-lSfA Линейная регрессия и ее обобщения]===
-
 
+
-
[https://yadi.sk/i/CpG1xsrR3Q3UAZ Свойства симметричных матриц, положительно определенные матрицы, векторное дифференцирование.]
+
-
 
+
-
===[https://yadi.sk/i/mYqnpKYH3Q3UB7 Линейная регрессия]===
+
===[https://yadi.sk/i/Ei8ia4l3RYbIqQ Метод стохастического градиентного спуска]===
===[https://yadi.sk/i/Ei8ia4l3RYbIqQ Метод стохастического градиентного спуска]===
===[https://yadi.sk/i/o6V18ir93Q3UBw Линейная классификация]===
===[https://yadi.sk/i/o6V18ir93Q3UBw Линейная классификация]===
 +
 +
===[https://yadi.sk/i/Yk0xH5y53v0q2g Оценивание классификаторов]===
===[https://yadi.sk/i/Pn-1M3sL3Q3UDq Метод опорных векторов]===
===[https://yadi.sk/i/Pn-1M3sL3Q3UDq Метод опорных векторов]===
-
+вывод двойственной задачи классификации опрорных векторов
+
+[https://yadi.sk/i/nMG8tf6OaMaJbQ вывод двойственной задачи для классификации опорных векторов]
===[https://yadi.sk/i/xSEBiikXZsC8bw Обобщения методов через ядра Мерсера]===
===[https://yadi.sk/i/xSEBiikXZsC8bw Обобщения методов через ядра Мерсера]===
-
+ вывод двойственной задача для регрессии опорных векторов
+
+начало доказательства, что ridge-регрессия допускает обобщение через ядра
-
 
+
-
===[https://yadi.sk/i/UumctWjg3Q3UCY Оценивание классификаторов]===
+
===[https://yadi.sk/i/5Gd8HdQ93Q3UG2 Решающие деревья]===
===[https://yadi.sk/i/5Gd8HdQ93Q3UG2 Решающие деревья]===
Строка 80: Строка 61:
===[https://yadi.sk/i/rDn3NOIFtDc4WQ Усовершенствования бустинга]===
===[https://yadi.sk/i/rDn3NOIFtDc4WQ Усовершенствования бустинга]===
 +
+[https://yadi.sk/i/OJiKEw0dg65omA LogitBoost]
 +
 +
===[https://yadi.sk/i/BzsGrci40Kwmgw Метод главных компонент]===
 +
+[https://yadi.sk/i/CpG1xsrR3Q3UAZ Свойства симметричных матриц, положительно определенные матрицы, векторное дифференцирование.]
==Весенний семестр==
==Весенний семестр==
-
===[https://yadi.sk/i/retsLM0q3Q3UK8 Байесовское решающее правило. Предположение наивного Байеса. Генеративные и дискриминативные модели. Примеры генеративных моделей]===
+
===[https://yadi.sk/i/retsLM0q3Q3UK8 Байесовское решающее правило. Примеры генеративных моделей]===
===[https://yadi.sk/i/sp_Jsg9-3XKuCL Отбор признаков]===
===[https://yadi.sk/i/sp_Jsg9-3XKuCL Отбор признаков]===
Строка 89: Строка 74:
===[https://yadi.sk/i/NhBsfkgwqEbq6A Выпуклые функции]===
===[https://yadi.sk/i/NhBsfkgwqEbq6A Выпуклые функции]===
-
===[https://yadi.sk/i/V1jMp7Ar3Q3UU2 EM-алгоритм]===
+
===[https://disk.yandex.ru/i/u8t6N6garcICng Стандартные распределения]===
===[https://yadi.sk/i/FlxGC4Zg3Q3UUS Смеси распределений]===
===[https://yadi.sk/i/FlxGC4Zg3Q3UUS Смеси распределений]===
 +
 +
===[https://yadi.sk/i/V1jMp7Ar3Q3UU2 EM-алгоритм]===
[https://yadi.sk/i/Z2dLjT0h3Q3UUz Разделение смеси многомерных нормальных распределений]
[https://yadi.sk/i/Z2dLjT0h3Q3UUz Разделение смеси многомерных нормальных распределений]
===[https://yadi.sk/i/ySqnbCn4XVlASw Тематические модели]===
===[https://yadi.sk/i/ySqnbCn4XVlASw Тематические модели]===
-
 
+
(обновлено 01.04.21)
-
[https://yadi.sk/i/d0KD1pGT3WN4PC Вывод EM для PLSA]
+
-
 
+
-
===[https://yadi.sk/i/oYsPa8953W6Fsj Сингулярное разложение]===
+
-
 
+
-
[https://yadi.sk/i/60l0YQG93W6G6H Доказательство основных свойств].
+
===[https://yadi.sk/i/-Kg--noU3Q3USA Ядерно-сглаженные оценки плотности]===
===[https://yadi.sk/i/-Kg--noU3Q3USA Ядерно-сглаженные оценки плотности]===
===[https://yadi.sk/i/5Uu3pOIO3W7KtE Кластеризация]===
===[https://yadi.sk/i/5Uu3pOIO3W7KtE Кластеризация]===
 +
(обновлено 10.04.2021)
===[https://yadi.sk/i/K2EpGFqD3Q3UZM Обнаружение аномалий]===
===[https://yadi.sk/i/K2EpGFqD3Q3UZM Обнаружение аномалий]===
 +
 +
===[https://yadi.sk/i/oYsPa8953W6Fsj Сингулярное разложение]===
 +
 +
[https://yadi.sk/i/60l0YQG93W6G6H Доказательство основных свойств].
===[https://yadi.sk/i/vx3ALyzy3WfCPE Рекомендательные системы]===
===[https://yadi.sk/i/vx3ALyzy3WfCPE Рекомендательные системы]===
===[https://yadi.sk/i/tB-dyX_R3W7LAV Активное обучение]===
===[https://yadi.sk/i/tB-dyX_R3W7LAV Активное обучение]===
-
 
-
===[https://yadi.sk/i/b2Dz8kaV3Q3Ubg Нелинейное снижение размерности]===
 
===[https://yadi.sk/i/8yi21SL5ig_XHQ Частичное обучение]===
===[https://yadi.sk/i/8yi21SL5ig_XHQ Частичное обучение]===
-
 
+
===[https://yadi.sk/i/b2Dz8kaV3Q3Ubg Нелинейное снижение размерности]===
-
 
+
[https://ru.wikipedia.org/wiki/%D0%A1%D1%82%D0%BE%D1%85%D0%B0%D1%81%D1%82%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%BE%D0%B5_%D0%B2%D0%BB%D0%BE%D0%B6%D0%B5%D0%BD%D0%B8%D0%B5_%D1%81%D0%BE%D1%81%D0%B5%D0%B4%D0%B5%D0%B9_%D1%81_t-%D1%80%D0%B0%D1%81%D0%BF%D1%80%D0%B5%D0%B4%D0%B5%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5%D0%BC Метод t-SNE ]
===Рекомендуемые ресурсы по Python===
===Рекомендуемые ресурсы по Python===

Текущая версия

Содержание

Курс посвящен алгоритмам машинного обучения (machine learning), которые сами настраиваются на известных данных, выделяя их характерную структуру и взаимосвязи между ними, для их прогнозирования, анализа, компактного описания и визуализации. Основной акцент курса сделан на задачах предсказания дискретных величин (классификация) и непрерывных величин (регрессия), хотя в курсе также рассматриваются смежные области - эффективное снижение размерности пространства, выделение наиболее значимых признаков для предсказания, методы оценивания и сравнения вероятностных распределений, рекомендательные системы и планирование экспериментов.

Лектор: Виктор Китов

Семинарист: Евгений Соколов

О курсе

Курс читается студентам 3 курса кафедры «Математические методы прогнозирования» ВМиК МГУ, магистрам, зачисленным на эту кафедру, и не проходивших ранее аналогичных курсов, а также для всех желающих. На материал данного курса опираются последующие кафедральные курсы.

По изложению, рассматриваются математические основы методов, лежащие в их основе предположения о данных, взаимосвязи методов между собой и особенности их практического применения.

Курс сопровождается семинарами, раскрывающими дополнительные темы курса и отрабатывающими навыки практического применения рассматриваемых методов. Практическое использование методов машинного обучения в основном будет вестись с использованием языка python и соответствующих библиотек для научных вычислений.

От студентов требуются знания линейной алгебры, математического анализа, теории вероятностей, математической статистики и методов оптимизации. Практические задания должны выполняться с использованием языка Python и его научных библиотек.

Экзамен

Процедура экзамена и вопросы

Программа курса

Осенний семестр

Введение в машинное обучение

Метод ближайших центроидов и K ближайших соседей

Сложность моделей. Подготовка данных

Метрики близости

Оптимизация метода K ближайших соседей

Линейная регрессия и ее обобщения

Метод стохастического градиентного спуска

Линейная классификация

Оценивание классификаторов

Метод опорных векторов

+вывод двойственной задачи для классификации опорных векторов

Обобщения методов через ядра Мерсера

+начало доказательства, что ridge-регрессия допускает обобщение через ядра

Решающие деревья

Ансамбли прогнозирующих алгоритмов. Смещение и дисперсия моделей

Бустинг

Усовершенствования бустинга

+LogitBoost

Метод главных компонент

+Свойства симметричных матриц, положительно определенные матрицы, векторное дифференцирование.

Весенний семестр

Байесовское решающее правило. Примеры генеративных моделей

Отбор признаков

Выпуклые функции

Стандартные распределения

Смеси распределений

EM-алгоритм

Разделение смеси многомерных нормальных распределений

Тематические модели

(обновлено 01.04.21)

Ядерно-сглаженные оценки плотности

Кластеризация

(обновлено 10.04.2021)

Обнаружение аномалий

Сингулярное разложение

Доказательство основных свойств.

Рекомендательные системы

Активное обучение

Частичное обучение

Нелинейное снижение размерности

Метод t-SNE

Рекомендуемые ресурсы по Python

Личные инструменты