Математические основы теории прогнозирования (курс лекций)
Материал из MachineLearning.
(→Презентации к лекциям) |
(→Презентации к лекциям) |
||
Строка 78: | Строка 78: | ||
|- | |- | ||
| align="center"|10 || [[Media:MOTP12_10.pdf|Презентация (PDF, 493Кб)]] | | align="center"|10 || [[Media:MOTP12_10.pdf|Презентация (PDF, 493Кб)]] | ||
+ | |- | ||
+ | | align="center"|11 || [[Media:MOTP12_11.pdf|Презентация (PDF, 493Кб)]] | ||
|- | |- | ||
|} | |} |
Версия 10:00, 11 мая 2012
Курс посвящен изучению современных методов диагностики и прогнозирования, основанных на машинном обучении, а также современных методов интеллектуального анализа данных. Даётся обзор современных методов распознавания, включая статистические, нейросетевые, комбинаторно-логические, алгебраические модели, модель опорных векторов. Рассматривается основная проблематика методов машинного обучения, включая эффект переобучения. Изучаются вопросы оценки точности классифицирующих правил или прогностических функций. Рассматривается метод ROC анализа. Изучаются методы интеллектуального анализа данных, включая методы кластерного анализа, многомерного шкалирования, а также метод главных компонент. Рассматриваются математические модели анализа надёжности. |
Лектор: д.ф.-м.н. Сенько Олег Валентинович
Контрольная работа
В программе курса предусмотрена письменная контрольная работа. Успешное написание контрольной работы является обязательным условием допуска к экзамену по курсу. При отсутствии допуска студент пишет контрольную работу на экзамене и в случае успеха сдает экзамен на первой пересдаче.
При написании контрольной работы разрешается пользоваться любыми бумажными материалами, а также калькуляторами. Использование электронных устройств (кроме калькуляторов) запрещено.
Список студентов, допущенных к экзамену по результатам контрольной работы (с учетом переписывания)
В фамилиях и номерах групп возможны неточности, т.к. почерк не всегда легко разобрать.
Группа 420 | Группа 421 | Группа 422 | Группа 424 | Группа 425 | Группа 427 | Группа 428 |
---|---|---|---|---|---|---|
Костин | Новикова | Пискун | Алейников | Свиридов | Шубин | Тарасевич |
Кисляков | Новоторцев | Глонина | Леонова | Самохина | Фролов | Асташкин |
Калужин | Акимов | Самойлов | Ветров | Попеско | Луговской | Мордань |
Александрычева | Шальнов | Самосадный | Светлов | Переходько | Петушкова | Гомзин |
Банников | Карпухин | Калистратова | Рогова | Пузиков | Ющенко | Синева |
Исламгулов | Меркулов | Артемов | Костарев | Второв | Киров | Ефимов |
Романенков | Батанов | Шилов | Мошкина | Степанов | Федоренко | Устинова |
Куркин | Ерофеев | Плотников | Парамонов | Шариков | Акциперов | Терзи |
Челнокова | Птенцов | Бабак | Копин | Пустовалов | Агаев | |
Гурьянов | Булгаков | Вайсман | Гладкова | Бадретдинов | ||
Зачесов | Ермишкин | Пояркова | Сепевенко | Ушаков | ||
Сапатов | Лоза | Коцыняк | Шуберт | |||
Пироженко | Нечаев | Лукин | ||||
Сумин | Ростовский | Федотов | ||||
Самсонов | Голушко | |||||
Конев | Фионов |
Презентации к лекциям
Программа курса
Различные постановки задач машинного обучения
Постановка задач машинного обучения. Задачи распознавания и прогнозирования числовых переменных по признаковым описаниям. Настройка алгоритмов по выборкам прецедентов. Обучающая выборка. Обобщающая способность. Области использования методов машинного обучения.
Байесовские классификаторы
Верхние пределы точности. Оптимальные прогностические решения и классифицирующие правила. Байесовские классификаторы.
Методы оценки обобщающей способности алгоритмов
Кросс-проверка, скользящий контроль. Проблема переобучения.
Теоретические оценки обобщающей способности
Теория Вапника-Червоненкиса. Трёхкомпонентное разложение обобщённой ошибки.
ROC анализ
Структура распознающего алгоритма. Распознающий оператор и решающее правило. Кривые ROC анализа.
Методы распознавания, используемые в традиционном статистическом анализе
Методы, основанные на теореме Байеса. Восстановление плотностей вероятности: параметрические методы, ядерные методы. Линейный дискриминант Фишера. Метод ближайших соседей.
Множественная линейная регрессия
Оптимизация с помощью метода наименьших квадратов. Свойства оптимальных линейных регрессий.
Методы, основанные на принципе разделения
Линейная машина.
Метод опорных векторов
Линейный классификатор. Гиперплоскость, максимизирующая зазор между классами. Обучение классификатора как задача квадратичного программирования. Получение двойственной задачи для задачи квадратичного программирования. Ядровой переход. Опорные объекты. Настройка параметров метода.
Уменьшение размерности описания данных. Метод главных компонент
Проблема анализа многомерных данных. Метод главных компонент. Выбор размерности редуцированного пространства.
Литература
- Журавлев Ю.И., Рязанов В.В., Сенько О.В. Распознавание. Математические методы. Программная система. Практические применения, М.: Фазис, 2006. (ISBN 5-7036-0108-8)
- Ветров Д.П., Кропотов Д.А. Байесовские методы машинного обучения, учебное пособие по спецкурсу, 2007 (Часть 1, PDF 1.22МБ; Часть 2, PDF 1.58МБ)
- Bishop C.M. Pattern Recognition and Machine Learning. Springer, 2006.
Страницы курса прошлых лет
Ссылки
Машинное обучение (курс лекций, К.В. Воронцов)
Байесовские методы машинного обучения (спецкурс, Д.П. Ветров, Д.А. Кропотов, А.А. Осокин)