Математические основы теории прогнозирования (курс лекций)
Материал из MachineLearning.
(Добавил студентку Переходько, писавшую 73ий вариант) |
(добавил информацию про показ работ) |
||
Строка 48: | Строка 48: | ||
- | + | Показ работ студентов, не получивших допуск к экзамену, состоится 4 апреля в 1500 в ауд. 573. УБЕДИТЕЛЬНАЯ ПРОСЬБА поставить методистов в известность о своем желании посмотреть работу ЗАРАНЕЕ по е-почте bayesml@gmail.com или vetrovd@yandex.ru | |
== Презентации к лекциям == | == Презентации к лекциям == |
Версия 09:39, 1 апреля 2012
Курс посвящен изучению современных методов диагностики и прогнозирования, основанных на машинном обучении, а также современных методов интеллектуального анализа данных. Даётся обзор современных методов распознавания, включая статистические, нейросетевые, комбинаторно-логические, алгебраические модели, модель опорных векторов. Рассматривается основная проблематика методов машинного обучения, включая эффект переобучения. Изучаются вопросы оценки точности классифицирующих правил или прогностических функций. Рассматривается метод ROC анализа. Изучаются методы интеллектуального анализа данных, включая методы кластерного анализа, многомерного шкалирования, а также метод главных компонент. Рассматриваются математические модели анализа надёжности. |
Лектор: д.ф.-м.н. Сенько Олег Валентинович
Контрольная работа
В программе курса предусмотрена письменная контрольная работа. Успешное написание контрольной работы является обязательным условием допуска к экзамену по курсу. Написание контрольной работы состоялось 23 марта. При написании контрольной работы разрешается пользоваться любыми бумажными материалами. Использование электронных устройств запрещено.
Список студентов, допущенных к экзамену по результатам контрольной работы
В фамилиях и номерах групп возможны неточности, т.к. почерк не всегда легко разобрать.
Группа 420 | Группа 421 | Группа 422 | Группа 424 | Группа 425 | Группа 427 | Группа 428 |
---|---|---|---|---|---|---|
Костин | Новикова | Пискун | Алейников | Свиридов | Шубин | Тарасевич |
Кисляков | Новоторцев | Глонина | Леонова | Самохина | Фролов | Асташкин |
Калужин | Акимов | Самойлов | Ветров | Попеско | Луговской | Мордань |
Александрычева | Шальнов | Самосадный | Светлов | Переходько | Петушкова | Гомзин |
Банников | Карпухин | Калистратова | Рогова | Ющенко | Синева | |
Исламгулов | Меркулов | Артемов | Костарев | Киров | Ефимов | |
Романенков | Батанов | Шилов | Мошкина | Федоренко | ||
Ерофеев | Плотников | Парамонов | Акциперов | |||
Птенцов | Бабак | Копин | Пустовалов | |||
Гурьянов | Гладкова | |||||
Зачесов | Сепевенко | |||||
Сапатов | Коцыняк | |||||
Пироженко |
Показ работ студентов, не получивших допуск к экзамену, состоится 4 апреля в 1500 в ауд. 573. УБЕДИТЕЛЬНАЯ ПРОСЬБА поставить методистов в известность о своем желании посмотреть работу ЗАРАНЕЕ по е-почте bayesml@gmail.com или vetrovd@yandex.ru
Презентации к лекциям
Лекция | Материалы |
---|---|
1 | Презентация (PDF, 364Кб) |
2 | Презентация (PDF, 302Кб) |
3 | Презентация (PDF, 204Кб) |
4 | Презентация (PDF, 267Кб) |
5 | Презентация (PDF, 493Кб) |
Программа курса
Различные постановки задач машинного обучения
Постановка задач машинного обучения. Задачи распознавания и прогнозирования числовых переменных по признаковым описаниям. Настройка алгоритмов по выборкам прецедентов. Обучающая выборка. Обобщающая способность. Области использования методов машинного обучения.
Байесовские классификаторы
Верхние пределы точности. Оптимальные прогностические решения и классифицирующие правила. Байесовские классификаторы.
Методы оценки обобщающей способности алгоритмов
Кросс-проверка, скользящий контроль. Проблема переобучения.
Теоретические оценки обобщающей способности
Теория Вапника-Червоненкиса. Трёхкомпонентное разложение обобщённой ошибки.
ROC анализ
Структура распознающего алгоритма. Распознающий оператор и решающее правило. Кривые ROC анализа.
Методы распознавания, используемые в традиционном статистическом анализе
Методы, основанные на теореме Байеса. Восстановление плотностей вероятности: параметрические методы, ядерные методы. Линейный дискриминант Фишера. Метод ближайших соседей.
Множественная линейная регрессия
Оптимизация с помощью метода наименьших квадратов. Свойства оптимальных линейных регрессий.
Методы, основанные на принципе разделения
Линейная машина.
Метод опорных векторов
Линейный классификатор. Гиперплоскость, максимизирующая зазор между классами. Обучение классификатора как задача квадратичного программирования. Получение двойственной задачи для задачи квадратичного программирования. Ядровой переход. Опорные объекты. Настройка параметров метода.
Уменьшение размерности описания данных. Метод главных компонент
Проблема анализа многомерных данных. Метод главных компонент. Выбор размерности редуцированного пространства.
Литература
- Журавлев Ю.И., Рязанов В.В., Сенько О.В. Распознавание. Математические методы. Программная система. Практические применения, М.: Фазис, 2006. (ISBN 5-7036-0108-8)
- Ветров Д.П., Кропотов Д.А. Байесовские методы машинного обучения, учебное пособие по спецкурсу, 2007 (Часть 1, PDF 1.22МБ; Часть 2, PDF 1.58МБ)
- Bishop C.M. Pattern Recognition and Machine Learning. Springer, 2006.
Страницы курса прошлых лет
Ссылки
Машинное обучение (курс лекций, К.В. Воронцов)
Байесовские методы машинного обучения (спецкурс, Д.П. Ветров, Д.А. Кропотов, А.А. Осокин)