Выбор моделей в машинном обучении (теория и практика, О.Ю. Бахтеев, В.В. Стрижов)/Группа 574, осень 2020
Материал из MachineLearning.
(→Расписание) |
(→Расписание) |
||
Строка 80: | Строка 80: | ||
|[[Media:Grabovoy2020PrivilegeLecture.pdf|Грабовой, Привилегированное обучение и дистилляция моделей]] | |[[Media:Grabovoy2020PrivilegeLecture.pdf|Грабовой, Привилегированное обучение и дистилляция моделей]] | ||
| | | | ||
- | |Новицкий, GAN для решения задач ATLAS | + | |Новицкий, [https://drive.google.com/file/d/1heZkd_eAlWU9KxtQezlIrtNdxQ_ML7g9/view?usp=sharing GAN для решения задач ATLAS] |
|- | |- | ||
|7 октября | |7 октября | ||
Строка 114: | Строка 114: | ||
|18 | |18 | ||
|Исаченко, Стрижов, Априорные предположения при множественном прогнозе PLS | |Исаченко, Стрижов, Априорные предположения при множественном прогнозе PLS | ||
- | |Новицкий, Проблемы и развитие GAN | + | |Новицкий, [https://drive.google.com/file/d/12JWZvJecsD0WnpetMtifUw_KCUHmSr4p/view?usp=sharing Проблемы и развитие GAN] |
| | | | ||
|- | |- |
Версия 08:39, 16 декабря 2020
https://us04web.zoom.us/j/71655633948?pwd=QnRCNFRnTDZiaWt5dVhPRFp1cS9YUT09 занятие в среду 9 сентября в 10:30
Серия семинаров и докладов на тему выбора моделей машинного обучения. Обсуждаются теоретические аспекты и практика байесовского подхода к выбору моделей. Цель семинаров - обсудить роль априорной информации (информативного априорного распределения, informative prior) в методах выбора интерпретируемых моделей с заданными свойствами. Основные вопросы:
- Как учитывать экспертные знания при назначении АР (постановка задач байесовского выбора моделей)?
- Каким образом связаны теоретические модели прикладной области с информативным АР (интерпретируемость моделей с точки зрения теории)?
- Как использовать новую информацию, полученную в результате вывода, при дальнейшем назначении АР (непрерывное обучение)?
Короткий адрес страницы bit.ly/IS_prior, таблица для редактирования
Курс - это cерия семинаров c разбором задач и теоретических новинок с прикладной составляющей (систематизация без популяризации).
Цель быть понятным, когда речь идет о сложных вопросах |
На каждом семинаре повышается квалификация докладчика:
- способность систематизировать теоретические работы и представить в виде единого ясного непротиворечивого сообщения,
- способность увидеть в прикладной задаче систематическую формальную постановку, которая приведет к быстрому качественному решению коммерческого проекта (в отличие от неформальной, при которой программисты работают с черными ящиками и решают проблему исходя не из алгебраической и статистической постановки задачи, а из доступного инструментария). Основная ошибка при подготовке к лекциям - сам разобрался недостаточно подробно и скопировал материал статьи. Опорных статей доблжно быть несколько. На них следует ссылаться внутри слайдов и в конце доклада.
Требования к семинарам, теория
- Единая нотация
- Решаемая проблема
- Основные положения, гипотезы
- Решение
- Свойства и ограничения решения
- Альтернативные решения
- Теоретическая значимость
- Применение на практике
Понимать технологическую новость как будто сам сделал этот проект |
Требования к семинарам, практика
- Примеры прикладной задачи
- Неформальная постановка задачи
- Формальная постановка (в рекомендуемых обозначениях Кузнецов-Катруца-Мотренко-Адуенко-Бахтеев TODO ссылки) в которой есть
- алгебраические структуры на данных
- гипотезы порождения данных
- функции ошибки
- Возможные детали:
- виды моделей, выбор моделей, методы оптимизации
- инструменты для прораммирования
Темы семинаров
- Байесовский вывод (повторение).
- Вариационный вывод, семплирование, VAR, GAN (повторение)
- Оптимизация структур моделей и распределения структурных параметров
- Смеси моделей, смеси экспертов и их применение
- Прямое, обратное преобразование Фурье, его аппроксимация и АР
- Спектральная теория графов и АР
- Применение байесовских методов в биологии и в EM, SRF микроскопии
- Применение байесовских методов в теоретической физике
- Экспертное обучение и способы назначения априорных распределений
- GAN и порождение структур агностических моделей
- Байесовский подход в теории игр и задачи ИИ
- Байесовское программирование и задачи порождения рукописных текстов
- Необходимый размер выборки и его приложения в обучении с подкреплением
Темы на выбор
Указать в таблице одну из тем:
Расписание
Дата | Тема | Тема | Тема |
---|---|---|---|
16 | Стрижов, Мотивация курса | ||
23 | Бахтеев, Критический анализ методов выбора моделей | Грабовой Message passing | Моргачев, Приложения Muiti-Head attention |
30 | Грабовой, Привилегированное обучение и дистилляция моделей | Новицкий, GAN для решения задач ATLAS | |
7 октября | Грабовой, Стрижов, Обучение экспертов | ||
14 | Нейчев, Построение информативных априорных моделей в задачах привилегированного обучения | Моргачев, Обзор обзоров GCNN | Самохина, Generalization in Deep Reinforcement Learning и приложения |
21 | Потанин, Автоэнкодеры для порождения моделей | ||
28 | Адуенко, Байесовский подход к теоретико-игровым задачам | Плетнев, Flows for manifold learning и приложения в моделировании | Грабовой, BERT - теория и анализ свойств с прилоожениями |
4 ноября | |||
11 | Бахтеев, Байесовское программирование Руслана Салахутдинова - что было и чем закончилось | Плетнев, Авторегрессионные потоки и VAR | Самохина, Self-Attention и априорные знания |
18 | Исаченко, Стрижов, Априорные предположения при множественном прогнозе PLS | Новицкий, Проблемы и развитие GAN | |
25 | Никитин, генерация графов | Кириллов, Алгоритм Герхберга-Сакстона и его вариации | |
2 декабря | Кислинский Самообучение | ||
9 | Стрижов, Что думает научное сообщество про учет теорий при построении моделей | Кириллов, Байесовский подход к определению структуры в криоэлектронной микроскопии | |
16 | Кислинский Нейронные дифференциальные уравнения |
Зачеты
- По семинарам: присутствие на семинарах и собеседование в конце, вопросы.
- По практике: две лекции на 40 минут по заданным темам с голосованием.
Литература
- Стрижов В.В. Функция ошибки в задачах восстановления регрессии // Заводская лаборатория. Диагностика материалов, 2013, 79(5) : 65-73.
- Kuznetsov M.P., Tokmakova A.A., Strijov V.V. Analytic and stochastic methods of structure parameter estimation // Informatica, 2016, 27(3) : 607-624.
- Зайцев А.А., Стрижов В.В., Токмакова А.А. Оценка гиперпараметров регрессионных моделей методом максимального правдоподобия // Информационные технологии, 2013, 2 : 11-15.
- Bakhteev O.Y., Strijov V.V. Deep learning model selection of suboptimal complexity // Automation and Remote Control, 2018, 79(8) : 1474–1488.
- Bakhteev O.Y., Strijov V.V. Comprehensive analysis of gradient-based hyperparameter optimization algorithmss // Annals of Operations Research, 2020 : 1-15.