Математические методы прогнозирования (практика, В.В. Стрижов)/Группа 674, весна 2020
Материал из MachineLearning.
(Различия между версиями)
(→Темы лекций) |
(→Темы лекций) |
||
Строка 46: | Строка 46: | ||
! Докладчик | ! Докладчик | ||
! Ссылки | ! Ссылки | ||
+ | |- | ||
+ | |12 февраля | ||
+ | | SVD | ||
+ | | Роман Исаченко | ||
+ | | | ||
+ | | | ||
+ | |- | ||
+ | | 19 февраля | ||
+ | | Метод главных компонент и разложение Карунена-Лоэва | ||
+ | | Роман Исаченко | ||
+ | | | ||
+ | | | ||
+ | |- | ||
+ | | 26 февраля | ||
+ | | Обобщенно-линейные модели теорема о связи | ||
+ | | Андрей Грабовой | ||
+ | | | ||
+ | | | ||
+ | |- | ||
+ | | 4 марта | ||
+ | | РАС обучаемость | ||
+ | | Тамаз Гадаев | ||
+ | | | ||
+ | | | ||
+ | |- | ||
+ | | 11 марта | ||
+ | | NFLT | ||
+ | | Радослав Нейчев | ||
+ | | | ||
+ | | | ||
+ | |- | ||
+ | | 18 марта | ||
+ | | Три теоремы о нейросетях | ||
+ | | Марк Потанин | ||
+ | | | ||
+ | | | ||
+ | |- | ||
+ | | | ||
+ | | Метод главных компонент и разложение Карунена-Лоэва | ||
+ | | | ||
+ | | | ||
+ | | | ||
+ | |- | ||
+ | | | ||
+ | |Метод главных компонент и разложение Карунена-Лоэва | ||
+ | | | ||
+ | | | ||
+ | | | ||
+ | |- | ||
+ | | | ||
+ | |Метод главных компонент и разложение Карунена-Лоэва | ||
+ | | | ||
+ | | | ||
+ | | | ||
|- | |- | ||
| | | |
Версия 15:20, 8 февраля 2020
Фундаментальные теоремы машинного обучения Мотивация
- Диссертации к.ф.-м.н. должны содержать обоснованный математический аппрат и теоремы. Студенческие дипломные работы с теоремами приветствуются.
- Подготовка сборника коллективом авторов.
Темы лекций
- Теорема о сингулярном разложении Молер-Форсайт и другие разложения
- Метод главных компонент Рао и разложение Карунена-Лоэва
- Теоремы Колмогорова и Арнольда, теорема об универсальном аппроксиматоре Цыбенко, теорема о глубоких нейросетях
- Теорема о бесплатных обедах в машинном обучении, Волперт
- Метрические пространства: RKHS Аронжайн, теорема Мерсера
- Теорема схем, Холланд
- Теорема о свертке (Фурье, свертка, автокорреляция) с примерами сверточных сетей
- Обратная теорема Фурье, теорема Парсеваля (равномерная и неравномерная сходимость)
- РАС-learning, теорема о том, что сжатие предполагает обучаемость
- Representer theorem, Schölkopf, Herbrich, and Smola
- Вариационная аппроксимация
- Сходимость про вероятности при выборе моделей
- Теорема о связи распределений в экспонентном семействе
- (? Теорема про бандитов)
- (? Копулы и теорема Скляра)
Предлагаемый план изложения материала:
- Введение: основное сообщение теоремы в понятном (не обязательно строгом) изложении
- Вводная часть: определение терминов и сведения, необходимые для изложения (обозначения можно использовать авторские или [ссылка на обозначения Б.А.С.])
- Формулировка и доказательство теоремы в строгом изложении (можно отходить от авторского варианта, если нужно для ясности)
- Значимость теоремы: обзор методов и приложений, иллюстрирующих теорему
Дата (можно менять, но согласовывать с другими) | Тема | Лектор | Докладчик | Ссылки |
---|---|---|---|---|
12 февраля | SVD | Роман Исаченко | ||
19 февраля | Метод главных компонент и разложение Карунена-Лоэва | Роман Исаченко | ||
26 февраля | Обобщенно-линейные модели теорема о связи | Андрей Грабовой | ||
4 марта | РАС обучаемость | Тамаз Гадаев | ||
11 марта | NFLT | Радослав Нейчев | ||
18 марта | Три теоремы о нейросетях | Марк Потанин | ||
Метод главных компонент и разложение Карунена-Лоэва | ||||
Метод главных компонент и разложение Карунена-Лоэва | ||||
Метод главных компонент и разложение Карунена-Лоэва | ||||
Метод главных компонент и разложение Карунена-Лоэва |
Темы докладов
- Короткий адрес страницы http://bit.ly/2U3ExKd
- Основная статья