Практикум на ЭВМ (317)/2018 (весна)
Материал из MachineLearning.
(→Материалы занятий) |
(→Темы для выступлений) |
||
(8 промежуточных версий не показаны.) | |||
Строка 37: | Строка 37: | ||
Введение в pytorch. | Введение в pytorch. | ||
| | | | ||
- | [https://github.com/ | + | [https://github.com/mmp-practicum-team/mmp_practicum_spring_2018/blob/master/01.%20Intro%20to%20pytorch/cifar10_tutorial.ipynb база (jupyter)] |
- | [https://github.com/ | + | [https://github.com/mmp-practicum-team/mmp_practicum_spring_2018/blob/master/01.%20Intro%20to%20pytorch/pytorch%20tutorial.ipynb cifar (jupyter)] |
| | | | ||
Строка 53: | Строка 53: | ||
Линейные и свёрточные автокодировщики. | Линейные и свёрточные автокодировщики. | ||
| | | | ||
- | [https://github.com/ | + | [https://github.com/mmp-practicum-team/mmp_practicum_spring_2018/blob/master/02.%20Convolutional%20autoencoders/conv_autoencoder.pdf картинки к лекции] |
| | | | ||
- | [https://github.com/ | + | [https://github.com/mmp-practicum-team/mmp_practicum_spring_2018/blob/master/tasks/01.%20Autoencoders/task1.pdf задание 1] |
<!-- Конец занятия --> | <!-- Конец занятия --> | ||
|- <!-- Новое занятие --> | |- <!-- Новое занятие --> | ||
Строка 79: | Строка 79: | ||
| | | | ||
- | [https://github.com/ | + | [https://github.com/mmp-practicum-team/mmp_practicum_spring_2018/blob/master/04.%20EM%20applications/main.pdf слайды] |
[[Media:Voron-PTM-Bayes.pdf| слайды с выводом формул ТМ ]] | [[Media:Voron-PTM-Bayes.pdf| слайды с выводом формул ТМ ]] | ||
| | | | ||
- | [https://github.com/ | + | [https://github.com/mmp-practicum-team/mmp_practicum_spring_2018/tree/master/tasks/02.%20EM%20applications задание 2] |
<!-- Конец занятия --> | <!-- Конец занятия --> | ||
|- <!-- Новое занятие --> | |- <!-- Новое занятие --> | ||
Строка 111: | Строка 111: | ||
Рекомендательные системы (часть 1) | Рекомендательные системы (часть 1) | ||
| | | | ||
- | [https://github.com/ | + | [https://github.com/mmp-practicum-team/mmp_practicum_spring_2018/blob/master/07.%20Recommendation_systems1/main.pdf слайды] |
| | | | ||
Строка 121: | Строка 121: | ||
Рекомендательные системы (часть 2) | Рекомендательные системы (часть 2) | ||
| | | | ||
- | [https://github.com/ | + | [https://github.com/mmp-practicum-team/mmp_practicum_spring_2018/blob/master/08.Recommendation_systems2/recomm_main.pdf слайды] |
- | [https://github.com/ | + | [https://github.com/mmp-practicum-team/mmp_practicum_spring_2018/blob/master/08.Recommendation_systems2/w2v_main.pdf слайды (negative sampling)] |
| | | | ||
- | [https://github.com/ | + | [https://github.com/mmp-practicum-team/mmp_practicum_spring_2018/tree/master/tasks/03.%20Recommendations задание 3] |
<!-- Конец занятия --> | <!-- Конец занятия --> | ||
|- <!-- Новое занятие --> | |- <!-- Новое занятие --> | ||
Строка 153: | Строка 153: | ||
| | | | ||
| | | | ||
- | [https://github.com/ | + | [https://github.com/mmp-practicum-team/mmp_practicum_spring_2018/tree/master/tasks/04.%20BCH задание 4] |
<!-- Конец занятия --> | <!-- Конец занятия --> | ||
Строка 170: | Строка 170: | ||
| | | | ||
Выступления (темы 13—15) | Выступления (темы 13—15) | ||
+ | | | ||
+ | | | ||
+ | <!-- Конец занятия --> | ||
+ | |- <!-- Новое занятие --> | ||
+ | |24 мая | ||
+ | |Занятие 14 | ||
+ | | | ||
+ | Выступления (темы 16—17) | ||
| | | | ||
| | | | ||
Строка 185: | Строка 193: | ||
плюсы и минусы архитектуры, архитектура LSTM | плюсы и минусы архитектуры, архитектура LSTM | ||
| Шаталов Николай | | Шаталов Николай | ||
- | | | + | | [https://github.com/mmp-practicum-team/mmp_practicum_spring_2018/blob/master/reports/Shatalov_RNN.pdf слайды] |
|- | |- | ||
| align="center"|2 | | align="center"|2 | ||
Строка 192: | Строка 200: | ||
(momentum, адаптивный learning rate, нестеров и тд), примеры методов | (momentum, адаптивный learning rate, нестеров и тд), примеры методов | ||
| Солоткий Михаил | | Солоткий Михаил | ||
- | | | + | | [https://github.com/mmp-practicum-team/mmp_practicum_spring_2018/blob/master/reports/Stochastic_optimization.pdf слайды] |
|- | |- | ||
| align="center"|3 | | align="center"|3 | ||
Строка 198: | Строка 206: | ||
| Dropout, inverted dropout, батч-нормализация, методы инициализации | | Dropout, inverted dropout, батч-нормализация, методы инициализации | ||
| Яворская Мария | | Яворская Мария | ||
- | | | + | | [https://github.com/mmp-practicum-team/mmp_practicum_spring_2018/blob/master/reports/Iavorskaia_reg.pdf слайды] |
|- | |- | ||
| align="center"|4 | | align="center"|4 | ||
Строка 204: | Строка 212: | ||
| VGG, GoogleNet, ResNet, соревнование ImageNet | | VGG, GoogleNet, ResNet, соревнование ImageNet | ||
| Сагайдак Олег | | Сагайдак Олег | ||
- | | | + | | [https://github.com/mmp-practicum-team/mmp_practicum_spring_2018/blob/master/reports/Sagaydak_Modern_neural_nets.pdf слайды] |
|- | |- | ||
| align="center"|5 | | align="center"|5 | ||
| Введение в Generative adversarial network (GAN) | | Введение в Generative adversarial network (GAN) | ||
| Постановка задачи, описание базовой модели GAN, алгоритм обучения | | Постановка задачи, описание базовой модели GAN, алгоритм обучения | ||
- | |Сомов Иван | + | | Сомов Иван |
- | | | + | | [https://github.com/mmp-practicum-team/mmp_practicum_spring_2018/blob/master/reports/Somov_GAN%20.pdf слайды] |
|- | |- | ||
| align="center"|6 | | align="center"|6 | ||
Строка 216: | Строка 224: | ||
| CBOW, Skip-Gram, Hierarchical softmax, Negative sampling | | CBOW, Skip-Gram, Hierarchical softmax, Negative sampling | ||
| Скачков Николай | | Скачков Николай | ||
- | | | + | | [https://github.com/mmp-practicum-team/mmp_practicum_spring_2018/blob/master/reports/Skachkov_word2vec.pdf слайды] |
|- | |- | ||
| align="center"|7 | | align="center"|7 | ||
Строка 222: | Строка 230: | ||
| Постановки и примеры задачи, терминология, MDP, value функции | | Постановки и примеры задачи, терминология, MDP, value функции | ||
| Драгунов Никита | | Драгунов Никита | ||
- | | | + | | [https://github.com/mmp-practicum-team/mmp_practicum_spring_2018/blob/master/reports/RL_Dragunov.pdf слайды] |
|- | |- | ||
| align="center"|8 | | align="center"|8 | ||
| Введение в Reinforcement Learning (часть 2) | | Введение в Reinforcement Learning (часть 2) | ||
| Q-learning, Deep Q-learning | | Q-learning, Deep Q-learning | ||
- | | | + | | Медведев Алексей |
- | | | + | | [https://github.com/mmp-practicum-team/mmp_practicum_spring_2018/blob/master/reports/Medvedev_Alex_Qlearning.pdf слайды] |
|- | |- | ||
| align="center"|9 | | align="center"|9 | ||
Строка 234: | Строка 242: | ||
| Постановку задачи Alpha Go, основные идеи, которые позволили эту | | Постановку задачи Alpha Go, основные идеи, которые позволили эту | ||
задачу эффективно решить, Alpha Go Zero | задачу эффективно решить, Alpha Go Zero | ||
- | | | + | | Медведев Дмитрий |
- | | | + | | [https://github.com/mmp-practicum-team/mmp_practicum_spring_2018/blob/master/reports/AlphaGo.pdf слайды] |
|- | |- | ||
| align="center"|10 | | align="center"|10 | ||
Строка 242: | Строка 250: | ||
подход с attention [https://arxiv.org/pdf/1409.0473.pdf ссылка] | подход с attention [https://arxiv.org/pdf/1409.0473.pdf ссылка] | ||
+ мб что-то ещё | + мб что-то ещё | ||
- | | | + | | Фоминская Галина |
- | | | + | | [https://github.com/mmp-practicum-team/mmp_practicum_spring_2018/blob/master/reports/fominskaya_machine_translation.pdf слайды] |
|- | |- | ||
| align="center"|11 | | align="center"|11 | ||
Строка 250: | Строка 258: | ||
статья [https://arxiv.org/pdf/1502.03044.pdf ссылка] | статья [https://arxiv.org/pdf/1502.03044.pdf ссылка] | ||
+ мб какие-то другие подходы | + мб какие-то другие подходы | ||
- | | | + | | Филимонов Влад |
- | | | + | | [https://github.com/mmp-practicum-team/mmp_practicum_spring_2018/blob/master/reports/Attention_Image_Filimonov.pdf слайды] |
|- | |- | ||
| align="center"|12 | | align="center"|12 | ||
Строка 257: | Строка 265: | ||
| Постановка задачи, концепция memory networks [https://arxiv.org/abs/1410.3916 ссылка], | | Постановка задачи, концепция memory networks [https://arxiv.org/abs/1410.3916 ссылка], | ||
end-to-end memory networks [https://papers.nips.cc/paper/5846-end-to-end-memory-networks.pdf ссылка] | end-to-end memory networks [https://papers.nips.cc/paper/5846-end-to-end-memory-networks.pdf ссылка] | ||
- | | | + | | Шамшиев Мамат |
- | | | + | | [https://github.com/mmp-practicum-team/mmp_practicum_spring_2018/blob/master/reports/Memory%20networks.pdf слайды] |
|- | |- | ||
| align="center"|13 | | align="center"|13 | ||
Строка 264: | Строка 272: | ||
| Постановка задачи, немного о донейросетевых подхода, модель WaveNet и её результаты | | Постановка задачи, немного о донейросетевых подхода, модель WaveNet и её результаты | ||
| Шестакова Анна | | Шестакова Анна | ||
- | | | + | | [https://github.com/mmp-practicum-team/mmp_practicum_spring_2018/blob/master/reports/Shestakova_WaveNet.pdf слайды] |
|- | |- | ||
| align="center"|14 | | align="center"|14 | ||
Строка 271: | Строка 279: | ||
дальнейшие улучшения и обобщения | дальнейшие улучшения и обобщения | ||
| Дженаков Дмитрий | | Дженаков Дмитрий | ||
- | | | + | | [https://github.com/mmp-practicum-team/mmp_practicum_spring_2018/blob/master/reports/PST_Dzhenakov.pdf слайды] |
|- | |- | ||
| align="center"|15 | | align="center"|15 | ||
Строка 278: | Строка 286: | ||
основные подходы к решению, архитектура R-CNN, | основные подходы к решению, архитектура R-CNN, | ||
другие архитектуры, если есть время | другие архитектуры, если есть время | ||
- | | | + | | Пономарева Любовь |
- | | | + | | [https://github.com/mmp-practicum-team/mmp_practicum_spring_2018/blob/master/reports/Detection_Ponomareva.pdf слайды] |
|- | |- | ||
| align="center"|16 | | align="center"|16 | ||
| Современные методы оптимизации второго порядка | | Современные методы оптимизации второго порядка | ||
- | | Введение в методы Гаусса-Ньютона, натуральные градиенты, метод K-FAC для нейросетей, его результаты | + | | Введение в методы Гаусса-Ньютона, натуральные градиенты, |
+ | метод K-FAC для нейросетей, его результаты | ||
| Руднев Виктор | | Руднев Виктор | ||
- | | | + | | [https://github.com/mmp-practicum-team/mmp_practicum_spring_2018/blob/master/reports/Rudnev_KFAC.pdf слайды] |
|- | |- | ||
| align="center"|17 | | align="center"|17 | ||
Строка 292: | Строка 301: | ||
Напоминание про GAN, мотивация Wasserstein GAN, алгоритм, немного про теорию вокруг | Напоминание про GAN, мотивация Wasserstein GAN, алгоритм, немного про теорию вокруг | ||
| Цыпин Артем | | Цыпин Артем | ||
- | | | + | | [https://github.com/mmp-practicum-team/mmp_practicum_spring_2018/blob/master/reports/WGAN.pdf слайды] |
|- | |- | ||
| align="center"|18 | | align="center"|18 | ||
Строка 299: | Строка 308: | ||
| Постановка задачи, разобрать идеи нескольких архитектур, например, U-net, | | Постановка задачи, разобрать идеи нескольких архитектур, например, U-net, | ||
Fully Convolutional DenseNets, LinkNet и другие | Fully Convolutional DenseNets, LinkNet и другие | ||
- | | | + | | Захаренко Вадим |
+ | | [https://github.com/mmp-practicum-team/mmp_practicum_spring_2018/blob/master/reports/segmentation_zakharenko.pdf реферат] | ||
|- | |- | ||
|} | |} |
Текущая версия
- Обязательный курс для студентов каф. ММП 3 курса, 5-6 семестр
- Зачёт с оценкой
- Преподаватели: Д.А. Кропотов, Артём Попов и другие
- Занятия проходят в ауд. 579 по четвергам, начало в 16:20. Первое занятие 8 февраля.
Анонимные отзывы по курсу можно оставлять здесь: ссылка на гугл-форму
Репозиторий со всеми материалами: ссылка на репозиторий
Правила сдачи практикума
1. В рамках семестра предполагается 4 практических задания, выступление на семинаре и 5 проверочных работ по материалам занятий и выступлений.
2. Все практические задания сдаются в систему anytask, инвайт к курсу можно получить у преподавателя. За каждое практическое задание можно получить до 50 баллов. Задание считается принятым на проверку, если написан весь код к заданию (пройдены все выданные тесты), сделано не меньше 50% экспериментов, составлен отчёт.
3. Срок выполнения каждого задания — 2 недели. Далее, в течение 2 недель за каждый день просрочки назначается штраф 1 балл. Задания, сданные после этого срока, НЕ ПРИНИМАЮТСЯ. Студенты, сдавшие по итогам семестра меньше 2 заданий, автоматически отправляются на пересдачу.
4. Тема выступления выдаётся заранее (как минимум за две недели до даты выступления). Продолжительность выступления примерно 20 минут. За выступление можно получить до 40 баллов. Баллы выставляются преподавателями.
5. Даты проведения проверочных работ сообщаются зараннее. За каждую проверочную можно получить до 10 баллов.
6. Итоговая оценка формируется следующим образом:
- отлично — 205 баллов, сдано 4 практических задания, подготовлено выступление
- хорошо — 155 баллов, сдано 3 практических задания, подготовлено выступление
- удовлетворительно — 100 балла, сдано 2 практических задания, подготовлено выступление
Материалы занятий
Дата | Номер | Тема | Материалы | Д/З |
---|---|---|---|---|
8 февраля | Занятие 1 |
Разностное и автоматическое дифференцирование. Введение в pytorch. |
Установить pytorch | |
15 февраля | Занятие 2 |
Многослойные нейронные сети. Свёрточные нейронные сети. Линейные и свёрточные автокодировщики. | ||
22 февраля | Занятие 3 |
ЕМ-алгоритм Восстановление плотности смеси нормальных распределений | ||
1 марта | Занятие 4 |
Применение ЕМ-алгоритма: кластеризация, индетификация, тематические модели, мультиязычные тематические модели | ||
15 марта | Занятие 5 |
Выступления (темы 1 — 2) | ||
22 марта | Занятие 6 |
Выступления (темы 3 — 6) | ||
29 марта | Занятие 7 |
Рекомендательные системы (часть 1) | ||
5 апреля | Занятие 8 |
Рекомендательные системы (часть 2) | ||
12 апреля | Занятие 9 |
Выступления (темы 7 — 9) | ||
19 апреля | Занятие 10 |
Конечные поля, помехоустойчивые коды | ||
4 мая | Занятие 11 |
Коды БЧХ | ||
10 мая | Занятие 12 |
Выступления (темы 10—12) | ||
17 мая | Занятие 13 |
Выступления (темы 13—15) | ||
24 мая | Занятие 14 |
Выступления (темы 16—17) |
Темы для выступлений
№ п/п | Тема | Примечание | ФИО студента | Материалы |
---|---|---|---|---|
1 | Введение в рекуррентные нейронные сети | Базовая модель, примеры задач, back propagation through time,
плюсы и минусы архитектуры, архитектура LSTM | Шаталов Николай | слайды |
2 | Методы стохастической оптимизации для нейросетей | В каких задачах нужны спец. методы, основные идеи для улучшения
(momentum, адаптивный learning rate, нестеров и тд), примеры методов | Солоткий Михаил | слайды |
3 | Методы “регуляризации” нейронных сетей | Dropout, inverted dropout, батч-нормализация, методы инициализации | Яворская Мария | слайды |
4 | Идеи современных архитектур нейросетей для классификации изображений | VGG, GoogleNet, ResNet, соревнование ImageNet | Сагайдак Олег | слайды |
5 | Введение в Generative adversarial network (GAN) | Постановка задачи, описание базовой модели GAN, алгоритм обучения | Сомов Иван | слайды |
6 | Векторные представления слов: word2vec | CBOW, Skip-Gram, Hierarchical softmax, Negative sampling | Скачков Николай | слайды |
7 | Введение в Reinforcement Learning (часть 1) | Постановки и примеры задачи, терминология, MDP, value функции | Драгунов Никита | слайды |
8 | Введение в Reinforcement Learning (часть 2) | Q-learning, Deep Q-learning | Медведев Алексей | слайды |
9 | Alpha Go | Постановку задачи Alpha Go, основные идеи, которые позволили эту
задачу эффективно решить, Alpha Go Zero | Медведев Дмитрий | слайды |
10 | Механизмы внимания для машинного перевода | Постановка задачи, стандартные подходы (encoder-decoder),
подход с attention ссылка + мб что-то ещё | Фоминская Галина | слайды |
11 | Механизмы внимания для генерации описания изображения | Постановка задачи, стандартные подходы (encoder-decoder),
статья ссылка + мб какие-то другие подходы | Филимонов Влад | слайды |
12 | Memory networks для вопросно-ответных систем | Постановка задачи, концепция memory networks ссылка,
end-to-end memory networks ссылка | Шамшиев Мамат | слайды |
13 | Модель WaveNet для генерации звука | Постановка задачи, немного о донейросетевых подхода, модель WaveNet и её результаты | Шестакова Анна | слайды |
14 | Модели переноса стиля | Постановка задачи, базовый алгоритм ссылка,
дальнейшие улучшения и обобщения | Дженаков Дмитрий | слайды |
15 | Идеи современных архитектур для детекции объектов на изображении | Постановка задачи, проблемы задачи (double detection и др.),
основные подходы к решению, архитектура R-CNN, другие архитектуры, если есть время | Пономарева Любовь | слайды |
16 | Современные методы оптимизации второго порядка | Введение в методы Гаусса-Ньютона, натуральные градиенты,
метод K-FAC для нейросетей, его результаты | Руднев Виктор | слайды |
17 | Wasserstein GAN | Достаточно много математики!
Напоминание про GAN, мотивация Wasserstein GAN, алгоритм, немного про теорию вокруг | Цыпин Артем | слайды |
18 | Идеи современных архитектур нейросетей для
семантической сегментации изображений | Постановка задачи, разобрать идеи нескольких архитектур, например, U-net,
Fully Convolutional DenseNets, LinkNet и другие | Захаренко Вадим | реферат |
Требования к отчёту по практическим заданиям
Отчёт должен быть самодостаточным документом в формате PDF, подготовленным в системе LATEX. Студенты, хорошо выполнившие отчёты по прошлым заданиям, получают возможность сдавать отчёты в формате HTML или PDF, подготовленные с помощью jupyter notebook.
Отчёт должен давать проверяющему ответы на следующие вопросы:
- К какому курсу относится задание?
- Какое задание выполнено?
- Кем выполнено задание?
- В чём заключалось задание?
- Что было сделано? Что не было сделано?
- Даны ли правильные ответы на все теоретические вопросы задания?
- Проведены ли все необходимые эксперименты? Получены ли осмысленные ВЫВОДЫ?
- Выполнена ли творческая часть задания?
- Пользовался ли студент чьей-либо помощью? Если да, то в каком объёме?
- Какой литературой пользовался студент?
Требования к программному коду
- Код должен в целом соответствовать PEP8 (eng или rus )
- В частности, код должен проходить автоматическую проверку стиля ссылка. Скрипт запускается из командной строки так: python3 mmp_pep8.py <ваш скрипт>. Код, вызывающий предупреждения, может дополнительно штрафоваться.
- Код должен быть понятным и единообразным. Переменные, функции и другие элементы кода должны иметь осмысленные, значимые имена, отвечающие их назначению.
- Код, который не соответствует прототипам, выданным в задании, автоматически оценивается в 0 баллов
- Код, который не удовлетворяет требованиям задания (например, запрету на использование конкретных библиотек), автоматически оценивается в 0 баллов
- Код, содержащий плагиат, автоматически оценивается в 0 баллов