|   |     | 
		| (43 промежуточные версии не показаны) | 
| Строка 1: | Строка 1: | 
| - | __NOTOC__
 | + | #REDIRECT [[Глубинное обучение (курс лекций)/2018]] | 
| - |   | + |  | 
| - | Описание
 | + |  | 
| - |   | + |  | 
| - | '''Преподаватели''': [[Участник:Kropotov|Д.А. Кропотов]], [[Участник:Victor Kitov|В.В. Китов]], [[Участник:Dmitry Vetrov|Д.П. Ветров]], [[Участник:Tipt0p|Е.М. Лобачёва]], [[Участник:artemov|А. В. Артёмов]].
 | + |  | 
| - |   | + |  | 
| - | По всем вопросам, связанным с курсом, просьба писать на ''bayesml@gmail.com''. В название письма обязательно добавлять [ВМК ГО16].
 | + |  | 
| - |   | + |  | 
| - | В осеннем семестре 2016 года занятия по курсу проходят на [[ВМК]] в ауд. 582 с 10-30 до 13-50.
 | + |  | 
| - |   | + |  | 
| - | == Система выставления оценок по курсу ==
 | + |  | 
| - | В рамках курса предполагается несколько практических заданий и экзамен. Каждое задание оценивается из 5-ти баллов. За просрочку при сдаче задания начисляется штраф из расчёта 0.1 балла в день, но суммарно не более 3-х баллов. В итоговой оценке 70% составляют баллы за практические задания и 30% — оценка за экзамен. Для получения финального результата (0, 3, 4, 5)итоговая оценка по курсу округляется в большую сторону.
 | + |  | 
| - |   | + |  | 
| - | == Практические задания ==
 | + |  | 
| - |   | + |  | 
| - | Задание 1. Автоматическое дифференцирование для автокодировщика ([[Media:Dl16_assignment1.pdf|формулировка]], [[Media:Dl16_assignment1_codes.zip|коды]]). {{важно|Срок сдачи продлён до '''9 ноября, 23:59'''.}}
 | + |  | 
| - |   | + |  | 
| - | Задание 2. Рекуррентные нейронные сети: [https://drive.google.com/file/d/0B7TWwiIrcJstNDE5N29PNFhfQlU/view?usp=sharing формулировка], [https://drive.google.com/file/d/0B7TWwiIrcJstM1ppckdHdnY5YkU/view?usp=sharing ноутбук с генерацией], [https://drive.google.com/file/d/0B7TWwiIrcJstQTRJYWhidmNKRWM/view?usp=sharing ноутбук с классификацией], [https://drive.google.com/drive/folders/0B7TWwiIrcJstYXpCVV96S1hNUHM?usp=sharing данные]. Срок сдачи: 27 ноября (воскресенье), 23:59.
 | + |  | 
| - |   | + |  | 
| - | Задание 3. Сверточные нейронные сети для детекции объектов: [https://yadi.sk/d/3arpo9Nz32JbpR формулировка], ссылки на данные находятся внутри PDF-файла с формулировкой. Срок сдачи: 20 декабря (вторник), 23:59.
 | + |  | 
| - |   | + |  | 
| - | == Расписание ==
 | + |  | 
| - |   | + |  | 
| - | {| class="standard"
 | + |  | 
| - |  !Дата !! № занятия !! Занятие !! Материалы
 | + |  | 
| - |  |-
 | + |  | 
| - |  | 2 сентября 2016 || align="center"|1 || Введение в курс. Стохастическая оптимизация. || [[Media:DL16_lecture_1.pdf|Презентация]]
 | + |  | 
| - |  |-
 | + |  | 
| - |  | 9 сентября 2016 || align="center"|2 || Сети прямого распространения. Автоматическое дифференцирование. || 
 | + |  | 
| - |  |-
 | + |  | 
| - |  | 16 сентября 2016 || align="center"|3 || Сверточные нейронные сети. || [[Media:DL16_lecture_3.pdf|Презентация]]
 | + |  | 
| - |  |-
 | + |  | 
| - |  | 23 сентября 2016 || align="center"|4 || Регуляризация нейронных сетей. ||  [[Media:DL16-Lecture_4.pdf|Презентация]] 
 | + |  | 
| - |  |-
 | + |  | 
| - |  | 30 сентября 2016 || align="center"|5 || Нейронные сети для компьютерного зрения. Локализация, детектирование и распознавание объектов. ||  [https://yadi.sk/d/ID8zmeKZwY5tN Презентация] 
 | + |  | 
| - |  |-
 | + |  | 
| - |  | rowspan=2|7 октября 2016 || rowspan=2, align="center"|6 || Визуализация слоев. Neural Style.  || [https://yadi.sk/i/hmuXwl9iwY5jn Презентация] 
 | + |  | 
| - |  |-
 | + |  | 
| - |  | Предобработка текстов. || [[Media:DL16-Lecture_7.pdf|Презентация]]
 | + |  | 
| - |  |-
 | + |  | 
| - |  | 14 октября 2016 || align="center"|7 || Рекуррентные нейронные сети. Проблема затухающих и взрывающихся градиентов. || rowspan=2|[https://drive.google.com/file/d/0B7TWwiIrcJstTnp2NktiUUtNbUk/view?usp=sharing Презентация]
 | + |  | 
| - |  |-
 | + |  | 
| - |  | 21 октября 2016 || align="center"|8 || Примеры применения рекуррентных нейронных сетей. Регуляризация. 
 | + |  | 
| - |  |-
 | + |  | 
| - |  | 28 октября 2016 || align="center"|9 || Автокодировщики. || [[Media:DL16_lecture_9.pdf|Презентация]]
 | + |  | 
| - |  |-
 | + |  | 
| - |  | 11 ноября 2016 || align="center"|10 || Байесовский подход к теории вероятностей. Модели со скрытыми переменными. || 
 | + |  | 
| - |  |-
 | + |  | 
| - |  | 18 ноября 2016 || align="center"|11 || Вариационный автокодировщик. Стохастический граф вычислений. || 
 | + |  | 
| - |  |-
 | + |  | 
| - |  | 25 ноября 2016 || align="center"|12 || Генерация текста по картинке. || [https://github.com/ars-ashuha/ars-ashuha.github.io/blob/master/slides/2016.11.11_ImageCaptioning/image_captionong.pdf Презентация]
 | + |  | 
| - |  |-
 | + |  | 
| - |  |}
 | + |  | 
| - |   | + |  | 
| - | == Литература ==
 | + |  | 
| - | # Ian Goodfellow, Yoshua Bengio, Aaron Courville. [http://www.deeplearningbook.org/ Deep Learning], MIT Press, 2016.
 | + |  |