Численные методы обучения по прецедентам (практика, В.В. Стрижов)/Группа 474, весна 2018

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Результаты)
Строка 1: Строка 1:
{{Main|Численные методы обучения по прецедентам (практика, В.В. Стрижов)}}
{{Main|Численные методы обучения по прецедентам (практика, В.В. Стрижов)}}
__NOTOC__
__NOTOC__
 +
 +
==Выбор моделей в задачах регрессии и классификации, лекции==
 +
Перед лекциями слушателям предлагается, по желанию, ответить на пять вопросов. Экзамен в конце семестра содержит 50 вопросов, длительность экзамена 1 час.
 +
 +
=== Тема 1===
 +
Выбор вероятностных моделей
 +
* [http://svn.code.sf.net/p/mvr/code/lectures/Part1`DataGeneration.pdf В.В. Стрижов. Связанный байесовский вывод]
 +
* [http://www.inference.org.uk/itprnn/book.pdf David J C MacKay. 2014. Information theory, inference, and learning algorithms] глава 28.
 +
* [http://strijov.com/papers/Strijov2012ErrorFn.pdf Стрижов В.В. Функция ошибки в задачах восстановления регрессии // Заводская лаборатория. Диагностика материалов, 2013, 79(5) : 65-73.]
 +
 +
=== Тема 2===
 +
Методы оптимизации параметров вероятностных моделей
 +
* [http://svn.code.sf.net/p/mvr/code/lectures/Part2%60ParameterEstimation.pdf В.В. Стрижов. Методы оптимизации параметров вероятностных моделей]
 +
* [http://www.inference.org.uk/itprnn/book.pdf Аппроксимация Лапласа] глава 27.
 +
* [http://strijov.com/papers/HyperOptimizationEng.pdf Kuznetsov M.P., Tokmakova A.A., Strijov V.V. Analytic and stochastic methods of structure parameter estimation // Informatica, 2016, 27(3) : 607-624.]
 +
 +
=== Тема 3===
 +
Оптимизация параметров для выбора моделей глубокого обучения
 +
* [http://svn.code.sf.net/p/mlalgorithms/code/Group074/Bakhteev2016Evidence/doc/BakhteevEvidenceArticle_final.pdf О.Ю. Бахтеев, В.В. Стрижов. Выбор моделей глубокого обучения cубоптимальной сложности // Автоматика и телемеханика, 2018.]
 +
* [https://github.com/bahleg/tex/raw/master/presentations/var_dnn/slides.pdf О.Ю. Бахтеев. Выбор моделей глубокого обучения cубоптимальной сложности.]
 +
* [http://volker.nannen.com/pdf/short_introduction_to_model_selection.pdf Volker Nannen. A Short Introduction to Model Selection, Kolmogorov Complexity and Minimum Description Length (MDL), 2013], see also [http://volker.nannen.com/work/mdl/].
 +
* [https://homepages.cwi.nl/~pdg/ftp/mdlintro.pdf Peter Grunwald. A Tutorial Introduction to the Minimum Description Length Principle, 2004].
 +
* [https://www.sciencedirect.com/science/article/pii/0005109878900055?via%3Dihub Jorma Rissanen. Modeling by shortest data description // Automatica, 1978, 14(5): 465-471.]
 +
 +
=== Тема 4===
 +
Выбор вероятностных моделей иерархической классификации
 +
* [http://svn.code.sf.net/p/mlalgorithms/code/PhDThesis/Kuzmin/Kuzmin2017Thesis.pdf А.А. Кузьмин. Иерархическая классификация коллекций документов, 2017], [http://svn.code.sf.net/p/mlalgorithms/code/PhDThesis/Kuzmin/Kuzmin2017Presentation.pdf слайды.]
 +
* [http://svn.code.sf.net/p/mlalgorithms/code/PhDThesis/Kuzmin/presentationLong/KuzminHSIM.pdf А.А. Кузьмин, В.В. Стрижов. Иерархическая классификация коллекции коротких текстов , 2017.]
 +
* Кузьмин А.А. Иерархические тематические модели крупных конференций // МФТИ, 2016, [https://sourceforge.net/p/mlalgorithms/code/HEAD/tree/PhDThesis/Kuzmin/KuzminEURO2016.pdf?format=raw text], [https://sourceforge.net/p/mlalgorithms/code/HEAD/tree/PhDThesis/Kuzmin/Lecture_2016.pdf?format=raw slides].
 +
 +
=== Тема 5===
 +
Правдоподобие модели. Построение мультимоделей и анализ пространства их параметров
 +
* [[Media:Aduenko_presentation_russian.pdf‎ | Адуенко А.А. Evidence: байесовский подход к выбору моделей // МФТИ, 2018]],
 +
* Адуенко А.А. Анализ пространства параметров в задаче выбора мультимоделей // МФТИ, 2016, [https://sourceforge.net/p/mlalgorithms/code/HEAD/tree/Group974/Aduenko2015EvidenceLecture/Aduenko_presentation_russian.pdf?format=raw slides].
 +
* [http://strijov.com/papers/ZaytsevStrijovTokmakova2012Likelihood_Preprint.pdf Зайцев А.А., Токмакова А.А., Стрижов В.В. Оценка гиперпараметров регрессионных моделей методом максимального правдоподобия // Информационные технологии, 2013, 2 ]
 +
 +
=== Тема 6===
 +
Оптимизация гиперпараметров вероятностных моделей
 +
* [http://svn.code.sf.net/p/mlalgorithms/code/Group074/Bakhteev2017Hypergrad/doc/Bakhteev2017Hypergrad.pdf О.Ю. Бахтеев, В.В. Стрижов. Оптимизация гиперпараметров моделей глубокого обучения градиентными методами, 2018.]
 +
 +
=== Тема 7===
 +
Вариационные оценки, вариационный автоэнкодер
 +
* [https://sourceforge.net/p/mlalgorithms/code/HEAD/tree/Group274/Lectures2017Autumn/Isachenko2017DeepSSL/Isachenko2017SSDeepPres.pdf?format=raw Роман Исаченко: Semi-supervised Learning with Deep Generative Models]
 +
* Аппроксимация, пояснение [[Media:Variational Inference.jpg|пояснение]]
 +
* Auto-encoding variational bayes: https://arxiv.org/pdf/1312.6114.pdf
 +
* Tutorial on Variational Autoencoders: https://arxiv.org/pdf/1606.05908.pdf
 +
* Semi-supervised Learning with Deep Generative Models: https://arxiv.org/pdf/1406.5298.pdf
 +
 +
=== Тема 8===
 +
Построение, оптимизация и выбор мультимоделей
 +
* [https://svn.code.sf.net/p/mlalgorithms/code/PhDThesis/Aduenko2017Multimodels/AduenkoThesis.pdf Адуенко А.А. Выбор моделей в зададчах классификации]
 +
 +
=== Тема 9===
 +
Информативные априорные предположения в баейсовском мультимоделировании
 +
* [https://github.com/neychev/Mixture_of_experts/raw/master/papers2017/SIGIR2017Submission.pdf Радослав Нейчев Heterogeneous model selection for multiscale time series forecasting]
 +
 +
=== Тема 10===
 +
Оценка объема выборки с использованием байесовского подхода
 +
* Мотренко А.А. Оценка необходимого объема выборки // МФТИ, 2016, [https://sourceforge.net/p/mlalgorithms/code/HEAD/tree/PhDThesis/Motrenko/doc/Motrenko2016SsdComparison.pdf?format=raw text], [https://sourceforge.net/p/mlalgorithms/code/HEAD/tree/PhDThesis/Motrenko/doc/Motrenko20XXSampleSize.pdf?format=raw text].
 +
 +
=== Вопросы к экзамену ===
 +
#
 +
#
 +
#
 +
#
 +
#
 +
#
 +
#
 +
#
 +
#
 +
#
 +
 +
=== Дополнительные темы ===
 +
* Выбор моделей Животовский
 +
* GAN Попова
 +
* Мультиколлинеарность, байесовский Беллсли Катруца
 +
 +
 +
 +
==Постановка задач в машинном обучении, практические занятия==
==Постановка задач в машинном обучении, практические занятия==
Строка 149: Строка 229:
=== Задача 8 ===
=== Задача 8 ===
Прогноз направлений научных исследований и разработок.
Прогноз направлений научных исследований и разработок.
-
 
-
==Выбор моделей в задачах регрессии и классификации, лекции==
 
-
Перед лекциями слушателям предлагается, по желанию, ответить на пять вопросов. Экзамен в конце семестра содержит 50 вопросов, длительность экзамена 1 час.
 
-
 
-
=== Тема 1===
 
-
Выбор вероятностных моделей
 
-
* [http://svn.code.sf.net/p/mvr/code/lectures/Part1`DataGeneration.pdf В.В. Стрижов. Связанный байесовский вывод]
 
-
* [http://www.inference.org.uk/itprnn/book.pdf David J C MacKay. 2014. Information theory, inference, and learning algorithms] глава 28.
 
-
* [http://strijov.com/papers/Strijov2012ErrorFn.pdf Стрижов В.В. Функция ошибки в задачах восстановления регрессии // Заводская лаборатория. Диагностика материалов, 2013, 79(5) : 65-73.]
 
-
 
-
=== Тема 2===
 
-
Методы оптимизации параметров вероятностных моделей
 
-
* [http://svn.code.sf.net/p/mvr/code/lectures/Part2%60ParameterEstimation.pdf В.В. Стрижов. Методы оптимизации параметров вероятностных моделей]
 
-
* [http://www.inference.org.uk/itprnn/book.pdf Аппроксимация Лапласа] глава 27.
 
-
* [http://strijov.com/papers/HyperOptimizationEng.pdf Kuznetsov M.P., Tokmakova A.A., Strijov V.V. Analytic and stochastic methods of structure parameter estimation // Informatica, 2016, 27(3) : 607-624.]
 
-
 
-
=== Тема 3===
 
-
Оптимизация параметров для выбора моделей глубокого обучения
 
-
* [http://svn.code.sf.net/p/mlalgorithms/code/Group074/Bakhteev2016Evidence/doc/BakhteevEvidenceArticle_final.pdf О.Ю. Бахтеев, В.В. Стрижов. Выбор моделей глубокого обучения cубоптимальной сложности // Автоматика и телемеханика, 2018.]
 
-
* [https://github.com/bahleg/tex/raw/master/presentations/var_dnn/slides.pdf О.Ю. Бахтеев. Выбор моделей глубокого обучения cубоптимальной сложности.]
 
-
* [http://volker.nannen.com/pdf/short_introduction_to_model_selection.pdf Volker Nannen. A Short Introduction to Model Selection, Kolmogorov Complexity and Minimum Description Length (MDL), 2013], see also [http://volker.nannen.com/work/mdl/].
 
-
* [https://homepages.cwi.nl/~pdg/ftp/mdlintro.pdf Peter Grunwald. A Tutorial Introduction to the Minimum Description Length Principle, 2004].
 
-
* [https://www.sciencedirect.com/science/article/pii/0005109878900055?via%3Dihub Jorma Rissanen. Modeling by shortest data description // Automatica, 1978, 14(5): 465-471.]
 
-
 
-
=== Тема 4===
 
-
Выбор вероятностных моделей иерархической классификации
 
-
* [http://svn.code.sf.net/p/mlalgorithms/code/PhDThesis/Kuzmin/Kuzmin2017Thesis.pdf А.А. Кузьмин. Иерархическая классификация коллекций документов, 2017], [http://svn.code.sf.net/p/mlalgorithms/code/PhDThesis/Kuzmin/Kuzmin2017Presentation.pdf слайды.]
 
-
* [http://svn.code.sf.net/p/mlalgorithms/code/PhDThesis/Kuzmin/presentationLong/KuzminHSIM.pdf А.А. Кузьмин, В.В. Стрижов. Иерархическая классификация коллекции коротких текстов , 2017.]
 
-
* Кузьмин А.А. Иерархические тематические модели крупных конференций // МФТИ, 2016, [https://sourceforge.net/p/mlalgorithms/code/HEAD/tree/PhDThesis/Kuzmin/KuzminEURO2016.pdf?format=raw text], [https://sourceforge.net/p/mlalgorithms/code/HEAD/tree/PhDThesis/Kuzmin/Lecture_2016.pdf?format=raw slides].
 
-
 
-
=== Тема 5===
 
-
Правдоподобие модели. Построение мультимоделей и анализ пространства их параметров
 
-
* [[Media:Aduenko_presentation_russian.pdf‎ | Адуенко А.А. Evidence: байесовский подход к выбору моделей // МФТИ, 2018]],
 
-
* Адуенко А.А. Анализ пространства параметров в задаче выбора мультимоделей // МФТИ, 2016, [https://sourceforge.net/p/mlalgorithms/code/HEAD/tree/Group974/Aduenko2015EvidenceLecture/Aduenko_presentation_russian.pdf?format=raw slides].
 
-
* [http://strijov.com/papers/ZaytsevStrijovTokmakova2012Likelihood_Preprint.pdf Зайцев А.А., Токмакова А.А., Стрижов В.В. Оценка гиперпараметров регрессионных моделей методом максимального правдоподобия // Информационные технологии, 2013, 2 ]
 
-
 
-
=== Тема 6===
 
-
Оптимизация гиперпараметров вероятностных моделей
 
-
* [http://svn.code.sf.net/p/mlalgorithms/code/Group074/Bakhteev2017Hypergrad/doc/Bakhteev2017Hypergrad.pdf О.Ю. Бахтеев, В.В. Стрижов. Оптимизация гиперпараметров моделей глубокого обучения градиентными методами, 2018.]
 
-
 
-
=== Тема 7===
 
-
Вариационные оценки, вариационный автоэнкодер
 
-
* [https://sourceforge.net/p/mlalgorithms/code/HEAD/tree/Group274/Lectures2017Autumn/Isachenko2017DeepSSL/Isachenko2017SSDeepPres.pdf?format=raw Роман Исаченко: Semi-supervised Learning with Deep Generative Models]
 
-
* Аппроксимация, пояснение [[Media:Variational Inference.jpg|пояснение]]
 
-
* Auto-encoding variational bayes: https://arxiv.org/pdf/1312.6114.pdf
 
-
* Tutorial on Variational Autoencoders: https://arxiv.org/pdf/1606.05908.pdf
 
-
* Semi-supervised Learning with Deep Generative Models: https://arxiv.org/pdf/1406.5298.pdf
 
-
 
-
=== Тема 8===
 
-
Построение, оптимизация и выбор мультимоделей
 
-
* [https://svn.code.sf.net/p/mlalgorithms/code/PhDThesis/Aduenko2017Multimodels/AduenkoThesis.pdf Адуенко А.А. Выбор моделей в зададчах классификации]
 
-
 
-
=== Тема 9===
 
-
Информативные априорные предположения в баейсовском мультимоделировании
 
-
* [https://github.com/neychev/Mixture_of_experts/raw/master/papers2017/SIGIR2017Submission.pdf Радослав Нейчев Heterogeneous model selection for multiscale time series forecasting]
 
-
 
-
=== Тема 10===
 
-
Оценка объема выборки с использованием байесовского подхода
 
-
* Мотренко А.А. Оценка необходимого объема выборки // МФТИ, 2016, [https://sourceforge.net/p/mlalgorithms/code/HEAD/tree/PhDThesis/Motrenko/doc/Motrenko2016SsdComparison.pdf?format=raw text], [https://sourceforge.net/p/mlalgorithms/code/HEAD/tree/PhDThesis/Motrenko/doc/Motrenko20XXSampleSize.pdf?format=raw text].
 
-
 
-
=== Вопросы к экзамену ===
 
-
#
 
-
#
 
-
#
 
-
#
 
-
#
 
-
#
 
-
#
 
-
#
 
-
#
 
-
#
 
-
 
-
=== Дополнительные темы ===
 
-
* Выбор моделей Животовский
 
-
* GAN Попова
 
-
* Мультиколлинеарность, байесовский Беллсли Катруца
 

Версия 15:58, 24 мая 2018


Выбор моделей в задачах регрессии и классификации, лекции

Перед лекциями слушателям предлагается, по желанию, ответить на пять вопросов. Экзамен в конце семестра содержит 50 вопросов, длительность экзамена 1 час.

Тема 1

Выбор вероятностных моделей

Тема 2

Методы оптимизации параметров вероятностных моделей

Тема 3

Оптимизация параметров для выбора моделей глубокого обучения

Тема 4

Выбор вероятностных моделей иерархической классификации

Тема 5

Правдоподобие модели. Построение мультимоделей и анализ пространства их параметров

Тема 6

Оптимизация гиперпараметров вероятностных моделей

Тема 7

Вариационные оценки, вариационный автоэнкодер

Тема 8

Построение, оптимизация и выбор мультимоделей

Тема 9

Информативные априорные предположения в баейсовском мультимоделировании

Тема 10

Оценка объема выборки с использованием байесовского подхода

  • Мотренко А.А. Оценка необходимого объема выборки // МФТИ, 2016, text, text.

Вопросы к экзамену

Дополнительные темы

  • Выбор моделей Животовский
  • GAN Попова
  • Мультиколлинеарность, байесовский Беллсли Катруца



Постановка задач в машинном обучении, практические занятия

Курс посвящен технике изложения основной идеи исследования. Обсуждаются постановки задач выбора моделей и способы построения функции ошибки. Обсуждение ведется в формате эссе. Эссе — это изложение идеи постановки и решения задачи. Изложение должно быть достаточно полным (идея восстанавливается однозначно), но кратким (полстраницы) и ясным. Задача ставится формально, желательно использование языка теории множеств, алгебры, матстатистики. Желательно ставить задачу в формате argmin. Пишется в свободной форме, с учетом нашего стиля выполнения научных работ: терминологическая точность и единство обозначений приветствуются[2]. Желательно приводить решение задачи в краткой форме. Обсуждаются эссе слушателей, которые лично присутствуют на занятии и могут прокомментировать задачу. Продолжительность доклада 3 минуты. Для доклада необходимо загрузить эссе в репозиторий и поставить ссылку в таблицу. Оценка выставляется за устный доклад: A или Z баллов.

Эссе хранятся в личной папке Group374/Surname2017Essays/. В папке этого примера есть шаблон эссе. Ссылка на эссе делается по шаблону

 [http://svn.code.sf.net/p/mlalgorithms/code/Group374/Surname2017Essays/Surname2017Essay1.pdf?format=raw 1] 

Можно делать эссе на слайдах с целью укорочения текста.


Важно участвовать в обсуждении (можно по скайпу). Отложенных выступлений не предусмотрено в силу невозможности организовать обсуждение 88 докладов.


Результаты

Автор Ссылки на эссе Доклад \Sigma
Федоряка Дмитрий (пример) 1 ,

2 , 4 , 5 , 6 , 7

1A,2A,3Z,4A,5A,6A,T7,T8 10
Алексеев Василий

1, 2, 3, 4, 5, 6, 7

1A+,2A,3A,4A,5A,6A,7A+
Аникеев Дмитрий

4

4Z
Гасанов Эльнур

4 5 6 7

4A,5A,6A,7A
Захаренков Антон 1 1Z
Иванычев Сергей 1

2 3 4

1A,2A,3A,4A
Ковалев Дмитрий
Кубентаева Самал 5 5a
Макарчук Глеб 1,

2, 2code, 3 4

1A,2A,3A,4A+
Рыбка Елизавета 1, 4 1A,4A
Селезнева Мария 4
Смердов Антон
Шибаев Иннокентий
Шолохов Алексей 2

4 1

1A,2A,4A

Задача 1

Предложить метод, аналогичный методу главных компонент для выборки с признаками, измеренными разнородных шкалах: номинальными, ординальными, линейными, с возможными пропусками. Звездочка: оценить максимальное число пропусков, допустимое для восстановления выборки с заданной точностью. Пример: Бахтеев О.И. Восстановление пропущенных значений в разнородных шкалах с большим числом пропусков // Машинное обучение и анализ данных. 2015. T. 1, №11. C. 1484 - 1499.

Задача 2

Предложить метод, аналогичный методу Mixture of experts для выборок, заданных в полностью или частично упорядоченных шкалах. Метод не должен использовать вероятностных допущений (только матрицу объект-модель). Он должен быть отличен от кластеризации с последующей классификацией кластеров. Примеры корректной работы с такими шкалами первый, см стр. 10 и далее, второй.

Задача 3

Предложить метод, учитывающий закономерность на элементах вектора целевых переменной, аналогично PLS. При этом элементы имеют биномиальное распределение и

  1. полностью упорядочены,
  2. частично упорядочены.

Пример задачи: дано описание заемщика во времени. Требуется спрогнозировать вероятность дефолта по месяцам на год вперед. Тут элементы целевого вектора упорядочены во времени. Решение может быть корректировкой алгоритма PLS или самостоятельным алгоритмом. Примеры PLS1, PLS2.

Задача 4

Решается задача восстановления дерева по (упорядоченному) описанию объекта (например, предложение, длина которого не превышает заданную). Выборка объект-структура задана. Требуется предложить постановку задачи, с функцией ошибки, которая бы штрафовала взвешенный полносвязный граф за то, что он не дерево (упрощенный вариант - не дерево заданного вида). Приветствуется решение, где функция штрафа однократно (или дважды) дифференцируема по весам. Tommi Jaakkola — Scaling structured prediction

Задача 5

Решается задача восстановления дерева по графовому скелетному представлению G жирных линий. Задана выборка {(x=x(G(I)), y)}. Требуется восстановить метку класса (конечное множество) по описанию x, полученному из растрового изображения I. Необходимо записать формальный алгоритм, который можно запрограммировать, ясный для понимания. Алгоритм включает 1) способ построения описания x по скелетному представлению G и 2) способ свертки последовательности векторов x. Свертка графов описана в Han Altae-Tran, 2016. Low Data Drug Discovery with One-shot Learning.

Задача 6

Требуется предложить алгоритм непрерывной аппроксимации параметров локальной модели SEMOR, \|\mathbf{\hat{x}}-\mathbf{x}\|^2_2\to\min, модель \mathbf{\hat{x}} =   w_1+w_2 \mathbf{g}(w_3+w_4 t). Вектор \mathbf{g} содержит меньшее число элементов, чем исходный ряд, в сегменте времени коророго производится аппроксимация, \mathbf{s} = [ \mathbf{s}_{\text{start}}, \mathbf{x}, \mathbf{s}_{\text{end}} ]. Предполагается, что форма модели \mathbf{g} приближает форму временного ряда \mathbf{x} внутри дискретного сегмента времени, t\in\{1,\dots,T\} , исходного ряда \mathbf{s}.

Задача 7

По изображению человеческого глаза определить окружности, аппроксимирующие внутреннюю и внешнюю границу радужки. Iris_circle_problem.pdf Требуется построить мультимодель, которая с помощью двух прямых в линейной регрессии приближает окружности зрачка и радужки. Выписать функцию ошибки, включающую априорное предположение о параметрах модели и ограничения в явном виде. Растровые монохромные изображения, типичный размер 640*480 пикселей (однако, возможны и другие размеры)[3], [4].

Задача 8

Прогноз направлений научных исследований и разработок.

Личные инструменты