Численные методы обучения по прецедентам (практика, В.В. Стрижов)/Группа 474, весна 2018

Материал из MachineLearning.

Перейти к: навигация, поиск


Постановка задач в машинном обучении, практические занятия

Курс посвящен технике изложения основной идеи исследования. Обсуждаются постановки задач выбора моделей и способы построения функции ошибки. Обсуждение ведется в формате эссе. Эссе — это изложение идеи постановки и решения задачи. Изложение должно быть достаточно полным (идея восстанавливается однозначно), но кратким (полстраницы) и ясным. Задача ставится формально, желательно использование языка теории множеств, алгебры, матстатистики. Желательно ставить задачу в формате argmin. Пишется в свободной форме, с учетом нашего стиля выполнения научных работ: терминологическая точность и единство обозначений приветствуются[1]. Желательно приводить решение задачи в краткой форме. Обсуждаются эссе слушателей, которые лично присутствуют на занятии и могут прокомментировать задачу. Продолжительность доклада 3 минуты. Для доклада необходимо загрузить эссе в репозиторий и поставить ссылку в таблицу. Оценка выставляется за устный доклад: A или Z баллов.

Эссе хранятся в личной папке Group374/Surname2017Essays/. В папке этого примера есть шаблон эссе. Ссылка на эссе делается по шаблону

 [http://svn.code.sf.net/p/mlalgorithms/code/Group374/Surname2017Essays/Surname2017Essay1.pdf?format=raw 1] 

Можно делать эссе на слайдах с целью укорочения текста.


Важно участвовать в обсуждении (можно по скайпу). Отложенных выступлений не предусмотрено в силу невозможности организовать обсуждение 88 докладов.


Результаты

Автор Ссылки на эссе Доклад \Sigma
Федоряка Дмитрий (пример) 1 ,

2 , 4 , 5 , 6 , 7

1A,2A,3Z,4A,5A,6A,T7,T8 10
Алексеев Василий

1, 2, 3, 4, 5, 6

1A+,2A,3A,4A
Аникеев Дмитрий

4

4Z
Гасанов Эльнур 4

5

4A
Захаренков Антон 1 1Z
Иванычев Сергей 2

3 4

2A,3A
Ковалев Дмитрий
Кубентаева Самал
Макарчук Глеб 1,

2, 2code, 3 4

1A,2A,3A,4A+
Рыбка Елизавета 1, 4 1A,4A
Селезнева Мария 4
Смердов Антон
Шибаев Иннокентий
Шолохов Алексей 2

4 1

1A,2A,4A

Задача 1

Предложить метод, аналогичный методу главных компонент для выборки с признаками, измеренными разнородных шкалах: номинальными, ординальными, линейными, с возможными пропусками. Звездочка: оценить максимальное число пропусков, допустимое для восстановления выборки с заданной точностью. Пример: Бахтеев О.И. Восстановление пропущенных значений в разнородных шкалах с большим числом пропусков // Машинное обучение и анализ данных. 2015. T. 1, №11. C. 1484 - 1499.

Задача 2

Предложить метод, аналогичный методу Mixture of experts для выборок, заданных в полностью или частично упорядоченных шкалах. Метод не должен использовать вероятностных допущений (только матрицу объект-модель). Он должен быть отличен от кластеризации с последующей классификацией кластеров. Примеры корректной работы с такими шкалами первый, см стр. 10 и далее, второй.

Задача 3

Предложить метод, учитывающий закономерность на элементах вектора целевых переменной, аналогично PLS. При этом элементы имеют биномиальное распределение и

  1. полностью упорядочены,
  2. частично упорядочены.

Пример задачи: дано описание заемщика во времени. Требуется спрогнозировать вероятность дефолта по месяцам на год вперед. Тут элементы целевого вектора упорядочены во времени. Решение может быть корректировкой алгоритма PLS или самостоятельным алгоритмом. Примеры PLS1, PLS2.

Задача 4

Решается задача восстановления дерева по (упорядоченному) описанию объекта (например, предложение, длина которого не превышает заданную). Выборка объект-структура задана. Требуется предложить постановку задачи, с функцией ошибки, которая бы штрафовала взвешенный полносвязный граф за то, что он не дерево (упрощенный вариант - не дерево заданного вида). Приветствуется решение, где функция штрафа однократно (или дважды) дифференцируема по весам. Tommi Jaakkola — Scaling structured prediction

Задача 5

Решается задача восстановления дерева по графовому скелетному представлению G жирных линий. Задана выборка {(x=x(G(I)), y)}. Требуется восстановить метку класса (конечное множество) по описанию x, полученному из растрового изображения I. Необходимо записать формальный алгоритм, который можно запрограммировать, ясный для понимания. Алгоритм включает 1) способ построения описания x по скелетному представлению G и 2) способ свертки последовательности векторов x. Свертка графов описана в Han Altae-Tran, 2016. Low Data Drug Discovery with One-shot Learning.

Задача 6

Требуется предложить алгоритм непрерывной аппроксимации параметров локальной модели SEMOR, \|\mathbf{\hat{x}}-\mathbf{x}\|^2_2\to\min, модель \mathbf{\hat{x}} =   w_1+w_2 \mathbf{g}(w_3+w_4 t). Вектор g содержит меньшее число элементов, чем x. Предполагается, что форма модели g приближает форму временного ряда x внутри дискретного сегмента времени, t\in\{T\}.

Задача 7

По изображению человеческого глаза определить окружности, аппроксимирующие внутреннюю и внешнюю границу радужки. Iris_circle_problem.pdf Требуется построить мультимодель, которая с помощью двух прямых в линейной регрессии приближает окружности зрачка и радужки. Выписать априорное предположение о параметрах модели и ограничения в явном виде. Растровые монохромные изображения, типичный размер 640*480 пикселей (однако, возможны и другие размеры)[2], [3].

Задача 8

Прогноз направлений научных исследований и разработок и создание системы критериев качества.

Выбор моделей в задачах регрессии и классификации, лекции

Перед лекциями слушателям предлагается, по желанию, ответить на пять вопросов. Экзамен в конце семестра содержит 50 вопросов, длительность экзамена 1 час.

Тема 1

Выбор вероятностных моделей

Тема 2

Методы оптимизации параметров вероятностных моделей

Тема 3

Оптимизация параметров для выбора моделей глубокого обучения

Тема 4

Выбор вероятностных моделей иерархической классификации

Тема 5

Правдоподобие модели. Построение мультимоделей и анализ пространства их параметров

Тема 6

Оптимизация гиперпараметров вероятностных моделей

Тема 7

Мультимодели

Тема 8

Мультимодели, оптимизация, оценка параметров

  • Нейчев

Тема 9

Вариационные оценки, вариационный автоэнкодер

Тема 10

Оценка объема выборки с использованием байесовского подхода

  • Мотренко А.А. Оценка необходимого объема выборки // МФТИ, 2016, text, text.
Личные инструменты