Численные методы обучения по прецедентам (практика, В.В. Стрижов)/Группа 774, весна 2010

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Задачи)
(Задачи)
Строка 30: Строка 30:
|-
|-
| [[Однослойные сети RBF для решения задач регрессии (пример)]]
| [[Однослойные сети RBF для решения задач регрессии (пример)]]
-
|
+
| Кононенко Даниил
|
|
|-
|-

Версия 18:25, 16 марта 2010

Численные методы обучения по прецедентам (программа курса)

Задачи

Название алгоритма Работу выполняет Работу рецензируют
SVM для линейно разделимой выборки (пример) Морозов Алексей Корниенко
SVM для линейно неразделимой выборки (пример) Сечин Павел Кузнецов Михаил
SVM регрессия (пример)
Прореживание двухслойной нейронной сети (пример) Кузнецов Михаил Сечин, Савинов
Выбор признаков с помощью генетических алгоритмов (пример) Савинов Николай Мафусалов, Кузнецов
Однослойные сети RBF для решения задач регрессии (пример) Кононенко Даниил
Анализ регрессионных остатков (пример)
Анализ мультиколлинеарности (пример)
Выбор признаков логистической регрессии (пример)
Прогнозирование временных рядов методом SSA (пример) Фадеев Илья Кононенко, Фирстенко
Аппроксимация Лапласа (пример)

Решить задачу разделения двух классов в пространстве малой размерности методом SVM для линейно неразделимой выборки. Исследовать устойчивость алгоритма: зависимость параметров разделяющей гиперплоскости от дисперсии случайной переменной или наличия выбросов.

Решить задачу разделения двух классов в пространстве малой размерности метдом SVM для линейно неразделимой выборки. В этом случае предлагается использовать несколько различных ядер. Для синтетических данных - двух классов, каждый из которых состоит из смеси гауссовых распределений, подобрать оптимальное ядро.

Решить задачу восстановления регрессии методом SVM. Исследовать зависимость евклидовой нормы вектора параметров от дисперсии случайной величины. Использовать несколько функций распределения. Визуализировать эту зависимость. Визуализировать функцию потерь.

Решить задачу восстановления регрессии с использованием двухслойной нейронной сети. Методом оптимального прореживания нейронных сетей вычислить функцию выпуклости. Исследовать закономерности изменения параметров нейронной сети в процессе прореживания.

Решить задачу восстановления линейной регрессии с разделением выборки на обучающую и тестовую. Использовать и сравнить несколько стратегий генетических алгоритмов при выборе признаков линейной регрессионной модели. Исследовать скорость сходимости каждого из алгоритмов в зависимости от параметров.

Решить задачу восстановления регрессии с использованием сетей RBF. Для настройки сетей использовать EM-алгоритм с добавлением. Исследовать зависимость дисперсии компонент от дисперсии зависимой переменной. Исследовать зависимость дисперсии компонент от их числа.

Решать задачу восстановления линейной регрессии с помощью МНК. Создать инструмент анализа регрессионных остатков. Создать инструмент исследования значимости признаков. Исследовать поведение регрессионных остатков для гетероскедаксичного случая. Нарисовать доверительные интервалы восстановленной зависимой переменной.

Решить задачу восстановления линейной регрессии с помощью МНК. Создать инструмент исследования мультиколлинеарности признаков (методики VIF, Belsley). Исследовать устойчивость модели: зависимость параметров модели от дисперсии случайной переменной и выбросов в выборке. Проанализировать результаты исследования с точки зрения VIF, Belsley.

Решать задачу выбора признаков восстановления логистической регрессии с помощью метода LARS. Сравнить этот метод и метод шаговой регрессии. Исследовать поведение LARS в разных случаях мультикоррелирующих признаков.

Создать алгоритм прогнозирования многомерных временных рядов методом "Гусеница". Исследовать поведение алгоритма при наличии выбросов во временных рядах. Исследовать поведение алгоритма в случае нарушения периодичности временного ряда.

Для нескольких регрессионных моделей создать процедуру сэмплирования и визуализации пространства параметров. Построить аппроксимацию Лапласа. Исследовать зависимость дисперсии параметров модели от дисперсии случайной величины - зависимой переменной.

Экзамен

22, 29 апреля и 6 мая

Личные инструменты