Методы оптимизации в машинном обучении (курс лекций)
Материал из MachineLearning.
(Различия между версиями)
(программа) |
|||
Строка 36: | Строка 36: | ||
== Программа курса == | == Программа курса == | ||
+ | |||
+ | === Основные понятия и примеры задач === | ||
+ | |||
+ | * Градиент и гессиан функции многих переменных, их свойства, необходимые и достаточные условия безусловного экстремума; | ||
+ | * Матричные вычисления, примеры; | ||
+ | * Матричные разложения, их использование для решения СЛАУ; | ||
+ | * Выпуклые множества и функции; | ||
+ | * Классификация задач оптимизации, виды оракулов; | ||
+ | * Примеры задач машинного обучения со «сложной» оптимизацией; | ||
+ | * Итерационные процессы в оптимизации, виды сходимости, правила останова. | ||
+ | |||
+ | === Методы одномерной оптимизации === | ||
+ | |||
+ | * Минимизация функции без производной: метод золотого сечения, метод парабол; | ||
+ | * Гибридный метод минимизации Брента; | ||
+ | * Использование производной в оптимизации, кубическая аппроксимация и модифицированный метод Брента, минимизация выпуклой функции; | ||
+ | * Поиск ограничивающего сегмента; | ||
+ | * Условия Голдштайна-Деккера для неточных методов одномерной оптимизации; | ||
+ | * Неточные методы одномерной оптимизации, backtracking. | ||
+ | |||
+ | === Базовые методы многомерной оптимизации === | ||
+ | |||
+ | * Метод покоординатного спуска; | ||
+ | * Методы градиентного спуска: наискорейший спуск, спуск с неточной одномерной оптимизацией, зависимость от шкалы измерений признаков; | ||
+ | * Метод Ньютона, подбор длины шага; | ||
+ | * Фазы итерационного процесса, LDL-разложение, гибридный метод Ньютона; | ||
+ | * Метод Levenberg-Marquardt, его использование для обучения нелинейной регрессии. | ||
+ | |||
+ | === Продвинутые методы многомерной оптимизации === | ||
+ | |||
+ | * Квази-ньютоновские методы оптимизации: BFGS и L-BFGS. | ||
+ | * Метод сопряженных градиентов; | ||
+ | * Метод сопряженных градиентов с предопределением, его использование для решения разреженных СЛАУ большого объема. | ||
+ | |||
+ | === Методы оптимизации с использованием глобальных верхних оценок === | ||
+ | |||
+ | * Идея метода, сходимость; | ||
+ | * Построение оценок с помощью неравенства Йенсена, ЕМ-алгоритм, вариационный подход; | ||
+ | * Построение оценок с помощью касательных, оценка Jaakkola-Jordan, nu-trick; | ||
+ | * Применение оценок для обучения L1-регуляризованной линейной/логистической регрессии; | ||
+ | * Выпукло-вогнутая процедура для задач безусловной и условной оптимизации, примеры использования. | ||
+ | |||
+ | === Задачи оптимизации с ограничениями === | ||
+ | |||
+ | * Двойственная функция Лагранжа и Фенхеля, их основные свойства. | ||
+ | * Необходимые и достаточные условия оптимальности в задачах условной оптимизации, теорема Куна-Таккера. | ||
+ | * Двойственная задача, графическая интерпретация, смысл коэффициентов Лагранжа. | ||
+ | * Решение задач условной оптимизации с линейными ограничениями вида равенство, метод Ньютона. | ||
+ | |||
+ | === Методы внутренней точки === | ||
+ | |||
+ | * Метод внутренней точки; | ||
+ | * Прямодвойственный метод внутренней точки; | ||
+ | * Быстрые алгоритмы умножения матрицы на вектор и их использование в методе внутренней точки. | ||
+ | |||
+ | === Разреженные методы машинного обучения, L1-регуляризация === | ||
+ | |||
+ | * Примеры задач и виды разреженных регуляризаторов; | ||
+ | * Проксимальный метод; | ||
+ | * Метод покоординатного спуска и блочной покоординатной оптимизации; | ||
+ | * Метод внутренней точки. | ||
+ | |||
+ | === Методы cutting plane и bundle === | ||
+ | |||
+ | * Субградиент выпуклой функции. | ||
+ | |||
+ | === Стохастическая оптимизация === | ||
+ | |||
== Литература == | == Литература == |
Версия 20:34, 4 сентября 2012
Страница курса находится в стадии формирования |
Автор курса: Д.А. Кропотов. Вопросы и комментарии по курсу просьба оставлять на вкладке «обсуждение» к этой странице или адресовать письмом на bayesml@gmail.com. В название письма просьба добавлять [МОМО12].
Расписание на 2012 учебный год
В осеннем семестре 2012 года спецкурс читается на ВМК по понедельникам в ауд. 506, начало в 18-05.
Дата | Название лекции | Материалы |
---|---|---|
10 сентября 2012 | Введение в курс | |
17 сентября 2012 | Лекции не будет | |
24 сентября 2012 | Методы одномерной минимизации |
Оценка за курс
В рамках курса студентам предлагается выполнить ряд практических заданий.
Программа курса
Основные понятия и примеры задач
- Градиент и гессиан функции многих переменных, их свойства, необходимые и достаточные условия безусловного экстремума;
- Матричные вычисления, примеры;
- Матричные разложения, их использование для решения СЛАУ;
- Выпуклые множества и функции;
- Классификация задач оптимизации, виды оракулов;
- Примеры задач машинного обучения со «сложной» оптимизацией;
- Итерационные процессы в оптимизации, виды сходимости, правила останова.
Методы одномерной оптимизации
- Минимизация функции без производной: метод золотого сечения, метод парабол;
- Гибридный метод минимизации Брента;
- Использование производной в оптимизации, кубическая аппроксимация и модифицированный метод Брента, минимизация выпуклой функции;
- Поиск ограничивающего сегмента;
- Условия Голдштайна-Деккера для неточных методов одномерной оптимизации;
- Неточные методы одномерной оптимизации, backtracking.
Базовые методы многомерной оптимизации
- Метод покоординатного спуска;
- Методы градиентного спуска: наискорейший спуск, спуск с неточной одномерной оптимизацией, зависимость от шкалы измерений признаков;
- Метод Ньютона, подбор длины шага;
- Фазы итерационного процесса, LDL-разложение, гибридный метод Ньютона;
- Метод Levenberg-Marquardt, его использование для обучения нелинейной регрессии.
Продвинутые методы многомерной оптимизации
- Квази-ньютоновские методы оптимизации: BFGS и L-BFGS.
- Метод сопряженных градиентов;
- Метод сопряженных градиентов с предопределением, его использование для решения разреженных СЛАУ большого объема.
Методы оптимизации с использованием глобальных верхних оценок
- Идея метода, сходимость;
- Построение оценок с помощью неравенства Йенсена, ЕМ-алгоритм, вариационный подход;
- Построение оценок с помощью касательных, оценка Jaakkola-Jordan, nu-trick;
- Применение оценок для обучения L1-регуляризованной линейной/логистической регрессии;
- Выпукло-вогнутая процедура для задач безусловной и условной оптимизации, примеры использования.
Задачи оптимизации с ограничениями
- Двойственная функция Лагранжа и Фенхеля, их основные свойства.
- Необходимые и достаточные условия оптимальности в задачах условной оптимизации, теорема Куна-Таккера.
- Двойственная задача, графическая интерпретация, смысл коэффициентов Лагранжа.
- Решение задач условной оптимизации с линейными ограничениями вида равенство, метод Ньютона.
Методы внутренней точки
- Метод внутренней точки;
- Прямодвойственный метод внутренней точки;
- Быстрые алгоритмы умножения матрицы на вектор и их использование в методе внутренней точки.
Разреженные методы машинного обучения, L1-регуляризация
- Примеры задач и виды разреженных регуляризаторов;
- Проксимальный метод;
- Метод покоординатного спуска и блочной покоординатной оптимизации;
- Метод внутренней точки.
Методы cutting plane и bundle
- Субградиент выпуклой функции.
Стохастическая оптимизация
Литература
- Optimization for Machine Learning. Edited by Suvrit Sra, Sebastian Nowozin and Stephen J. Wright, MIT Press, 2011.
- S. Boyd. Convex Optimization, Cambridge University Press, 2004.
- A. Antoniou, W.-S. Lu. Practical Optimization: Algorithms and Engineering Applications, Springer, 2007.
- R. Fletcher. Practical Methods of Optimization, Wiley, 2000.
- Numerical Recipes. The Art of Scientific Computing, 1992.
См. также
Курс «Байесовские методы в машинном обучении»