Участник:Denis Kochedykov

Материал из MachineLearning.

Перейти к: навигация, поиск
Изображение:KochedykovFace.jpg    Кочедыков Денис Алексеевич, Forecsys, ВЦ РАН(соискатель).

Научный руководитель Воронцов К.В..

Области научных интересов
теория машинного обучения, оценивание обобщающей способности, комбинаторика, статистика.


Написать письмо.


Структура кандидатской диссертации

  1. Введение
    1. Актуальность
    2. Новизна: учет эффекта сходства и расслоения в оценках обобщающей способности в комбинаторном подходе
    3. Апробация: ИОИ-2008, МФТИ-2007, МФТИ-2008, ММРО-2009(предстоит), семинары ВЦ РАН(предстоит)
    4. Содержание работы по главам и личный вклад.
  1. Обзорная часть
    1. Проблема обобщающей способности. Обзор современных результатов: Вапника, Лэнгфорда, МакАллистера, и т.д.
    2. Слабая вероятностная аксиоматика
    3. Постановка задачи диссертации (основная задача диссертации пока не до конца ясна)
  1. Известные оценки переведенные в слабую аксиоматику (содержательная глава №1)
    1. Вапник
    2. Лэнгфорд
    3. Силл
  1. Эффект сходства алгоритмов при оценивании вероятности переобучения (содержательная глава №2. основная.)
    • Верхняя оценка вероятности возникновения переобучения в связном семействе при помощи неравенства типа Бонферрони
    • Точное значение вероятности возникновения переобучения в цепочке алгоритмов без расслоения
    • Точное значение вероятности пеореобучения метода МЭР на цепочке алгоритмов без расслоения
    • Верхние оценки вероятности переобучения метода МЭР и вероятности возникновения переобучения для семейства, состоящего из множества цепочек без расслоения
  1. Эксперименты
    • Сравнение различных оценок


Состояние работы на текущий момент

  1. В обзорной части
    • Частично есть описание постановки задачи.
    • Естественно, есть описание слабой вероятностной аксиоматики.
    • Отсутствует обзор современного состояния по теме.
  1. В главе про перевод известных оценок в комбинаторный вид
    • Естественно, есть стандартная оценка Вапника.
    • Из Лэнгфорда есть оценки Occam Razor, Shell, можно считать, что есть Microchoice, т.к. он переводится тривиально.
    • Можно считать, что есть оценка Силла для связных семейств - разобрался, как она устроена, теперь легко можно ее записать в слабой аксиоматике.
    • Других оценок нет. Нужен ли здесь перевод еще каких то известных оценок в слабую аксиоматику?
  1. В главе про эффект сходства
    • Есть верхняя оценка вероятности возникновения переобучения в связном семействе неравенством Бонферрони.
    • Остального еще нет.

Ближайший план работы

  1. Получить вероятность переобучения метода МЭР для худшего случая цепочки без расслоения. Это будет оценка с одновременным учетом и метода обучения и структуры сходства семейства.
  1. Получить вероятность возникновения переобучения в цепочке без расслоения. Это будет полный учет структуры сходства семейства, без учета метода обучения.
  1. Сравнить эти две последние оценки и оценку union bound(Вапник) - какой эффект дают учет структуры сходства и метода обучения.
  1. Обычным union bound'ом получить для каждой из последних двух оценок оценку для семейства состоящего из цепочек без расслоения (здесь пока не совсем понятно - ведь слои в реальных семействах не обязательно представляют из себя цепочки). Для union bound'а нужно знать профиль - число алгоритмов в каждом слое. Его можно оценить по наблюдаемому профилю семейства так, как это делается в observable shell Лэнгфорда.

kochede 13:41, 8 мая 2009 (MSD)

Личные инструменты