Обсуждение:Моя первая научная статья (практика, В.В. Стрижов)/Группы 774, 794, весна 2020

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
Строка 12: Строка 12:
* '''Авторы''': эксперт, консультант.
* '''Авторы''': эксперт, консультант.
 +
===Задача 44 ===
 +
*'''Название''': Ранее прогнозирование достаточного объема выборки для обобщенно линейной модели.
 +
*'''Задача''': Исследуется проблема планирования эксперимента. Решается задача оценивания достаточного объема выборки по данным. Предполагается, что выборка является простой. Она описывается адекватной моделью. Иначе, выборка порождается фиксированной вероятностной моделью из известного класса моделей. Объем выборки считается достаточным, если модель восстанавливается с достаточной достоверностью. Требуется, зная модель, оценить достаточный объем выборки на ранних этапах сбора данных.
 +
*'''Данные''': Для вычислительного эксперимента предлагается использовать классические выборки из UCI репозитория. Ссылка на выборки https://github.com/ttgadaev/SampleSize/tree/master/datasets
 +
*'''Литература''':
 +
*# [Обзор методов для оценки объема выборки]
 +
*# http://svn.code.sf.net/p/mlalgorithms/code/PhDThesis/..
 +
*# Метод бутстреп. https://projecteuclid.org/download/pdf_1/euclid.aos/1..
 +
Bishop, C. 2006. Pattern Recognition and Machine Learning. Berlin: Springer. 758 p.
 +
*'''Базовый алгоритм''': Будем говорить, что объем выборки достаточный, если логарифм правдоподобия имеет малую дисперсию, на подборке размера m, посчитанную при помощи бутстрепа.
 +
Пытаемся аппроксимировать зависимость среднего значения log-likelihood и его дисперсии от размера выборки.
 +
*'''Решение''': Методы описанные в обзоре являются асимптотическими или же требуют заведомо большого размера выборки. Новый метод должен заключаться в том, чтобы прогнозировать объем на начальных этапах планирования эксперимента, то есть когда данных мало.
 +
*'''Авторы''': Малиновский Г. (консультант), Стрижов В. В. (эксперт)
 +
 +
===Задача XX ===
* Название: Распределенная оптимизация в условиях Поляка-Лоясиевича
* Название: Распределенная оптимизация в условиях Поляка-Лоясиевича
* Задача: Ставится задача эффективного решения больших систем нелинейных уравнений, используя сеть вычислителей.
* Задача: Ставится задача эффективного решения больших систем нелинейных уравнений, используя сеть вычислителей.

Версия 15:21, 10 февраля 2020

На этой странице публикуются версии задач, предназначенные для студентов третего курса семестра Весна 2020

Список проектов

Шаблон описания проекта — научной статьи

  • Название: Название, под которым статья подается в журнал.
  • Задача: Описание или постановка задачи. Желательна постановка в виде задачи оптимизации (в формате argmin). Также возможна ссылка на классическую постановку задачи.
  • Данные: Краткое описание данных, используемых в вычислительном эксперименте, и ссылка на выборку.
  • Литература: Список научных работ, дополненный 1) формулировкой решаемой задачи, 2) ссылками на новые результаты, 3) основной информацией об исследуемой проблеме.
  • Базовой алгоритм: Ссылка на алгоритм, с которым проводится сравнение или на ближайшую по теме работу.
  • Решение: Предлагаемое решение задачи и способы проведения исследования. Способы представления и визуализации данных и проведения анализа ошибок, анализа качества алгоритма.
  • Новизна: Обоснование новизны и значимости идей (для редколлегии и рецензентов журнала).
  • Авторы: эксперт, консультант.

Задача 44

  • Название: Ранее прогнозирование достаточного объема выборки для обобщенно линейной модели.
  • Задача: Исследуется проблема планирования эксперимента. Решается задача оценивания достаточного объема выборки по данным. Предполагается, что выборка является простой. Она описывается адекватной моделью. Иначе, выборка порождается фиксированной вероятностной моделью из известного класса моделей. Объем выборки считается достаточным, если модель восстанавливается с достаточной достоверностью. Требуется, зная модель, оценить достаточный объем выборки на ранних этапах сбора данных.
  • Данные: Для вычислительного эксперимента предлагается использовать классические выборки из UCI репозитория. Ссылка на выборки https://github.com/ttgadaev/SampleSize/tree/master/datasets
  • Литература:
    1. [Обзор методов для оценки объема выборки]
    2. http://svn.code.sf.net/p/mlalgorithms/code/PhDThesis/..
    3. Метод бутстреп. https://projecteuclid.org/download/pdf_1/euclid.aos/1..

Bishop, C. 2006. Pattern Recognition and Machine Learning. Berlin: Springer. 758 p.

  • Базовый алгоритм: Будем говорить, что объем выборки достаточный, если логарифм правдоподобия имеет малую дисперсию, на подборке размера m, посчитанную при помощи бутстрепа.

Пытаемся аппроксимировать зависимость среднего значения log-likelihood и его дисперсии от размера выборки.

  • Решение: Методы описанные в обзоре являются асимптотическими или же требуют заведомо большого размера выборки. Новый метод должен заключаться в том, чтобы прогнозировать объем на начальных этапах планирования эксперимента, то есть когда данных мало.
  • Авторы: Малиновский Г. (консультант), Стрижов В. В. (эксперт)


Задача XX

  • Название: Распределенная оптимизация в условиях Поляка-Лоясиевича
  • Задача: Ставится задача эффективного решения больших систем нелинейных уравнений, используя сеть вычислителей.
  • Решение: Предлагается новый метод децентрализованного распределенного решения систем нелинейных уравнений в условиях Поляка-Лоясиевича. Подход основан на том, что задачу распределенной оптимизации можно представить в виде задачи композитной оптимизации (см. 2 из литературы), которую в свою очередь можно решать аналогами метода подобных треугольников или слайдинга (см. 2 из литературы).
  • Базовый алгоритм: предложенный метод сравнивается с градиентным спуском и ускоренным градиентным спуском
  • Литература:
  1. Linear Convergence of Gradient and Proximal-GradientMethods Under the Polyak- Lojasiewicz Condition https://arxiv.org/pdf/1608.04636.pdf
  2. Linear Convergence for Distributed Optimization Under the Polyak-Łojasiewicz Condition https://arxiv.org/pdf/1912.12110.pdf
  3. Optimal Decentralized Distributed Algorithms for Stochastic ConvexOptimization https://arxiv.org/pdf/1911.07363.pdf
  4. СОВРЕМЕННЫЕ ЧИСЛЕННЫЕ МЕТОДЫ ОПТИМИЗАЦИИ.МЕТОД УНИВЕРСАЛЬНОГО ГРАДИЕНТНОГО СПУСКА https://arxiv.org/ftp/arxiv/papers/1711/1711.00394.pdf
  • Новизна: сведение задачи распределенной оптимизации к задаче композитной оптимизации и ее решение в условиях Поляка-Лоясиевича
  • Авторы: эксперт — А.В. Гасников, консультант — А.Н. Безносиков
Личные инструменты