MachineLearning:Вниманию участников

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Возник вот форумный вопрос...)
(Возник вот форумный вопрос...)
Строка 26: Строка 26:
# Да, там действительно была очепятка (должна быть такая же формула, что и для <tex>P1</tex>).
# Да, там действительно была очепятка (должна быть такая же формула, что и для <tex>P1</tex>).
# А где место?... :)
# А где место?... :)
-
# Спасибо за комментарий.
+
# Спасибо за комментарий. | [[Участник:ADY|ADY]] 13:41, 26 мая 2008 (MSD)
== ИНС ==
== ИНС ==

Версия 09:41, 26 мая 2008

ML:ВУ

На этой странице любой участник может оставить сообщение с целью привлечения внимания других участников проекта к любым вопросам связанным с развитием, наполнением, структурой Ресурса.

Страница предназначена для обсуждения вопросов, касающихся всего проекта или его крупных частей, либо привлечения внимания участников к какой-то важной проблеме.

Вопросы, касающиеся предметов конкретных статей следует обсуждать на страницах обсуждения этих статей.


Добавить новое обсуждение.


Содержание


Возник вот форумный вопрос...

Допустим требуется выбрать одну лучшую из двух дискретных функций распределения вероятностей P1_i и P2_i согласно функционалу качества: V(f, P) = \sum{P_i/f_i}, где P_i — истинные значения вероятностей.

Насколько я понимаю, если верно соотношение: |P_i-P^*_i| < \epsilon_\alpha (для всех i), при уровне справедливости 1-\alpha, где P*_i — оценка вероятностей на конкретных данных (то есть, другими словами, есть доверительный интервал для оценок вероятностей), то: |V(P1, P)-V*(P1, P*)| < \delta1_\alpha и |V(P2, P)-V^*(P2, P^*)| < \delta2_\alpha, а значит: P1 лучше P2 в смысле функционала V на уровне справедливости 1-\alpha, если \sup_{P: \alpha}{V(P1, P)} < \inf_{P: \alpha}{V(P2, P)}. И, аналогично, P2 лучше P1 в смысле функционала V на уровне справедливости 1-\alpha, если sup_{P: \alpha}{V(P2, P)} < \inf_{P: \alpha}{V(P1, P)}. Верно ли такое утверждение и как построить доверительные интервалы для вероятности для частотной оценки вероятностей? | ADY 14:45, 23 мая 2008 (MSD)

Ответ
  1. Понять вопрос затруднительно: не ясно, что такое V^*, P:\alpha, \epsilon_\alpha, \delta1_\alpha, \delta2_\alpha.
  2. Уровень значимости, а не справедливости.
  3. Почему именно такая функция качества, а не какая-либо стандартная: Колмогорова-Смирнова, Кульбака-Лейблера, хи-квадрат?
  4. Кажется, в формуле |V(P2, P)-V^*(P1, P^*)| < \delta2_\alpha имелось в виду V^*(P2, P^*)?
  5. Этому вопросу здесь не место (см. шапку этой страницы). Лучше написать мне письмо — К.В.Воронцов 15:43, 25 мая 2008 (MSD).
Ответ[2]
  1. V^* - функция V, в которую входят значения с *; P:\alpha - множество допустимых значений вероятностей на уровне \alpha; \epsilon_\alpha - максимальное допустимое отклонение от оценки вероятности на уровне \alpha; \delta1_\alpha, \delta2_\alpha - максимальное допустимое отклонение функционалов на уровне \alpha.
  2. Всегда путаю, что обзывается этим уровнем - мощность критического множества или дополнительного к критическому - посему использовал "уровень справедливости" (мощность множества: множество = все_множество - критическое_множество).
  3. Такая функция напрямую следует из задачи.
  4. Да, там действительно была очепятка (должна быть такая же формула, что и для P1).
  5. А где место?... :)
  6. Спасибо за комментарий. | ADY 13:41, 26 мая 2008 (MSD)

ИНС

Добрый день, я только что зарегистрировался, и меня интересует следующий вопрос: считаете ли Вы тему Нейронных сетей частью Машиного обучения, и соответственно являются ли ИНС подтемой данного проекта ? SergeyJ 03:58, 20 апреля 2008 (MSD)

Нашел, что вроде интересует, закинул к Вам свою статью написанную в Википедии Персептрон ... SergeyJ 04:15, 20 апреля 2008 (MSD)

Да, конечно, считаем! Пока Ресурс в стадии становления, и ещё не всё категории созданы. За статью спасибо! — теперь нам есть, что дорабатывать ;) Кстати, рекомендую поскорее обзавестись личной страничкой — всегда приятно знакомиться с коллегами по ФИО, а не по нику | К.В.Воронцов 02:33, 21 апреля 2008 (MSD)

Комментарии по улучшению ресурса

  1. Большое значение имели бы введения в предмет для людей, не знакомых с MachineLearning (например, для людей с математическим образованием).
  2. Хорошо было бы разделять возможности и варианты использования MachineLearning алгоритмов от их «внутренней кухни». Это важно для того, чтобы как можно большее число людей смогли бы воспользоваться современными результатами в этой области.
  3. Хорошо было бы включить еще ссылки на ключевые разделы мат.статистики, поскольку многие выводы из MachineLearning должны следовать от туда :) (это даже не призыв к действию, это просто мысли в слух… Матстатистика дает фундамент для построения объективных оценок, с понятными свойствами. Статистическое интерпретация полученных результатов помогает людям, плохо знакомым с MachineLearning, понять суть получаемых результатов). | ADY 16:56, 18 апреля 2008 (MSD)

Ответы | К.В.Воронцов 23:06, 17 апреля 2008 (MSD):

  1. Да, конечно.
  2. Да, хорошо бы. Статьи, выполняющие эту функцию, будем складывать в категорию Категория:Популярные и обзорные статьи. Есть идея написать большую общую популярную статью, фактически обзор по всему сайту, в которую (по мере создания подробных статей) добавлять краткие ссылки, с указанием, какие методы и подходы, для каких задач нужны, и что важно, а что нет на практике. Большие тематические категории тоже должны сопровождаться такими статьями, пример:
  3. Да, хорошо бы. Для этого заготовлена категория Категория:Прикладная статистика.

Контент создаётся всем сообществом, и не сразу. Чем скорее сообщество MachineLearning.ru воспримет девиз «разобрался сам — объясни всем!», тем скорее появятся хорошие статьи, в том числе популярные.

Требования к системе управления библиографическими данными

Перенес в обсуждение страницы по библиографиям | Yury Chekhovich 17:24, 24 марта 2008 (MSK)

Изменение переменной Название проекта

По решению участников изменена переменная Название проекта с Распознавание, классификация, прогноз на MachineLearning. Часть ссылок исправилась автоматически. Часть переделываем руками. Возможно что-то упустили. Обо всех найденных «битых» ссылках в пространтсво имён «Распознавание, классификация, прогноз» пишите сюда. | Yury Chekhovich 23:41, 2 марта 2008 (MSK)

Начало работы

Появилась страница Вниманию участников, предназначенная для общения участников. | Yury Chekhovich 13:18, 29 февраля 2008 (MSK)

Личные инструменты