MachineLearning:Вниманию участников

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
Строка 1: Строка 1:
{{MachineLearning:Вниманию участников/Шапка}}
{{MachineLearning:Вниманию участников/Шапка}}
<!--не трогайте все что выше этой строки, пишите новую тему НИЖЕ в соответствии с инструкцией-->
<!--не трогайте все что выше этой строки, пишите новую тему НИЖЕ в соответствии с инструкцией-->
 +
Допустим требуется выбрать одну лучшую из двух дискретных функций распределения вероятностей <math>P1_i</math> и <math>P2_i</math> согласно функционалу качества:
 +
<math>V(f, P) = \sum{P_i/f_i}</math>, где <math>P_i</math> — истинные значения вероятностей.
 +
 +
Насколько я понимаю, если верно соотношение: <math>|P_i-P^*_i| < \epsilon_\alpha</math> (для всех i), при уровне справедливости <math>1-\alpha</math>, где <math>P*_i</math> — оценка вероятностей на конкретных данных (то есть, другими словами, есть доверительный интервал для оценок вероятностей), то:
 +
<math>|V(P1, P)-V*(P1, P*)| < \delta1_\alpha</math> и <math>|V(P2, P)-V^*(P1, P^*)| < \delta2_\alpha</math>, а значит:
 +
P1 лучше P2 в смысле функционала V на уровне справедливости <math>1-\alpha</math>, если
 +
<math>\sup_{P: \alpha}{V(P1, P)} < \inf_{P: \alpha}{V(P2, P)}</math>.
 +
И, аналогично, P2 лучше P1 в смысле функционала V на уровне справедливости <math>1-\alpha</math>, если
 +
<math>sup_{P: \alpha}{V(P2, P)} < \inf_{P: \alpha}{V(P1, P)}</math>.
 +
Верно ли такое утверждение и как построить доверительные интервалы для вероятности для частотной оценки вероятностей?
== ИНС ==
== ИНС ==

Версия 10:43, 23 мая 2008

ML:ВУ

На этой странице любой участник может оставить сообщение с целью привлечения внимания других участников проекта к любым вопросам связанным с развитием, наполнением, структурой Ресурса.

Страница предназначена для обсуждения вопросов, касающихся всего проекта или его крупных частей, либо привлечения внимания участников к какой-то важной проблеме.

Вопросы, касающиеся предметов конкретных статей следует обсуждать на страницах обсуждения этих статей.


Добавить новое обсуждение.


Содержание

Допустим требуется выбрать одну лучшую из двух дискретных функций распределения вероятностей <math>P1_i</math> и <math>P2_i</math> согласно функционалу качества: <math>V(f, P) = \sum{P_i/f_i}</math>, где <math>P_i</math> — истинные значения вероятностей.

Насколько я понимаю, если верно соотношение: <math>|P_i-P^*_i| < \epsilon_\alpha</math> (для всех i), при уровне справедливости <math>1-\alpha</math>, где <math>P*_i</math> — оценка вероятностей на конкретных данных (то есть, другими словами, есть доверительный интервал для оценок вероятностей), то: <math>|V(P1, P)-V*(P1, P*)| < \delta1_\alpha</math> и <math>|V(P2, P)-V^*(P1, P^*)| < \delta2_\alpha</math>, а значит: P1 лучше P2 в смысле функционала V на уровне справедливости <math>1-\alpha</math>, если <math>\sup_{P: \alpha}{V(P1, P)} < \inf_{P: \alpha}{V(P2, P)}</math>. И, аналогично, P2 лучше P1 в смысле функционала V на уровне справедливости <math>1-\alpha</math>, если <math>sup_{P: \alpha}{V(P2, P)} < \inf_{P: \alpha}{V(P1, P)}</math>. Верно ли такое утверждение и как построить доверительные интервалы для вероятности для частотной оценки вероятностей?

ИНС

Добрый день, я только что зарегистрировался, и меня интересует следующий вопрос: считаете ли Вы тему Нейронных сетей частью Машиного обучения, и соответственно являются ли ИНС подтемой данного проекта ? SergeyJ 03:58, 20 апреля 2008 (MSD)

Нашел, что вроде интересует, закинул к Вам свою статью написанную в Википедии Персептрон ... SergeyJ 04:15, 20 апреля 2008 (MSD)

Да, конечно, считаем! Пока Ресурс в стадии становления, и ещё не всё категории созданы. За статью спасибо! — теперь нам есть, что дорабатывать ;) Кстати, рекомендую поскорее обзавестись личной страничкой — всегда приятно знакомиться с коллегами по ФИО, а не по нику | К.В.Воронцов 02:33, 21 апреля 2008 (MSD)

Комментарии по улучшению ресурса

  1. Большое значение имели бы введения в предмет для людей, не знакомых с MachineLearning (например, для людей с математическим образованием).
  2. Хорошо было бы разделять возможности и варианты использования MachineLearning алгоритмов от их «внутренней кухни». Это важно для того, чтобы как можно большее число людей смогли бы воспользоваться современными результатами в этой области.
  3. Хорошо было бы включить еще ссылки на ключевые разделы мат.статистики, поскольку многие выводы из MachineLearning должны следовать от туда :) (это даже не призыв к действию, это просто мысли в слух… Матстатистика дает фундамент для построения объективных оценок, с понятными свойствами. Статистическое интерпретация полученных результатов помогает людям, плохо знакомым с MachineLearning, понять суть получаемых результатов). | ADY 16:56, 18 апреля 2008 (MSD)

Ответы | К.В.Воронцов 23:06, 17 апреля 2008 (MSD):

  1. Да, конечно.
  2. Да, хорошо бы. Статьи, выполняющие эту функцию, будем складывать в категорию Категория:Популярные и обзорные статьи. Есть идея написать большую общую популярную статью, фактически обзор по всему сайту, в которую (по мере создания подробных статей) добавлять краткие ссылки, с указанием, какие методы и подходы, для каких задач нужны, и что важно, а что нет на практике. Большие тематические категории тоже должны сопровождаться такими статьями, пример:
  3. Да, хорошо бы. Для этого заготовлена категория Категория:Прикладная статистика.

Контент создаётся всем сообществом, и не сразу. Чем скорее сообщество MachineLearning.ru воспримет девиз «разобрался сам — расскажи всем!», тем скорее появятся хорошие статьи, в том числе популярные.

Требования к системе управления библиографическими данными

Перенес в обсуждение страницы по библиографиям | Yury Chekhovich 17:24, 24 марта 2008 (MSK)

Изменение переменной Название проекта

По решению участников изменена переменная Название проекта с Распознавание, классификация, прогноз на MachineLearning. Часть ссылок исправилась автоматически. Часть переделываем руками. Возможно что-то упустили. Обо всех найденных «битых» ссылках в пространтсво имён «Распознавание, классификация, прогноз» пишите сюда. | Yury Chekhovich 23:41, 2 марта 2008 (MSK)

Начало работы

Появилась страница Вниманию участников, предназначенная для общения участников. | Yury Chekhovich 13:18, 29 февраля 2008 (MSK)

Личные инструменты