Обсуждение участника:ADY

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Как оценить качество эмпирической ф.п.в.?)
 
(32 промежуточные версии не показаны)
Строка 1: Строка 1:
-
== Вниманию участников ==
+
[http://stats.stackexchange.com/questions/8147/how-can-i-efficiently-approximate-the-sum-of-bernoulli-random-variables-for-any-n How can I efficiently approximate the sum of Bernoulli random variables for any number of summands in partial sum?]
-
 
+
-
Появилась страница [[MachineLearning:Вниманию участников|Вниманию участников]] предназначенная для общения участников по проекту. Предлагаю все идеи и проблемы вносить туда. --[[Участник:Yury Chekhovich|Yury Chekhovich]] 13:56, 29 февраля 2008 (MSK)
+
-
 
+
-
== О правилах хорошего тона и некоторых отличиях машинного обучения от философии ==
+
-
 
+
-
Уважаемый участник!
+
-
1. На персональной странице неплохо бы первым делом представиться. Нам нечего скрывать друг от друга.
+
-
2. А вот за этими словами про машинное обучение стоит ли конкретное знание, опыт, десятки раздавленных граблей? Если это просто философствования, то я не рекомендовал бы это держать даже на личной страничке. Пока этот текст ''абсолютно'' непонятен. — [[Участник:Vokov|К.В.Воронцов]] 13:45, 5 апреля 2008 (MSD)
+
-
 
+
-
== Статья [[RapidMiner]] ==
+
-
 
+
-
Правильнее будет дать описание системы на русском языке и своими словами.
+
-
 
+
-
В качестве примера описания системы рекомендую использовать статью [[WEKA]].
+
-
 
+
-
[[Участник:Andrew|Andrew]] 15:35, 15 апреля 2008 (MSD)
+
-
 
+
-
== Статья про RapidMiner уже приведена в божеский вид ==
+
-
 
+
-
Андрей, не зевай — я за тебя доделал RapidMiner! Но остальные три статьи за тобой! ;) Давай будем стараться не плодить столь неотёсанных заготовок. Признаться, я и сам грешен, но стараюсь хотя бы наметить структуру, поставить шаблончик <nowiki>{{stub}}</nowiki>) или <nowiki>{{UnderConstruction|Подпись=~~~~}}</nowiki>. Ещё рекомендую заглядывать в англоязычную Википедию и другие непредвзятые источники. На страницах производителей некоторые высказывания носят рекламный характер. Ещё, по RapidMiner-у проверь пож-ста факты: я не слишком глубоко в нём разбираюсь. Например, он '''все''' или только '''многие''' операторы [[WEKA]] поддерживает? — [[Участник:Vokov|К.В.Воронцов]] 23:40, 15 апреля 2008 (MSD)
+
-
 
+
-
>он все или только многие операторы WEKA поддерживает
+
-
 
+
-
Я два года назад его изучал... Тогда в документации было написано, что по счастливому совпадению WEKA оказалась полностью совместима с YALE(RapidMiner) :). | [[Участник:ADY|ADY]] 23:55, 21 апреля 2008 (MSD)
+
-
 
+
-
== Возник вот форумный вопрос... ==
+
-
Допустим требуется выбрать одну лучшую из двух дискретных функций распределения вероятностей <tex>P1_i</tex> и <tex>P2_i</tex> согласно функционалу качества:
+
-
<tex>V(f, P) = \sum{P_i/f_i}</tex>, где <tex>P_i</tex> — истинные значения вероятностей.
+
-
 
+
-
Насколько я понимаю, если верно соотношение: <tex>|P_i-P^*_i| < \epsilon_\alpha</tex> (для всех i), при уровне справедливости <tex>1-\alpha</tex>, где <tex>P*_i</tex> — оценка вероятностей на конкретных данных (то есть, другими словами, есть доверительный интервал для оценок вероятностей), то:
+
-
<tex>|V(P1, P)-V*(P1, P*)| < \delta1_\alpha</tex> и <tex>|V(P2, P)-V^*(P2, P^*)| < \delta2_\alpha</tex>, а значит:
+
-
P1 лучше P2 в смысле функционала V на уровне справедливости <tex>1-\alpha</tex>, если
+
-
<tex>\sup_{P: \alpha}{V(P1, P)} < \inf_{P: \alpha}{V(P2, P)}</tex>.
+
-
И, аналогично, P2 лучше P1 в смысле функционала V на уровне справедливости <tex>1-\alpha</tex>, если
+
-
<tex>sup_{P: \alpha}{V(P2, P)} < \inf_{P: \alpha}{V(P1, P)}</tex>.
+
-
Верно ли такое утверждение и как построить доверительные интервалы для вероятности для частотной оценки вероятностей?
+
-
| [[Участник:ADY|ADY]] 14:45, 23 мая 2008 (MSD)
+
-
;Ответ:
+
-
#Понять вопрос затруднительно: не ясно, что такое <tex>V^*</tex>, <tex>P:\alpha</tex>, <tex>\epsilon_\alpha</tex>, <tex>\delta1_\alpha</tex>, <tex>\delta2_\alpha</tex>.
+
-
#Уровень ''значимости'', а не справедливости.
+
-
#Почему именно такая функция качества, а не какая-либо стандартная: Колмогорова-Смирнова, Кульбака-Лейблера, хи-квадрат?
+
-
#Кажется, в формуле <tex>|V(P2, P)-V^*(P1, P^*)| < \delta2_\alpha</tex> имелось в виду <tex>V^*(P2, P^*)</tex>?
+
-
#Этому вопросу здесь не место (см. шапку этой страницы). Лучше написать мне письмо — ''[[Участник:Vokov|К.В.Воронцов]] 15:43, 25 мая 2008 (MSD)''.
+
-
;Ответ[2]:
+
-
# <tex>V^*</tex> - функция V, в которую входят значения с *; <tex>P:\alpha</tex> - множество допустимых значений вероятностей на уровне <tex>\alpha</tex>; <tex>\epsilon_\alpha</tex> - максимальное допустимое отклонение от оценки вероятности на уровне <tex>\alpha</tex>; <tex>\delta1_\alpha</tex>, <tex>\delta2_\alpha</tex> - максимальное допустимое отклонение функционалов на уровне <tex>\alpha</tex>.
+
-
# Всегда путаю, что обзывается этим уровнем - мощность критического множества или дополнительного к критическому - посему использовал "уровень справедливости" (мощность множества: множество = все_множество - критическое_множество).
+
-
# Такая функция напрямую следует из задачи.
+
-
# Да, там действительно была очепятка (должна быть такая же формула, что и для <tex>P1</tex>).
+
-
# А где место?... :) — ''Сейчас веду работы по подключению к ресурсу ML форума. Одно из предназначений&nbsp;— вопросы/ответы. Пока лучше обращаться к конкретному участнику по почте или в обсуждении, или кратко задавать вопрос на странице [[MachineLearning:Вниманию участников#Другие вопросы|Вниманию участников (Другие вопросы)]] и давать ссылку на свою страницу обсуждения с полной постановкой. [[Участник:Andrew|Andrew]] 17:05, 26 мая 2008 (MSD)''
+
-
# Спасибо за комментарий. | [[Участник:ADY|ADY]] 13:41, 26 мая 2008 (MSD)
+
-
 
+
-
== Статьи [[GATE]], [[Joone]] и [[LinguaStream]] ==
+
-
 
+
-
Андрей, созданные Вами страницы (см. заголовок) уже полтора месяца висят без изменений, хотя очень в них нуждаются.
+
-
Необходимо привести их в порядок (переписать на русском языке в рекомендованном виде). Иначе придется их удалить, чего делать не хотелось бы. Если в чем то могу помочь, обращайтесь. --[[Участник:Yury Chekhovich|Yury Chekhovich]] 16:33, 30 мая 2008 (MSD)
+
-
 
+
-
;Ответ
+
-
Есть несколько причин, из-за которых я не могу выполнить Вашу просьбу: 1) в ближайшем месяце - нет времени на то, чтобы выполнить эти работы; 2) z не работал с этими системами и знаю о них только то, что написано в документации; 3) плохо знаю теги для оформления вики-страниц. На самом деле, я просто хотел поделиться ссылками на бесплатные системы, которые считаю интересными и актуальными. В итоге, я не возражаю против удаления недоделанных статей о них. -- [[Участник:ADY|ADY]] 13:39, 7 июня 2008 (MSD)
+
-
 
+
-
== Обсуждение задачи о восстановлении дискретной функции плотности вероятности ==
+
-
 
+
-
Ищу литературу (покупаю и готов покупать дальше необходимые книжки на английском), но еще не совсем уверен в точной постановке задачи, которую решаю.
+
-
 
+
-
Задача состоит в восстановлении дискретной функции плотности вероятности.
+
-
 
+
-
Есть большой набор данных:
+
-
 
+
-
{ Real: x, Real: y, X(x,y) },
+
-
где X - точка-множество в дискретном вероятностном пространстве (например, {{0,0},{1,2}).
+
-
x, y - экспертные оценки на некоторые общие вероятностные характеристики события, реализация которого есть X(x,y) (в первом приближении это можно не учитывать).
+
-
 
+
-
Стоит задача для заданных (x0, y0) найти лучшую оценку фпв Pr*{ X(x,y) }(x0, y0) в смысле функционала качества: <tex>\sum_ {X} {Pr\{ X \}(x0, y0) / Pr^*\{ X \}(x0, y0) } - 1</tex> , где <tex>Pr\{ X \}(x0, y0)</tex> - истинные значения вероятностей.
+
-
 
+
-
Первое, что приходит в голову - это разбить данные на группы по интервалам для x и y, и построить фпв для каждой группы - частотные функции. Но возникают как минимум две проблемы:
+
-
1) Как сглаживать фпв для малых выборок?
+
-
2) Как комбинировать функционалы от частотные функции фпв, чтобы результаты оставались в рамках выбранного уровня значимости?
+
-
 
+
-
Может ли кто-нибудь что-нибудь подсказать/посоветовать?
+
-
 
+
-
== Как оценить качество эмпирической ф.п.в.? ==
+
-
 
+
-
Не до конца понимаю, как оценить качество эмпирической функции плотности вероятностей <tex>Pr^*\{ X \}</tex>, для выборки *конечного* объема N, для заданного функционала качества:
+
-
<tex>q(Pr^*)=\sum_ {X} {Pr\{ X \} / Pr^*\{ X \} } - 1</tex>, где <tex>Pr\{ X \}</tex> - истинные значения вероятностей.
+
-
Хочется иметь строгую оценку в терминах уровня значимости.
+
-
Пока в голову приходит лишь мысль разбить выборку на случайные подвыборки одинакового объема <tex>n > \min_{X} {\: 1/Pr\{ X \} * K1}</tex> (K1 ~ 10) и попробовать что-то сделать с последовательностью функционалов q(...) для этих подвыборок, считая за истинные вероятности эмпирические вероятности от оставшихся данных...
+
-
 
+
-
Вообще, про выборки конечного объема почему-то нигде не пишут :(...
+

Текущая версия

How can I efficiently approximate the sum of Bernoulli random variables for any number of summands in partial sum?