Обсуждение:Слабая вероятностная аксиоматика
Материал из MachineLearning.
(→Вопрос о гипотезе о новой выборке) |
(→Вопрос о гипотезе о новой выборке) |
||
Строка 12: | Строка 12: | ||
== Вопрос о гипотезе о новой выборке == | == Вопрос о гипотезе о новой выборке == | ||
- | *) Может ли слабая вероятностная аксиоматика дать какие-либо количественные (объективные) оценки, в задаче с заданной выборкой <tex>\{X_1,...,X_N\}</tex> объема N, для следующей гипотезы: | + | *) Может ли слабая вероятностная аксиоматика дать какие-либо количественные (объективные) оценки, в задаче с заданной выборкой <tex>\{X_1,...,X_N\}</tex> объема N, для следующей гипотезы: вероятность появления в будущем (новой) выборки <tex>\{X_1,...,X_n\}</tex> объема <tex>n = r N</tex> (<tex>r</tex>~0.5 < 1) такая же как и вероятность выбора последовательности данных <tex>\{X_1,...,X_n\}</tex> из имеющейся выборки (то есть, такая же как вероятность выбора подвыборки меньшего объема). |
- | вероятность появления в будущем (новой) выборки <tex>\{X_1,...,X_n\}</tex> объема <tex>n = r N</tex> (<tex>r</tex>~0.5 < 1) такая же как и вероятность выбора последовательности данных <tex>\{X_1,...,X_n\}</tex> из имеющейся выборки (то есть, такая же как вероятность выбора подвыборки меньшего объема). | + | |
*) Понятно, что эта гипотеза становится менее привлекательной с увеличением r, но для r<0.5 - гипотеза выглядит вполне разумной. | *) Понятно, что эта гипотеза становится менее привлекательной с увеличением r, но для r<0.5 - гипотеза выглядит вполне разумной. | ||
- | *) Принятие этой гипотезы, на первый взгляд, дает хорошую базу для анализа задач, в которых постоянно происходит накопление новых данных. | + | *) Принятие этой гипотезы, на первый взгляд, дает хорошую базу для анализа задач, в которых постоянно происходит накопление новых данных.|[[Участник:ADY|ADY]] 12:52, 10 июля 2008 (MSD) |
Версия 08:52, 10 июля 2008
Мне трудно судить о преимуществах "слабой вероятностной аксиоматики" (и не всегда понимаю, зачем копаться в построении новой аксиоматики, если есть уже готовые :). Да, иногда теоремы формулируются вместе с ново-введенными понятиями и объектами и таким образом, очень часто, вся сложность первоначальной задачи упрятывается в эти объекты (с которыми не понятно, что делать на практике), но - таков естественный путь развития математики как науки (будем ждать, пока не появится новый математик и не придумает новую теорему, как же эти объекты строить в практической задаче с гарантированной точность/погрешностью)... Мне представляется, что бесконечность - естественное математическое понятие и бороться с ним не нужно :)... ), но могу поделиться ссылкой на книгу, на случай, если она окажется по теме :) : "Combinatorial Methods in Density Estimation (Luc Devroye, Gabor Lugosi; Springer, 2000)" (меня она привлекла на столько, что пришлось ее даже купить :)). | ADY 19:06, 23 апреля 2008 (MSD)
Возникает ассоциация с "конструктивной математикой", где исследуется, какую часть математики можно получить, не пользуясь доказательством "от противного". Это действительно любопытный вопрос.
Также и "слабая вероятностная аксиоматика" интересна в теоретическом плане. И от "лишних" аксиом действительно лучше отказываться. Но у меня есть подозрение, что для многих практических задач "слабая вероятностная аксиоматика" окажется недостаточно мощной, чтобы адекватно отразить их особенности. Nvm 18:41, 24 июня 2008 (MSD)
Комментарии
- ) Опираться только на конечные выборки - действительно интересный шаг.
- ) Нет ли известных мостов между теории "слабой вероятностной аксиоматики" и "теории конечных автоматов" (на первый взгляд, теория конечных автоматов могла бы помочь с конструированием и анализом сложных дискретных распределений)? | ADY 19:00, 7 июля 2008 (MSD)
Вопрос о гипотезе о новой выборке
- ) Может ли слабая вероятностная аксиоматика дать какие-либо количественные (объективные) оценки, в задаче с заданной выборкой объема N, для следующей гипотезы: вероятность появления в будущем (новой) выборки объема (~0.5 < 1) такая же как и вероятность выбора последовательности данных из имеющейся выборки (то есть, такая же как вероятность выбора подвыборки меньшего объема).
- ) Понятно, что эта гипотеза становится менее привлекательной с увеличением r, но для r<0.5 - гипотеза выглядит вполне разумной.
- ) Принятие этой гипотезы, на первый взгляд, дает хорошую базу для анализа задач, в которых постоянно происходит накопление новых данных.|ADY 12:52, 10 июля 2008 (MSD)