Обсуждение:Слабая вероятностная аксиоматика

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Вопрос о гипотезе о новой выборке)
(Вопрос о гипотезе о новой выборке)
Строка 12: Строка 12:
== Вопрос о гипотезе о новой выборке ==
== Вопрос о гипотезе о новой выборке ==
-
*) Может ли слабая вероятностная аксиоматика дать какие-либо количественные (объективные) оценки, в задаче с заданной выборкой <tex>\{X_1,...,X_N\}</tex> объема N, для следующей гипотезы:
+
*) Может ли слабая вероятностная аксиоматика дать какие-либо количественные (объективные) оценки, в задаче с заданной выборкой <tex>\{X_1,...,X_N\}</tex> объема N, для следующей гипотезы: вероятность появления в будущем (новой) выборки <tex>\{X_1,...,X_n\}</tex> объема <tex>n = r N</tex> (<tex>r</tex>~0.5 < 1) такая же как и вероятность выбора последовательности данных <tex>\{X_1,...,X_n\}</tex> из имеющейся выборки (то есть, такая же как вероятность выбора подвыборки меньшего объема).
-
вероятность появления в будущем (новой) выборки <tex>\{X_1,...,X_n\}</tex> объема <tex>n = r N</tex> (<tex>r</tex>~0.5 < 1) такая же как и вероятность выбора последовательности данных <tex>\{X_1,...,X_n\}</tex> из имеющейся выборки (то есть, такая же как вероятность выбора подвыборки меньшего объема).
+
*) Понятно, что эта гипотеза становится менее привлекательной с увеличением r, но для r<0.5 - гипотеза выглядит вполне разумной.
*) Понятно, что эта гипотеза становится менее привлекательной с увеличением r, но для r<0.5 - гипотеза выглядит вполне разумной.
-
*) Принятие этой гипотезы, на первый взгляд, дает хорошую базу для анализа задач, в которых постоянно происходит накопление новых данных.
+
*) Принятие этой гипотезы, на первый взгляд, дает хорошую базу для анализа задач, в которых постоянно происходит накопление новых данных.|[[Участник:ADY|ADY]] 12:52, 10 июля 2008 (MSD)

Версия 08:52, 10 июля 2008

Мне трудно судить о преимуществах "слабой вероятностной аксиоматики" (и не всегда понимаю, зачем копаться в построении новой аксиоматики, если есть уже готовые :). Да, иногда теоремы формулируются вместе с ново-введенными понятиями и объектами и таким образом, очень часто, вся сложность первоначальной задачи упрятывается в эти объекты (с которыми не понятно, что делать на практике), но - таков естественный путь развития математики как науки (будем ждать, пока не появится новый математик и не придумает новую теорему, как же эти объекты строить в практической задаче с гарантированной точность/погрешностью)... Мне представляется, что бесконечность - естественное математическое понятие и бороться с ним не нужно :)... ), но могу поделиться ссылкой на книгу, на случай, если она окажется по теме :) : "Combinatorial Methods in Density Estimation (Luc Devroye, Gabor Lugosi; Springer, 2000)" (меня она привлекла на столько, что пришлось ее даже купить :)). | ADY 19:06, 23 апреля 2008 (MSD)

Возникает ассоциация с "конструктивной математикой", где исследуется, какую часть математики можно получить, не пользуясь доказательством "от противного". Это действительно любопытный вопрос.

Также и "слабая вероятностная аксиоматика" интересна в теоретическом плане. И от "лишних" аксиом действительно лучше отказываться. Но у меня есть подозрение, что для многих практических задач "слабая вероятностная аксиоматика" окажется недостаточно мощной, чтобы адекватно отразить их особенности. Nvm 18:41, 24 июня 2008 (MSD)

Комментарии

  • ) Опираться только на конечные выборки - действительно интересный шаг.
  • ) Нет ли известных мостов между теории "слабой вероятностной аксиоматики" и "теории конечных автоматов" (на первый взгляд, теория конечных автоматов могла бы помочь с конструированием и анализом сложных дискретных распределений)? | ADY 19:00, 7 июля 2008 (MSD)

Вопрос о гипотезе о новой выборке

  • ) Может ли слабая вероятностная аксиоматика дать какие-либо количественные (объективные) оценки, в задаче с заданной выборкой \{X_1,...,X_N\} объема N, для следующей гипотезы: вероятность появления в будущем (новой) выборки \{X_1,...,X_n\} объема n = r  N (r~0.5 < 1) такая же как и вероятность выбора последовательности данных \{X_1,...,X_n\} из имеющейся выборки (то есть, такая же как вероятность выбора подвыборки меньшего объема).
  • ) Понятно, что эта гипотеза становится менее привлекательной с увеличением r, но для r<0.5 - гипотеза выглядит вполне разумной.
  • ) Принятие этой гипотезы, на первый взгляд, дает хорошую базу для анализа задач, в которых постоянно происходит накопление новых данных.|ADY 12:52, 10 июля 2008 (MSD)
Личные инструменты