Обсуждение участника:Peter Romov
Материал из MachineLearning.
м (Adding welcome message to new user's talk page) |
(→Цена отказа от классификации) |
||
(6 промежуточных версий не показаны.) | |||
Строка 1: | Строка 1: | ||
{{MediaWiki:NewUserMessage|Peter Romov}} | {{MediaWiki:NewUserMessage|Peter Romov}} | ||
+ | |||
+ | == Цена отказа от классификации == | ||
+ | |||
+ | Средняя цена ответа (риск) s в то время когда правильный y: <tex>R(s) = \sum_y \lambda_{ys} P(y|x) =\sum_y \lambda_{ys} \frac{P_y p_y(x)}{p(x)} = \sum_y \lambda_{ys} \frac{P_y p_y(x)}{\sum_{\tilde y} P_{\tilde y}p_{\tilde y}(x)}</tex>. Риск мы хотим минимизировать. Если его минимизировать по всем <tex>s \in \mathcal{Y}</tex>, то получится знакомая формула: <tex>a(x) = \arg \min_{s \in \mathcal{Y}} \sum_y \lambda_{ys} P_y p_y(x)</tex>. Сумма в знаменателе (значение <tex>p(x)</tex>) является константой по s и на нее можно забить при минимизации. | ||
+ | |||
+ | А теперь представьте что помимо выбора элемента <tex>s \in \mathcal{Y}</tex> у нас имеется возможность отказаться от классификации, заплатив <tex>\lambda_{\text{rej}}</tex>, будем говорить что при этом <tex>s = 0</tex>. Если правильный ответ распределен <tex>P(y|x)</tex>, а мы решили отказаться от классификации, сколько в среднем заплатим? Матожидание константы, т.е. средний риск отказа <tex>R(0) = \lambda{\text{rej}}</tex>. | ||
+ | |||
+ | Минимизируем риск с учетом возможности отказа: | ||
+ | <tex>a(x) = \arg\min_{s \in \mathcal{Y} \cup \{0\}} R(s) = \arg \min\left(\lambda_{\text{rej}} (s=0), \{\sum_y \lambda_{ys} \frac{P_y p_y(x)}{\sum_{\tilde y} P_{\tilde y}p_{\tilde y}(x)}\}_{s\in\mathcal{Y}} \right) = \arg\min_s\left(\lambda_{\text{rej}} \sum_{y} P_{y}p_{y}(x) (s=0), \{\sum_y \lambda_{ys} P_y p_y(x)\}_{s\in\mathcal{Y}} \right)</tex>. | ||
+ | |||
+ | Если же принять соглашения, что <tex>\lambda_{yy} = 0,\, \lambda_{ys} = \lambda_y (y \neq s),\, \lambda_0 = \lambda_{\text{rej}}</tex>, то немного причесав все это можно получить | ||
+ | <tex>a(x) = \arg \max_s \left( \sum_y (\lambda_y-\lambda_{\text{rej}})P_y p_y(x) (s=0), \{\lambda_sP_sp_s(x)\}_{s\in\mathcal{Y}} \right)</tex> --- классификатор, получающийся в результате минимизации вышевведенного риска. То есть, находим <tex>s^\ast = \arg\max_{s \in \mathcal{Y}}\lambda_sP_sp_s(x)</tex>, если вдруг <tex>\lambda_{s^\ast}P_{s^\ast}p_{s^\ast}(x) < \sum_y (\lambda_y-\lambda_{\text{rej}})P_y p_y(x)</tex> то решаем отказаться от классификации. | ||
+ | |||
+ | Думаю то же самое можно получить, введя функционал среднего риска на множестве классификаторов <tex>R(a)</tex>. За правильность рассуждений и отсутствие косяков не ручаюсь. |
Текущая версия
Peter Romov, поздравляем с успешной регистрацией на MachineLearning.ru
Перед началом работы рекомендуем ознакомиться с двумя основными документами:
- Концепция Ресурса — короткий документ, в котором объясняется, чем наш Ресурс отличается от Википедии, как его можно использовать для совместной научной и учебной работы, и каким он должен стать в перспективе;
- Инструктаж — длинный документ, в котором мы постарались собрать все сведения, необходимые для работы с Ресурсом, включая правила вики-разметки и сведения об основных категориях Ресурса.
Ссылки на эти и другие справочные материалы собраны на странице Справка.
В нашем сообществе принято представляться. Поэтому, прежде чем приступить к созданию или редактированию страниц, заполните, пожалуйста, свою страницу участника. Сделать это очень просто — достаточно кликнуть на Ваше имя Участника (оно показывается в самой верхней строке на любой странице Ресурса). Желательно, чтобы кроме обычных формальностей (фамилии, имени, отчества, места работы или учёбы, степени, звания, и т.д.) Вы указали свои научные интересы. Удобнее всего сделать это в виде списка ссылок на интересные Вам статьи или категории нашего Ресурса. Не беда, если некоторые из них окажутся «красными ссылками» — это означает, что таких статей пока нет, и у Вас есть шанс их написать. Кстати, вики-движок собирает все «красные ссылки» в список требуемых статей — в него тоже стоит заглянуть. Для создания новой статьи достаточно кликнуть по «красной ссылке» или набрать её название в строке поиска.
По любым вопросам, связанным с работой нашего Ресурса, обращайтесь к Администраторам (см. список администраторов).
С уважением,
ваш M.L.Ru
Цена отказа от классификации
Средняя цена ответа (риск) s в то время когда правильный y: . Риск мы хотим минимизировать. Если его минимизировать по всем , то получится знакомая формула: . Сумма в знаменателе (значение ) является константой по s и на нее можно забить при минимизации.
А теперь представьте что помимо выбора элемента у нас имеется возможность отказаться от классификации, заплатив , будем говорить что при этом . Если правильный ответ распределен , а мы решили отказаться от классификации, сколько в среднем заплатим? Матожидание константы, т.е. средний риск отказа .
Минимизируем риск с учетом возможности отказа: .
Если же принять соглашения, что , то немного причесав все это можно получить --- классификатор, получающийся в результате минимизации вышевведенного риска. То есть, находим , если вдруг то решаем отказаться от классификации.
Думаю то же самое можно получить, введя функционал среднего риска на множестве классификаторов . За правильность рассуждений и отсутствие косяков не ручаюсь.