Обсуждение участника:Peter Romov
Материал из MachineLearning.
(→Цена отказа от классификации) |
(→Цена отказа от классификации) |
||
Строка 11: | Строка 11: | ||
Если же принять соглашения, что <tex>\lambda_{yy} = 0,\, \lambda_{ys} = \lambda_y (y \neq s),\, \lambda_0 = \lambda_{\text{rej}}</tex>, то немного причесав все это можно получить | Если же принять соглашения, что <tex>\lambda_{yy} = 0,\, \lambda_{ys} = \lambda_y (y \neq s),\, \lambda_0 = \lambda_{\text{rej}}</tex>, то немного причесав все это можно получить | ||
- | <tex>a(x) = \arg \max_s \left( \sum_y (\lambda_y-\lambda_{\text{rej}})P_y p_y(x) (s=0), \{\lambda_sP_sp_s(x)\}_{s\in\mathcal{Y}} \right)</tex> --- классификатор, получающийся в результате минимизации вышевведенного риска. То есть, находим <tex>s^\ast = \arg\ | + | <tex>a(x) = \arg \max_s \left( \sum_y (\lambda_y-\lambda_{\text{rej}})P_y p_y(x) (s=0), \{\lambda_sP_sp_s(x)\}_{s\in\mathcal{Y}} \right)</tex> --- классификатор, получающийся в результате минимизации вышевведенного риска. То есть, находим <tex>s^\ast = \arg\max_{s \in \mathcal{Y}}\lambda_sP_sp_s(x)</tex>, если вдруг <tex>\lambda_{s^\ast}P_{s^\ast}p_{s^\ast}(x) < \sum_y (\lambda_y-\lambda_{\text{rej}})P_y p_y(x)</tex> то решаем отказаться от классификации. |
Думаю то же самое можно получить, введя функционал среднего риска на множестве классификаторов <tex>R(a)</tex>. За правильность рассуждений и отсутствие косяков не ручаюсь. | Думаю то же самое можно получить, введя функционал среднего риска на множестве классификаторов <tex>R(a)</tex>. За правильность рассуждений и отсутствие косяков не ручаюсь. |
Текущая версия
Peter Romov, поздравляем с успешной регистрацией на MachineLearning.ru
Перед началом работы рекомендуем ознакомиться с двумя основными документами:
- Концепция Ресурса — короткий документ, в котором объясняется, чем наш Ресурс отличается от Википедии, как его можно использовать для совместной научной и учебной работы, и каким он должен стать в перспективе;
- Инструктаж — длинный документ, в котором мы постарались собрать все сведения, необходимые для работы с Ресурсом, включая правила вики-разметки и сведения об основных категориях Ресурса.
Ссылки на эти и другие справочные материалы собраны на странице Справка.
В нашем сообществе принято представляться. Поэтому, прежде чем приступить к созданию или редактированию страниц, заполните, пожалуйста, свою страницу участника. Сделать это очень просто — достаточно кликнуть на Ваше имя Участника (оно показывается в самой верхней строке на любой странице Ресурса). Желательно, чтобы кроме обычных формальностей (фамилии, имени, отчества, места работы или учёбы, степени, звания, и т.д.) Вы указали свои научные интересы. Удобнее всего сделать это в виде списка ссылок на интересные Вам статьи или категории нашего Ресурса. Не беда, если некоторые из них окажутся «красными ссылками» — это означает, что таких статей пока нет, и у Вас есть шанс их написать. Кстати, вики-движок собирает все «красные ссылки» в список требуемых статей — в него тоже стоит заглянуть. Для создания новой статьи достаточно кликнуть по «красной ссылке» или набрать её название в строке поиска.
По любым вопросам, связанным с работой нашего Ресурса, обращайтесь к Администраторам (см. список администраторов).
С уважением,
ваш M.L.Ru
Цена отказа от классификации
Средняя цена ответа (риск) s в то время когда правильный y: . Риск мы хотим минимизировать. Если его минимизировать по всем , то получится знакомая формула: . Сумма в знаменателе (значение ) является константой по s и на нее можно забить при минимизации.
А теперь представьте что помимо выбора элемента у нас имеется возможность отказаться от классификации, заплатив , будем говорить что при этом . Если правильный ответ распределен , а мы решили отказаться от классификации, сколько в среднем заплатим? Матожидание константы, т.е. средний риск отказа .
Минимизируем риск с учетом возможности отказа: .
Если же принять соглашения, что , то немного причесав все это можно получить --- классификатор, получающийся в результате минимизации вышевведенного риска. То есть, находим , если вдруг то решаем отказаться от классификации.
Думаю то же самое можно получить, введя функционал среднего риска на множестве классификаторов . За правильность рассуждений и отсутствие косяков не ручаюсь.