Классификация пациентов с сердечно-сосудистыми заболеваниями (отчет)
Материал из MachineLearning.
(→Постановка задачи) |
(→Квази-вероятностная постановка задачи) |
||
Строка 41: | Строка 41: | ||
=== Математическое описание алгоритмов === | === Математическое описание алгоритмов === | ||
==== Квази-вероятностная постановка задачи ==== | ==== Квази-вероятностная постановка задачи ==== | ||
- | Пусть в пространстве признаков объективно определена некоторая неизвестная | + | Пусть <tex>\Omega</tex> - множество объектов, каждый из которых принадлежит одному из двух классов: <tex>y(\omega) \in Y = {-1, 1}</tex>. Каждый объект <tex>\omega \in Omega</tex> характеризуется <tex>n</tex> признаками в некоторых шкалах |
+ | <tex>x^i(\omega) \in X_i</tex>. Пусть в пространстве признаков <tex>X = X_1 \t \dots \t X_n</tex> объективно определена некоторая неизвестная гиперплоскость <tex>\sum_{i=1}^n K_i(\te_i, x^i) + b = 0</tex>. В качестве модели распределения объектов рассмотрим два несобственных параметрических распределения: | ||
+ | <tex>\ph_{+1}(x^1, \dots, x^n | \te_1, | ||
+ | \dots, \te_n, b) = \left\{ | ||
+ | \begin{array}{l} | ||
+ | 1, ~ \sum_{i=1}^n K_i(\te_i, x^i) + b \ge 1, \\ | ||
+ | \exp{\bigl[-c\bigl(1 - \sum_{i=1}^n K_i(\te_i, x^i) - b \bigr)\bigr]}, ~ \sum_{i=1}^n K_i(\te_i, x^i) + b < 1, \\ | ||
+ | \end{array} | ||
+ | \right.</tex> | ||
+ | <tex>\ph_{-1}(x^1, \dots, x^n | \te_1, | ||
+ | \dots, \te_n, b) = \left\{ | ||
+ | \begin{array}{l} | ||
+ | 1, ~ \sum_{i=1}^n K_i(\te_i, x^i) + b \le -1, \\ | ||
+ | \exp{\bigl[-c\bigl(1 + \sum_{i=1}^n K_i(\te_i, x^i) + b \bigr)\bigr]}, ~ \sum_{i=1}^n K_i(\te_i, x^i) + b > -1. \\ | ||
+ | \end{array} | ||
+ | \right.</tex> | ||
+ | Далее вектор <tex>(\te_1, \dots, \te_n, b)</tex> рассмотрим как случайный вектор с априорной плотностью распределения <tex>\Psi(\te_1, \dots, \te_n, b).</tex> По формуле Байеса апостериорная плотность распределения параметров <tex>\mathbf{\te}</tex> и <tex>b</tex>: <tex>P\bigl(\mathbf{\te}, b| X^{\ell}\bigr)\prop \Psi(\mathbf{\te}, b) | ||
+ | \biggl(\prod_{j: y_j = +1} \ph_{+1}(\mathbf{x_j} | \mathbf{\te}, | ||
+ | b)\biggr)\biggl(\prod_{j: y_j = -1} \ph_{-1}(\mathbf{x_j} | | ||
+ | \mathbf{\te}, b)\biggr) | ||
+ | </tex> | ||
+ | Согласно принципу максимизации апостериорной плотности распределения: | ||
+ | <tex>\bigl(\hat{\te_1}, \dots, \hat{\te_n}, \hat{b}\bigr) = arg \max_{\mathbf{\te}, b} \biggl[\ln \Psi(\mathbf{\te}, b) + \sum_{j: y_j = +1} \ln \ph_{+1}(\mathbf{x_j} | \mathbf{\te}, | ||
+ | b) + \sum_{j: y_j = -1} \ln \ph_{-1}(\mathbf{x_j} | \mathbf{\te}, | ||
+ | b)\biggr]</tex> | ||
==== Метод <tex>\mu - RKM</tex> ==== | ==== Метод <tex>\mu - RKM</tex> ==== |
Версия 15:30, 10 февраля 2010
Введение в проект
Описание проекта
Цель проекта
Цель проекта - классификация пациентов с подозрением на сердечно-сосудистые заболевания по группам риска.
Обоснование проекта
Полученные результаты могут быть использованы для предварительной диагностики заболевания у пациентов.
Описание данных
Дан список 100 пациентов с указанием их группы риска(по экспертной оценке) и результатов их анализов по 20 параметрам.
Критерии качества
Критерием качества является общее количество ошибок классификации. При этом не допускается более 1 ошибки для пациентов групп риска A1(уже прооперированные больные) и A3(больные с высокой вероятностью заболевания).
Требования к проекту
Алгоритм не должен допускать более одной ошибки по группам риска A1 и A3, а также минимальное количество ошибок по остальным группам риска.
Выполнимость проекта
Особенностями данных, которые могут затруднить выполнение проекта, являются малое количество прецедентов по некоторым группам риска(в особенности A2) и наличие пропусков в данных.
Используемые методы
Предполагается использовать линейные алгоритмы классификации, в частности SVM.
Постановка задачи
Дана обучающая выборка , где
,
.
Описание алгоритмов
Обзор литературы
Базовые предположения
Особенностью данной задачи является большая размерность признакового пространства и малое число прецедентов.
Таким образом для того, чтобы избегнуть переобучения и добиться устойчивой классификации, требуется решить задачу отбора признаков. Для этой цели предполагается использовать алгоритм Relevance Kernel Machine with supervised selectivity(далее - ), который совмещает в себе возможности решения задачи классификации и отбора признаков.
Математическое описание алгоритмов
Квази-вероятностная постановка задачи
Пусть - множество объектов, каждый из которых принадлежит одному из двух классов:
. Каждый объект
характеризуется
признаками в некоторых шкалах
. Пусть в пространстве признаков
объективно определена некоторая неизвестная гиперплоскость
. В качестве модели распределения объектов рассмотрим два несобственных параметрических распределения:
Далее вектор
рассмотрим как случайный вектор с априорной плотностью распределения
По формуле Байеса апостериорная плотность распределения параметров
и
:
Согласно принципу максимизации апостериорной плотности распределения:
Метод
Варианты или модификации
Описание системы
- Ссылка на файл system.docs
- Ссылка на файлы системы
Отчет о вычислительных экспериментах
Визуальный анализ работы алгоритма
Анализ качества работы алгоритма
Анализ зависимости работы алгоритма от параметров
Отчет о полученных результатах
Список литературы
![]() | Данная статья является непроверенным учебным заданием.
До указанного срока статья не должна редактироваться другими участниками проекта MachineLearning.ru. По его окончании любой участник вправе исправить данную статью по своему усмотрению и удалить данное предупреждение, выводимое с помощью шаблона {{Задание}}. См. также методические указания по использованию Ресурса MachineLearning.ru в учебном процессе. |