Классификация пациентов с сердечно-сосудистыми заболеваниями (отчет)

Материал из MachineLearning.

Перейти к: навигация, поиск

Введение в проект

Описание проекта

Цель проекта

Цель проекта - классификация пациентов с подозрением на сердечно-сосудистые заболевания по группам риска.

Обоснование проекта

Полученные результаты могут быть использованы для предварительной диагностики заболевания у пациентов.

Описание данных

Дан список 100 пациентов с указанием их группы риска(по экспертной оценке) и результатов их анализов по 20 параметрам.

Критерии качества

Критерием качества является общее количество ошибок классификации. При этом не допускается более 1 ошибки для пациентов групп риска A1(уже прооперированные больные) и A3(больные с высокой вероятностью заболевания).

Требования к проекту

Алгоритм не должен допускать более одной ошибки по группам риска A1 и A3, а также минимальное количество ошибок по остальным группам риска.

Выполнимость проекта

Особенностями данных, которые могут затруднить выполнение проекта, являются малое количество прецедентов по некоторым группам риска(в особенности A2) и наличие пропусков в данных.

Используемые методы

Предполагается использовать линейные алгоритмы классификации, в частности SVM.

Постановка задачи

Дана обучающая выборка X^\ell = (x_i, y_i)_{i=1}^\ell, ~~ \ell = 66, где x_i \in \mathbb{R}^n, n = 20, y_i \in \{A_1, A_3, B_1, B_2\}.

Для каждой из задач двуклассовой классификации(отделение одного класса от трех остальных и отделение пар классов друг от друга) перекодируем классы так, что y_i \in \{-1, 1\}. Требуется подобрать вектор параметров \mathbf{w} оптимальной разделяющей гиперплоскости, который минимизирует функционал скользящего контроля:
LOO(\mathbf{w},X^\ell) = \sum_{i=1}^\ell [a(x_i, X^\ell\backslash x_i, \mathbf{w}) \neq y_i] \rightarrow \min_{\mathbf{w}}, где a(x) = [\sum_{j=1}^n w_jx^j-w_0 > 0]

Описание алгоритмов

Обзор литературы

Базовые предположения

Особенностью данной задачи является большая размерность признакового пространства и малое число прецедентов. Таким образом для того, чтобы избегнуть переобучения и добиться устойчивой классификации, требуется решить задачу отбора признаков. Для этой цели предполагается использовать алгоритм Relevance Kernel Machine with supervised selectivity(далее - \mu - RKM), который совмещает в себе возможности решения задачи классификации и отбора признаков.

Математическое описание алгоритмов

Квази-вероятностная постановка задачи

Пусть \Omega - множество объектов, каждый из которых принадлежит одному из двух классов: y(\omega) \in Y = \{-1, 1\}. Каждый объект \omega \in Omega характеризуется n признаками в некоторых шкалах x^i(\omega) \in X_i. Пусть в пространстве признаков X = X_1 \t \dots \t X_n объективно определена некоторая неизвестная гиперплоскость \sum_{i=1}^n K_i(\vartheta_i, x^i) + b = 0. В качестве модели распределения объектов рассмотрим два несобственных параметрических распределения: \varphi_{+1}(x^1, \dots, x^n | \vartheta_1,
\dots, \vartheta_n, b) = \left\{
\begin{array}{l}
1, ~ \sum_{i=1}^n K_i(\vartheta_i, x^i) + b \ge 1, \\
\exp{\bigl[-c\bigl(1 - \sum_{i=1}^n K_i(\vartheta_i, x^i) - b \bigr)\bigr]}, ~ \sum_{i=1}^n K_i(\vartheta_i, x^i) + b < 1, \\
\end{array}
\right. \varphi_{-1}(x^1, \dots, x^n | \vartheta_1,
\dots, \vartheta_n, b) = \left\{
\begin{array}{l}
1, ~ \sum_{i=1}^n K_i(\vartheta_i, x^i) + b \le -1, \\
\exp{\bigl[-c\bigl(1 + \sum_{i=1}^n K_i(\vartheta_i, x^i) + b \bigr)\bigr]}, ~ \sum_{i=1}^n K_i(\vartheta_i, x^i) + b > -1. \\
\end{array}
\right. Далее вектор (\vartheta_1, \dots, \vartheta_n, b) рассмотрим как случайный вектор с априорной плотностью распределения \Psi(\vartheta_1, \dots, \vartheta_n, b). По формуле Байеса апостериорная плотность распределения параметров \mathbf{\vartheta} и b: P\bigl(\mathbf{\vartheta}, b| X^{\ell}\bigr)\prop \Psi(\mathbf{\vartheta}, b) \biggl(\prod_{j: y_j = +1} \varphi_{+1}(\mathbf{x_j} | \mathbf{\vartheta},
b)\biggr)\biggl(\prod_{j: y_j = -1} \varphi_{-1}(\mathbf{x_j} |
\mathbf{\vartheta}, b)\biggr)
Согласно принципу максимизации апостериорной плотности распределения: \bigl(\hat{\vartheta_1}, \dots, \hat{\vartheta_n}, \hat{b}\bigr) = arg \max_{\mathbf{\vartheta}, b} \biggl[\ln \Psi(\mathbf{\vartheta}, b) + \sum_{j: y_j = +1} \ln \varphi_{+1}(\mathbf{x_j} | \mathbf{\vartheta},
b) + \sum_{j: y_j = -1} \ln \varphi_{-1}(\mathbf{x_j} | \mathbf{\vartheta},
b)\biggr]

Метод \mu - RKM

Варианты или модификации

Описание системы

  • Ссылка на файл system.docs
  • Ссылка на файлы системы

Отчет о вычислительных экспериментах

Визуальный анализ работы алгоритма

Анализ качества работы алгоритма

Анализ зависимости работы алгоритма от параметров

Отчет о полученных результатах

Список литературы

Данная статья является непроверенным учебным заданием.
Студент: Участник:Максим Панов
Преподаватель: Участник:В.В. Стрижов
Срок: 15 декабря 2009

До указанного срока статья не должна редактироваться другими участниками проекта MachineLearning.ru. По его окончании любой участник вправе исправить данную статью по своему усмотрению и удалить данное предупреждение, выводимое с помощью шаблона {{Задание}}.

См. также методические указания по использованию Ресурса MachineLearning.ru в учебном процессе.


Личные инструменты