Квадратичный дискриминант
Материал из MachineLearning.
Строка 1: | Строка 1: | ||
- | '''Квадратичный дискриминант''' - это вариант [[Байесовский классификатор|Байесовского классификатора]], который основывается на | + | '''Квадратичный дискриминант''' - это вариант [[Байесовский классификатор|Байесовского классификатора]], который основывается на двух дополнительных допущениях, касающихся вероятностных свойств выборки, а именно - независимость выборки и ее нормальность. |
+ | [[Нормальное распределение|Нормальное (гауссово) распределение]] широко используется по причине вычислительного удобства и адекватности во многих случаях. | ||
- | + | == Основные допущения == | |
* Выборка независима, то есть | * Выборка независима, то есть | ||
Строка 13: | Строка 14: | ||
где <tex>n - </tex> размерность пространства | где <tex>n - </tex> размерность пространства | ||
- | + | == Оценка параметров == | |
- | Оценки, основанные на принципе максимума правдоподобия, принимают следующий вид: | + | Оценки, основанные на принципе максимума правдоподобия, принимают следующий вид для каждого класса <tex>y</tex>: |
::<tex>\hat \mu = \frac {1}{m} \sum _{i=1}^m x_i</tex> | ::<tex>\hat \mu = \frac {1}{m} \sum _{i=1}^m x_i</tex> | ||
Строка 21: | Строка 22: | ||
::<tex>\hat \Sigma = \frac {1}{m} \sum _{i=1}^m (x_i-\hat \mu)(x_i-\hat \mu)^T</tex> | ::<tex>\hat \Sigma = \frac {1}{m} \sum _{i=1}^m (x_i-\hat \mu)(x_i-\hat \mu)^T</tex> | ||
- | + | Где <tex>x_i \in y,</tex> | |
+ | |||
+ | <tex> m - </tex> количество элементов в классе <tex>y</tex> | ||
+ | |||
+ | == Алгоритм классификации == | ||
+ | |||
+ | В общем виде, алгоритм Байесовского классификатора имеет вид | ||
+ | |||
+ | <tex>a(x)=argmax_{y \in Y} \lambda_y p_y(x) P_y</tex> | ||
+ | |||
+ | В условиях выдвинутых гипотез алгоритм очевидным образом приобретает следующий вид: | ||
<tex> a(x)= argmax_{y \in Y} (ln \lambda_y P_y - \frac {1}{2}(x- \hat \mu_y)^T \Sigma^{-1} (x- \hat \mu_y) - \frac {1}{2} ln det {\hat \Sigma_y} ) </tex> | <tex> a(x)= argmax_{y \in Y} (ln \lambda_y P_y - \frac {1}{2}(x- \hat \mu_y)^T \Sigma^{-1} (x- \hat \mu_y) - \frac {1}{2} ln det {\hat \Sigma_y} ) </tex> | ||
Строка 27: | Строка 38: | ||
<u>'''Теорема:'''</u> Квадратичный дискриминант имеет квадратичную разделяющую поверхность, которая вырождается в линейную, если ковариационные матрицы классов совпадают. | <u>'''Теорема:'''</u> Квадратичный дискриминант имеет квадратичную разделяющую поверхность, которая вырождается в линейную, если ковариационные матрицы классов совпадают. | ||
- | + | == Недостатки квадратичного дискриминанта == | |
+ | |||
+ | == Литература == | ||
- | + | # К.В.Воронцов [http://www.machinelearning.ru/wiki/images/e/ed/Voron-ML-Bayes.pdf „Лекции по статистическим (байесовским) алгоритмам классификации“] | |
+ | # Л.М.Местецкий [http://www.ccas.ru/frc/papers/mestetskii04course.pdf Курс лекций "Математические методы распознавания образов"] | ||
{{Задание|Вера Батурина|Константин Воронцов|6 января 2010}} | {{Задание|Вера Батурина|Константин Воронцов|6 января 2010}} | ||
[[Категория:Непроверенные учебные задания]] | [[Категория:Непроверенные учебные задания]] |
Версия 18:55, 5 января 2010
Квадратичный дискриминант - это вариант Байесовского классификатора, который основывается на двух дополнительных допущениях, касающихся вероятностных свойств выборки, а именно - независимость выборки и ее нормальность. Нормальное (гауссово) распределение широко используется по причине вычислительного удобства и адекватности во многих случаях.
Содержание |
Основные допущения
- Выборка независима, то есть
- Выборка имеет многомерное нормальное распределение. То есть функция правдоподобия имеет следующий вид:
где размерность пространства
Оценка параметров
Оценки, основанные на принципе максимума правдоподобия, принимают следующий вид для каждого класса :
Где
количество элементов в классе
Алгоритм классификации
В общем виде, алгоритм Байесовского классификатора имеет вид
В условиях выдвинутых гипотез алгоритм очевидным образом приобретает следующий вид:
Теорема: Квадратичный дискриминант имеет квадратичную разделяющую поверхность, которая вырождается в линейную, если ковариационные матрицы классов совпадают.
Недостатки квадратичного дискриминанта
Литература
Данная статья является непроверенным учебным заданием.
До указанного срока статья не должна редактироваться другими участниками проекта MachineLearning.ru. По его окончании любой участник вправе исправить данную статью по своему усмотрению и удалить данное предупреждение, выводимое с помощью шаблона {{Задание}}. См. также методические указания по использованию Ресурса MachineLearning.ru в учебном процессе. |