Квадратичный дискриминант
Материал из MachineLearning.
(→Оценка параметров) |
|||
Строка 24: | Строка 24: | ||
::<tex>\hat \mu = \frac {1}{m} \sum _{i=1}^m x_i</tex> | ::<tex>\hat \mu = \frac {1}{m} \sum _{i=1}^m x_i</tex> | ||
- | ::<tex>\hat \Sigma = \frac {1}{m} \sum _{i=1}^m (x_i-\hat \mu)(x_i-\hat \mu)^T</tex> | + | ::<tex>\hat \Sigma = \frac {1}{m - det y} \sum _{i=1}^m (x_i-\hat \mu)(x_i-\hat \mu)^T</tex> |
Где <tex>x_i \in y,</tex> | Где <tex>x_i \in y,</tex> |
Версия 11:31, 6 января 2010
Квадратичный дискриминант - это вариант Байесовского классификатора, который основывается на двух дополнительных допущениях, касающихся вероятностных свойств выборки, а именно - независимость выборки и ее нормальность. Нормальное (гауссово) распределение широко используется по причине вычислительного удобства и адекватности во многих случаях.
Содержание |
Постановка задачи
Необходимо построить классификатор, разделяющая поверхность которого имела бы квадратичный вид.
Основные допущения
- Выборка независима, то есть
- Выборка имеет многомерное нормальное распределение. То есть функция правдоподобия имеет следующий вид:
где размерность пространства
Оценка параметров
Оценки, основанные на принципе максимума правдоподобия, принимают следующий вид для каждого класса :
Где
количество элементов в классе
Алгоритм классификации
В общем виде, алгоритм Байесовского классификатора имеет вид
Иногда вместо самих вероятностей удобнее брать некоторые функции от них:
где монотонно возрастает.
Функция называется дискриминантной функцией, откуда и пошло название самого метода.
В условиях выдвинутых гипотез удобнее всего взять в качестве функции натуральный логарифм, и тогда алгоритм приобретает следующий вид:
Теорема
- Квадратичный дискриминант имеет квадратичную разделяющую поверхность, которая вырождается в линейную, если ковариационные матрицы классов совпадают.
Доказательство
- Поверхность, разделяющая классы и , описывается уравнением
После логарифмирования
где константа, не зависящая от . Разделяющая поверхность в общем случае квадратична, так как является квадратичной формой по .
Если , то квадратичные члены сокращаются и уравнение разделяющей поверхности вырождается в линейную форму:
где точка посередине между центрами классов.
Имеет ли смысл описывать геометрию разделяющих поверхностей здесь, или лучше оформить это отдельной статьей? |
Недостатки
- Если длина выборки меньше размерности пространства, , то матрица становится вырожденной, так как ее ранг не может превышать . В этом случае обратная матрица не существует, и метод неприменим.
- Даже если длина выборки достаточно велика, матрица все равно может оказаться вырожденной. Это происходит, когда некоторые признаки линейно зависимы. Это так называемая проблема мультиколлинеарности. Более того, признаки могут быть почти линейно зависимы. В этом случае матрица будет близка к вырожденной, иначе говоря, плохо обусловлена. Такие матрицы обладают рядом неприятных свойств, например при их обращении получаются неустойчивые решения. Положение разделяющей поверхности может сильно непредсказуемо меняться при незначительной вариации обучающих данных.
- Выборочные оценки чувствительны к нарушениям нормальности распределений, в частности, к редким большим выбросам. Мат.ожидание в таком случае значительно смещается. При увеличении размерности влияние загрязнений только усиливается.
- Если функции правдоподобия классов существенно отличаются от гауссовских, то метод квадратичного дискриминанта будет приводить к алгоритмам низкого качества. Например, когда имеются признаки, принимающие дискретные значения, или когда классы распадаются на изолированные сгустки.
Литература
- К.В.Воронцов „Лекции по статистическим (байесовским) алгоритмам классификации“
- Л.М.Местецкий Курс лекций "Математические методы распознавания образов"
Данная статья является непроверенным учебным заданием.
До указанного срока статья не должна редактироваться другими участниками проекта MachineLearning.ru. По его окончании любой участник вправе исправить данную статью по своему усмотрению и удалить данное предупреждение, выводимое с помощью шаблона {{Задание}}. См. также методические указания по использованию Ресурса MachineLearning.ru в учебном процессе. |