Участник:Tolstikhin/TEMP
Материал из MachineLearning.
< Участник:Tolstikhin(Различия между версиями)
(Новая: Дана выборка <tex>X</tex> из <tex>N</tex> независимых и одинаково распределенных объектов с распределением Берн...) |
|||
Строка 1: | Строка 1: | ||
- | + | Рассматривается задача классификации в <tex>\mathbb{R}^2</tex> с двумя классами. Решать ее мы будем в рамках нормального дискриминантного анализа, то есть мы предполагаем, что каждый из классов имеет 2-мерное нормальное распределение. Напомним, что плотность <tex>n</tex>-мерного нормального распределения задается формулой: | |
+ | |||
+ | :<tex>p(\vec x) = \frac{1}{(2\pi)^{n/2}|\Sigma|^{1/2}} \exp{\bigl(-\textstyle\frac{1}{2}(\vec x - \vec\mu)^{\top}\Sigma^{-1}(\vec x - \vec \mu)\bigr)},\;\vec x,\vec \mu \in \mathbb{R}^n,\; \Sigma\in\mathbb{R}^{n\times n}.</tex> | ||
- | + | Приведите конкретный пример параметров задачи — априорных вероятностей классов <tex>$P_1,P_2</tex>, штрафов <tex>\lambda_1, \lambda_2</tex>, ковариационных матриц <tex>\Sigma</tex> и средних <tex>\vec \mu</tex> для каждого из двух классов, — когда разделяющей поверхностью оптимального байесовского классификатора будет прямая <tex>x_2=x_1</tex>, и при этом для каждого из классов отношение больших полуосей линий уровня к меньшим полуосям равно <tex>\sqrt{2}</tex>. | |
- | + | ||
- | + |
Текущая версия
Рассматривается задача классификации в с двумя классами. Решать ее мы будем в рамках нормального дискриминантного анализа, то есть мы предполагаем, что каждый из классов имеет 2-мерное нормальное распределение. Напомним, что плотность -мерного нормального распределения задается формулой:
Приведите конкретный пример параметров задачи — априорных вероятностей классов , штрафов , ковариационных матриц и средних для каждого из двух классов, — когда разделяющей поверхностью оптимального байесовского классификатора будет прямая , и при этом для каждого из классов отношение больших полуосей линий уровня к меньшим полуосям равно .