Вариация и смещение
Материал из MachineLearning.
(Различия между версиями)
(Новая: {{TOCRight}} == Теорема о разложении ошибки на вариацию и смещение == Пусть есть выборка из <tex>n</tex> <tex>k</tex>-мер...) |
|||
Строка 2: | Строка 2: | ||
== Теорема о разложении ошибки на вариацию и смещение == | == Теорема о разложении ошибки на вариацию и смещение == | ||
- | Пусть есть выборка из <tex>n</tex> <tex>k</tex>-мерных векторов <tex>x^n=(x_1,...x_n) | + | Пусть есть выборка из <tex>n</tex> <tex>k</tex>-мерных векторов <tex>x^n=(x_1,...x_n)</tex>. |
<tex>y</tex> - отклик, <tex>y=(y_1,...,y_n)</tex> | <tex>y</tex> - отклик, <tex>y=(y_1,...,y_n)</tex> | ||
Строка 13: | Строка 13: | ||
'''Теорема''' | '''Теорема''' | ||
- | Пусть <tex>y_i = y(x_i) + \epsilon_i</tex>, <tex>x_i | + | Для простоты будем считать <tex>k=1</tex>. |
+ | |||
+ | Пусть <tex>y_i = y(x_i) + \epsilon_i</tex>, <tex>x_i</tex> - не случайные, <tex>\mathbb{E} \epsilon_i = 0</tex>, <tex>\mathbb{E} \epsilon_i \epsilon_j = 0</tex>, <tex>\mathbb{D} \epsilon_i = \sigma^2</tex>; | ||
+ | |||
+ | <tex>\max_i \mid x_i - x_{i-1} \mid = O(\frac 1n)</tex>, если <tex>x_1 \leq x_2 \leq ... \leq x_n</tex>; | ||
+ | |||
+ | <tex>K(r)=0</tex> при <tex>r \notin (-1;1)</tex>; | ||
+ | |||
+ | при <tex>n \to \infty \ h_n \to 0, \ nh_n \to \infty</tex>. | ||
+ | |||
+ | Тогда <tex>\mathbb{E} (\hat y_h_n(x) - y(x))^2 \quad \longrightarrow^{n \to \infty}\quad \frac {\sigma^2 c_k}{n \cdot h_n} \ + \ (\frac{h_n^2 \ d_k \ y''(x)}{2})^2</tex>. Здесь |
Версия 19:58, 11 января 2009
Теорема о разложении ошибки на вариацию и смещение
Пусть есть выборка из -мерных векторов . - отклик,
- оценка по , ближайшим к .
- метрика, позволяющая сравнить с новым объектом
Объектам приписаны веса , где - ядро, а - ширина окна.
Теорема
Для простоты будем считать .
Пусть , - не случайные, , , ;
, если ;
при ;
при .
Тогда . Здесь