Оценка сложности регрессионных моделей (пример)
Материал из MachineLearning.
(→Способы оценки сложности регрессионных моделей) |
|||
Строка 13: | Строка 13: | ||
== Способы оценки сложности регрессионных моделей == | == Способы оценки сложности регрессионных моделей == | ||
+ | Существуют различные способы оценки сложности, используемые при выборе регрессионных моделей. Одни из наиболее распространенных, это [[Критерий Акаике|критерий Акаике (AIC)]], основанный на [[Бритва Оккама|принципе Оккама]], а также тесно связанный с ним [[Байесовский информационный критерий|Байесовский информационный критерий (BIC)]]. |
Версия 12:20, 8 декабря 2010
Задача восстановления регрессии является частным случаем задачи обучения по прецедентам. При выборе модели, как и для всех задач обучения по прецедентам, возможны проблемы недообучения и переобучения.
В случае недообучения, модель недостаточно сложна для описания данных с требуемой точностью. А в случае переобучения, возникающего при избыточной сложности моделей, средняя ошибка на тестовой выборке существенно выше,чем на обучающей выборке.
Таким образом, для каждой задачи существует оптимальная сложность модели.
Способы оценки сложности регрессионных моделей
Существуют различные способы оценки сложности, используемые при выборе регрессионных моделей. Одни из наиболее распространенных, это критерий Акаике (AIC), основанный на принципе Оккама, а также тесно связанный с ним Байесовский информационный критерий (BIC).