Статистический отчет при создании моделей
Материал из MachineLearning.
(→Описание решения) |
(→Вычислительный эксперимент) |
||
Строка 62: | Строка 62: | ||
== Вычислительный эксперимент == | == Вычислительный эксперимент == | ||
+ | |||
+ | В данном отчете представлены результаты применения созданного инструмента для анализа модели. | ||
+ | Отчет состоит из трех экспериментов, демонстрирующих работу инструмента на различных по качеству моделях. | ||
+ | |||
+ | === Модель №1 === | ||
+ | |||
+ | Неизвестная зависимость: | ||
+ | <tex> y(x) = x - 7 \sin(x) + \exp(x / 100)</tex>. | ||
+ | |||
+ | Для построения модели использовалось <tex>100</tex> объектов независимо равномерно распределительных на отрезке <tex>[0, 100].</tex> | ||
+ | В качестве шума использовались независимые случайные величины из распределения <tex>N(0, \; 0,1).</tex> | ||
+ | В качестве признаков использовались <tex>x, \; \sin(x), \;\exp(x / 100)</tex>. | ||
== Исходный код и полный текст работы == | == Исходный код и полный текст работы == |
Версия 20:38, 14 ноября 2011
|
В данной работе приведен обзор статистических методов оценивания качества регрессионных моделей, используемых популярными программами машинного обучения и статистической обработки данных. Приведены примеры вычисления и анализа полученных оценок.
Постановка задачи
Имеется пространство объектов-строк и
пространство ответов
.
Задана выборка
.
Обозначеним:
-
матрица информации или матрица плана;
-
вектор параметров;
-
целевой вектор.
Будем считать, что зависимость имеет вид
,
где некоторая неслучайная функция,
случайная величина,
с нулевым математически ожиданием.
В моделях многомерной линейной регрессии предполагается, что неслучайная составляющая имеет вид:
.
Требуется численно оценить качество модели при заданном векторе параметров .
Описание решения
Предполагая,
что матрица ковариации вектора ошибки имеет вид
,
где
,
получаем выражение для оценки параметров
взвешенным методом наименьших квадратов:
Основными инструментами оценки качества линейной модели является анализ:
- регрессионных остатков;
- матрицы частных и получастных корреляций (условные корреляции);
- корреляции и ковариации коэффициентов регрессии;
- статистики Дарбина-Уотсона;
- расстояния Махаланобиса между исходной и модельной зависимостями;
- расстояния Кука (мера изменения прогноза при удалении одного объекта);
- доверительных интервалов для предсказанных значений.
В работе рассматривается
- анализ регрессионных остатков, включающий в себя:
- вычисление среднеквадратичной ошибки:
- вычисление коэффициента детерминации:
где
- проверку гипотезы о равенстве нулю математического ожидания регрессионных остатков на основе критерия знаков;
- проверку гипотезы о равенстве дисперсий (пропорциональности с заданными коэффициентами) регрессионных остатков на основе критерия Ансари-Брэдли;
- проверку гипотезы о нормальности распределения регрессионных остатков на основе критерия хи-квадрат и критерия Жарка-Бера;
- вычисление расстояния Махаланобиса и Кука;
- вычисление корреляций признаков, корреляций признаков и значений моделируемой функции и коэффициента множественной регрессии.
Вычислительный эксперимент
В данном отчете представлены результаты применения созданного инструмента для анализа модели. Отчет состоит из трех экспериментов, демонстрирующих работу инструмента на различных по качеству моделях.
Модель №1
Неизвестная зависимость:
.
Для построения модели использовалось объектов независимо равномерно распределительных на отрезке
В качестве шума использовались независимые случайные величины из распределения
В качестве признаков использовались
.
Исходный код и полный текст работы
Смотри также
Литература
![]() | Данная статья является непроверенным учебным заданием.
До указанного срока статья не должна редактироваться другими участниками проекта MachineLearning.ru. По его окончании любой участник вправе исправить данную статью по своему усмотрению и удалить данное предупреждение, выводимое с помощью шаблона {{Задание}}. См. также методические указания по использованию Ресурса MachineLearning.ru в учебном процессе. |