Описание окрестности точки наибольшего правдоподобия моделей (пример)
Материал из MachineLearning.
(→Постановка задачи) |
(→Постановка задачи) |
||
Строка 9: | Строка 9: | ||
<tex>\mathbf{y} = [y^1, \ldots, y^m]^T \in\mathbb{R}^m</tex> - вектор целевого признака. | <tex>\mathbf{y} = [y^1, \ldots, y^m]^T \in\mathbb{R}^m</tex> - вектор целевого признака. | ||
- | + | ||
+ | <center><tex>D = ([\mathbf{x}_1, \ldots, \mathbf{x}_n], \mathbf{y}) = (X, \mathbf{y})</tex></center> | ||
+ | |||
Пусть <tex>I = \{1, \ldots, m\}</tex> - множество индексов объектов, | Пусть <tex>I = \{1, \ldots, m\}</tex> - множество индексов объектов, | ||
<tex>J = \{1, \ldots,n\}</tex> - множество индексов признаков. <tex>A\subseteq J</tex> - подмножество активных признаков. | <tex>J = \{1, \ldots,n\}</tex> - множество индексов признаков. <tex>A\subseteq J</tex> - подмножество активных признаков. | ||
+ | Множество <tex>A</tex> задаёт регрессионную модель <tex>f_A</tex>, а <tex>c_f = |A|</tex> - сложность модели. | ||
Рассмотрим следующую линейную модель регрессии, описывающую связь между свободными и зависимой переменными | Рассмотрим следующую линейную модель регрессии, описывающую связь между свободными и зависимой переменными | ||
- | <center><tex>\mathbf{y} = X \mathbf{w} | + | <center><tex>\mathbf{y} = f_A(X, \mathbf{w}) = X \mathbf{w}</tex> , (1)</center> |
- | где <tex>\ | + | где <tex>\mathbf{w} = [\ldots, w_j, \ldots]^T_{j\in A}</tex> - вектор параметров регрессии. |
- | + | Пусть случайная аддитивная переменная <tex>\mathbf{\varepsilon}</tex> регрессионной модели | |
+ | <tex>\mathbf{y} = f(X, \mathbf{w}) + \mathbf{\varepsilon}</tex> имеет нормальное распределение | ||
+ | <tex>\varepsilon \in N(0, \sigma^2)</tex>. | ||
+ | |||
Требуется найти такую модель оптимальной структуры признаков <tex>F</tex>, которая доставляет наименьшее значение функционалу качества (?). | Требуется найти такую модель оптимальной структуры признаков <tex>F</tex>, которая доставляет наименьшее значение функционалу качества (?). | ||
Версия 10:37, 15 декабря 2010
Содержание |
Постановка задачи
Пусть задана выборка из m пар.
- множество из m объектов, , где n - количество признаков, а - соответствующая зависимая переменная.
- вектор значений j-ого признака, а - вектор целевого признака.
Пусть - множество индексов объектов,
- множество индексов признаков. - подмножество активных признаков.
Множество задаёт регрессионную модель , а - сложность модели.
Рассмотрим следующую линейную модель регрессии, описывающую связь между свободными и зависимой переменными
где - вектор параметров регрессии.
Пусть случайная аддитивная переменная регрессионной модели имеет нормальное распределение .
Требуется найти такую модель оптимальной структуры признаков , которая доставляет наименьшее значение функционалу качества (?).
Порождение свободных переменных
Множества измеряемых признаков бывает недостаточно для построения модели удовлетворительного качества. Требуется расширить множество признаков с помощью функциональных преобразований.
Предлагается следующий способ порождения новых признаков:
Пусть задано множество свободных переменных и конечное множество порождающих функций .
Обозначим , где индекс .
Рассмотрим декартово произведение , где элементу ставится в соответствие суперпозиция , однозначно определяемая индексами .
В качестве модели, описывающей отношение между зависимой переменной и свободными переменными , используется полином Колмогорова-Габора:
где и .
- множество индексов, размерности N.
Возвращаясь к формуле (1):
Алгоритм
Рассмотрим алгоритм, состоящий из двух шагов. На первом шаге мы будем добавлять признаки один за другим к нашей модели соглалсано критерию (2). На втором шаге мы будем удалять признаки по одному из нашей модели согласно тому же критерию (2).
Пусть на -ом шагу алгоритма имеется множество признаков , которое определяет матрицу : . На нулевом шаге . Опишем -ый шаг алгоритма.
1. "Шаг добавления"
Добавляем признак
Вычислительный эксперимент
Исходный код
Литература
- Стрижов В.В Методы выбора регрессионных моделей. — ВЦ РАН, 2010.