Описание окрестности точки наибольшего правдоподобия моделей (пример)
Материал из MachineLearning.
Строка 2: | Строка 2: | ||
Пусть, | Пусть, | ||
- | <tex>X = \{\mathbf{x} | + | <tex>X = \{\mathbf{x}^i\}^m_{i=1}</tex> - множество из m свободных переменных (объектов), |
<tex>\{x_j\}^m_{i=j} \in\mathbb{R}^n</tex> , где n - размерность пространства, | <tex>\{x_j\}^m_{i=j} \in\mathbb{R}^n</tex> , где n - размерность пространства, | ||
<tex>\mathbf{y}\in\mathbb{R}^n</tex> - зависимая переменная. | <tex>\mathbf{y}\in\mathbb{R}^n</tex> - зависимая переменная. | ||
+ | Индекс признака <tex>j\in\Psi = \{1, \ldots,n\}</tex>. <tex>A\subseteq X</tex> - множество активных признаков. | ||
Рассмотрим следующую линейную модель регрессии, описывающую связь между свободными и зависимой переменными | Рассмотрим следующую линейную модель регрессии, описывающую связь между свободными и зависимой переменными | ||
Строка 14: | Строка 15: | ||
где <tex>\varepsilon \in N(0, \sigma^2)</tex> - нормальное распределение. | где <tex>\varepsilon \in N(0, \sigma^2)</tex> - нормальное распределение. | ||
- | + | Множество <tex>A</tex> задаёт регрессионную модель <tex>f_A</tex> и вектор весов <tex>\mathbf{w} = [\ldots, w_j, \ldots]^T_{j\in A}</tex>. | |
+ | |||
+ | Требуется найти такую модель оптимальной структуры признаков <tex>F</tex>, которая доставляет наименьшее значение функционалу качества (?). | ||
== Порождение свободных переменных == | == Порождение свободных переменных == | ||
Строка 45: | Строка 48: | ||
== Алгоритм == | == Алгоритм == | ||
+ | Рассмотрим алгоритм, состоящий из двух шагов. | ||
+ | На первом шаге мы будем добавлять признаки один за другим к нашей модели соглалсано критерию (2). | ||
+ | На втором шаге мы будем удалять признаки по одному из нашей модели согласно тому же критерию (2). | ||
+ | |||
+ | Пусть на <tex>k</tex>-ом шагу алгоритма имеется множество признаков <tex>A</tex>, которое определяет матрицу <tex>X_A</tex>: <tex>\mathbf{y} = X_A \mathbf{w}</tex>. На нулевом шаге <tex>A_0 = \emptyset</tex>. Опишем <tex>k</tex>-ый шаг алгоритма. | ||
+ | |||
+ | 1. "Шаг добавления" | ||
+ | Добавляем признак <tex>j \in </tex> | ||
== Вычислительный эксперимент == | == Вычислительный эксперимент == |
Версия 09:30, 15 декабря 2010
Содержание |
Постановка задачи
Пусть,
- множество из m свободных переменных (объектов), , где n - размерность пространства, - зависимая переменная. Индекс признака . - множество активных признаков.
Рассмотрим следующую линейную модель регрессии, описывающую связь между свободными и зависимой переменными
где - нормальное распределение.
Множество задаёт регрессионную модель и вектор весов .
Требуется найти такую модель оптимальной структуры признаков , которая доставляет наименьшее значение функционалу качества (?).
Порождение свободных переменных
Множества измеряемых признаков бывает недостаточно для построения модели удовлетворительного качества. Требуется расширить множество признаков с помощью функциональных преобразований.
Предлагается следующий способ порождения новых признаков:
Пусть задано множество свободных переменных и конечное множество порождающих функций .
Обозначим , где индекс .
Рассмотрим декартово произведение , где элементу ставится в соответствие суперпозиция , однозначно определяемая индексами .
В качестве модели, описывающей отношение между зависимой переменной и свободными переменными , используется полином Колмогорова-Габора:
где и .
- множество индексов, размерности N.
Возвращаясь к формуле (1):
Алгоритм
Рассмотрим алгоритм, состоящий из двух шагов. На первом шаге мы будем добавлять признаки один за другим к нашей модели соглалсано критерию (2). На втором шаге мы будем удалять признаки по одному из нашей модели согласно тому же критерию (2).
Пусть на -ом шагу алгоритма имеется множество признаков , которое определяет матрицу : . На нулевом шаге . Опишем -ый шаг алгоритма.
1. "Шаг добавления"
Добавляем признак
Вычислительный эксперимент
Исходный код
Литература
- Стрижов В.В Методы выбора регрессионных моделей. — ВЦ РАН, 2010.