Алгоритмы выбора линейных регрессионных моделей (практика)
Материал из MachineLearning.
(→Реализованные алгоритмы) |
(викификация) |
||
Строка 91: | Строка 91: | ||
Алгоритм использует идею последовательного уменьшения вектора ответов за счет вычитания проекций на биссекторы векторов признаков. Аналогичная идея используется в алгоритме [[LARS]], но данный алгоритм выбирает вектор для проецирования по другому принципу. Пусть остаток вектора ответов после проецироваиня, так же как и в алгоритме LARS, лежит на биссекторе двух векторов признаков. Тогда, перебрав все такие биссекторы, мы можем оценить длину вычитаемого вектора и длину остатка. Идея заключается в максимизации длины вычитаемого на каждом шаге. | Алгоритм использует идею последовательного уменьшения вектора ответов за счет вычитания проекций на биссекторы векторов признаков. Аналогичная идея используется в алгоритме [[LARS]], но данный алгоритм выбирает вектор для проецирования по другому принципу. Пусть остаток вектора ответов после проецироваиня, так же как и в алгоритме LARS, лежит на биссекторе двух векторов признаков. Тогда, перебрав все такие биссекторы, мы можем оценить длину вычитаемого вектора и длину остатка. Идея заключается в максимизации длины вычитаемого на каждом шаге. | ||
Сначала находится пара признаков, для которых длина вычитаемого вектора наибольшая. Затем вектор ответов уменьшается на этот вектор, а соответствующий коэффициент увеличивается. | Сначала находится пара признаков, для которых длина вычитаемого вектора наибольшая. Затем вектор ответов уменьшается на этот вектор, а соответствующий коэффициент увеличивается. | ||
- | |||
'''Вход:''' | '''Вход:''' | ||
Строка 106: | Строка 105: | ||
## <tex>$y:=y-kf_p$</tex> | ## <tex>$y:=y-kf_p$</tex> | ||
## <tex>$\alpha_p:=\alpha_p+k$</tex> | ## <tex>$\alpha_p:=\alpha_p+k$</tex> | ||
- | |||
[[Категория: Регрессионный анализ]] | [[Категория: Регрессионный анализ]] | ||
[[Категория: Инструменты и технологии]] | [[Категория: Инструменты и технологии]] |
Версия 11:24, 15 февраля 2010
Описание библиотеки алгоритмов выбора линейных регрессионных моделей
Архитектура
Соглашения об интерфейсе функций
Для унификации способов применения методов выбора модели предусмотрен формат интерфейса функции.
На вход каждый метод принимает 3 параметра:
-
features
— матрица признакового описания объектов, в которой строки соответствуют объектам, а столбцы - признакам; -
target
- столбец значений целевого признака; -
Params
- структура с параметрами алгоритма; она может обладать следующими полями:-
Common
- структура, содержащая общие параметры алгоритмов:-
maxNFeatures
- максимальное допустимое количество отобранных информативных признаков;
-
- ИмяМетода - для каждого метода структура с его собственными параметрами; например, для метода полного перебора
esearch
параметры должны быть доступны как поля структурыParams.Esearch
.
-
На вход методам может передаваться структура параметров, содержащая не все поля (поле Params.Common
и поля, соответствующие конкретным методам), а также не все их поля (например, может быть не задано Params.Common.maxNFeatures
). Если необходимые алгоритму параметры не заданы, должны быть использованы некоторые значения "по умолчанию".
На выходе каждый метод возвращает описание набора информативных признаков и их весов в виде структуры с полями:
-
isInformative
- логический вектор-столбец, представляющий собой маску информативных признаков (выбранным информативным признакам соответствуетtrue
, остальным -false
); -
weight
- столбец с весами каждого признака; для неинформативных признаков веса должны быть нулевыми.
Шаблон шапки файла метода
function FeaturesRating = methodName(features, target, Params) % Description. % % Arguments % Input % features - matrix of features, where rows are objects, and colums are feature vectors % target - target feature vector % Params - structure with fields % Common - common params; structure with fields % maxNFeatures - maximum features number to select % MethodName - structure with params for particular method % Output % FeaturesRating - structure with rating for all features; has fields % isInformative - logical column of marks is particular feature informative (true) or not (false) % weight - weight of particular feature % % Example % TODO % % See also % TODO % % Revisions % TODO
TODO Example
Реализованные алгоритмы
Полный перебор [esearch]
Лассо Тибширани [lasso]
Least Angle Regression (LARS) [lars]
Генетический алгоритм [genetic]
метод группового учета аргиментов (МГУА) [gmdh]
Случайный поиск с адаптацией (СПА) [rsa]
Алгоритм случайного поиска с адаптацией похож на генетический, но лишен операции скрещивания, зато обладает более сложной операцией мутации — признаки из хороших наборов появляются с большей вероятностью, чем из плохих.
Вход:
- — набор признаков
- — обучающая выборка
- — критерий качества (степень ошибки)
- — количество шагов осле наождения оптимума
- — максимальное число признаков в наборе
- — количество итераций
- — количество генерируемых наборов на каждой итерации
- — скорость адаптации (шаг изменения вероятностей)
Алгоритм:
- для всех признаков равные вероятности:
- для всех сложностей наборов:
- для всех итераций:
- генерация набора признаков согласно вероятностям: ,
- лучший набор:
- худший набор:
- суммарное наказание:
- по всем плохим признакам:
- по всем хорошим признакам:
- лучший набор из просмотренных:
- если , то вернуть
- для всех итераций:
Гребневая регрессия [ridgeregr]
Поиск самой длинной проекции вектора ответов на биссекторы векторов признаков [maxkselect]
Алгоритм использует идею последовательного уменьшения вектора ответов за счет вычитания проекций на биссекторы векторов признаков. Аналогичная идея используется в алгоритме LARS, но данный алгоритм выбирает вектор для проецирования по другому принципу. Пусть остаток вектора ответов после проецироваиня, так же как и в алгоритме LARS, лежит на биссекторе двух векторов признаков. Тогда, перебрав все такие биссекторы, мы можем оценить длину вычитаемого вектора и длину остатка. Идея заключается в максимизации длины вычитаемого на каждом шаге. Сначала находится пара признаков, для которых длина вычитаемого вектора наибольшая. Затем вектор ответов уменьшается на этот вектор, а соответствующий коэффициент увеличивается.
Вход:
- — векторы признаков;
- — вектор ответов
Выход:
- — коэффициенты линейного разложения вектора ответов по векторам признаков
Алгоритм:
- инициализация:
- повторять
- найти пару признаков , и коэффициент :