Часто используемые регрессионные модели

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Новая: Ниже приведены модели, которые используются при [[регрессионный анализ|регре...)
(дополнение)
Строка 1: Строка 1:
 +
{{TOCright}}
Ниже приведены [[Регрессионная модель|модели]], которые используются при [[регрессионный анализ|регрессионном анализе]] измеряемых данных.
Ниже приведены [[Регрессионная модель|модели]], которые используются при [[регрессионный анализ|регрессионном анализе]] измеряемых данных.
Параметры моделей обозначены латинскими и греческими буквами: <tex>\{a, b,c,\ldots,\chi,\psi, \omega\}</tex>, <tex>x, y</tex>&nbsp;— свободная и зависимая переменные.
Параметры моделей обозначены латинскими и греческими буквами: <tex>\{a, b,c,\ldots,\chi,\psi, \omega\}</tex>, <tex>x, y</tex>&nbsp;— свободная и зависимая переменные.
-
Все параметры и переменные принадлежат действительным числам. При соединении параметров в вектор <tex>\mathbf{w}</tex>, для представления модели в виде
+
Все параметры и переменные вещественные.
 +
<!--При соединении параметров в вектор <tex>\mathbf{w}</tex>, для представления модели в виде
<tex>y = f(\mathbf{w},\mathbf{x}) + \varepsilon,</tex> параметры присоединяются в лексикографическом порядке, то есть в том порядке, в котором они появляются, если представить формулу регрессионной модели в виде строки.
<tex>y = f(\mathbf{w},\mathbf{x}) + \varepsilon,</tex> параметры присоединяются в лексикографическом порядке, то есть в том порядке, в котором они появляются, если представить формулу регрессионной модели в виде строки.
 +
-->
В список не вошли универсальные параметрические модели, например,
В список не вошли универсальные параметрические модели, например,
-
нейронная сеть&nbsp;— многослойный [[перcептрон]], [[функции радиального базиса]], [[полиномы Лагранжа]],
+
нейронная сеть&nbsp;— [[многослойный перцептрон]], [[радиальные базисные функции]], [[полиномы Лагранжа]],
[[полиномы Чебышёва]]. Также не вошли [[регрессионная модель|непараметрические модели]].
[[полиномы Чебышёва]]. Также не вошли [[регрессионная модель|непараметрические модели]].
Оба эти класса требуют специального описания.
Оба эти класса требуют специального описания.
 +
 +
Этот список не является жестко заданным.
 +
Выбираемая регрессионная модель зависит прежде всего от экспертных предположений относительно моделируемого явления.
 +
 +
== Линейные модели ==
 +
# Одномерная линейная регрессия <tex>y=ax+b</tex>.
 +
# Многомерная линейная регрессия <tex>y=\sum_{i=1}^n a_i x_i</tex>, где <tex>\mathbf{x}=(x_1,\ldots,x_n)</tex>&nbsp;— вектор свободных переменных.
 +
# Полиномиальная регрессия <tex>y=\sum_{i=1}^na_ix^{i-1}</tex>. В роли свободных переменных выступают степени одной и той же вещественной переменной <tex>x</tex>. Следует помнить, что полиномы высоких степеней крайне неустойчивы и могут неадекватно описывать измеряемые данные.
 +
# Криволинейная регрессия <tex>y=\sum_{i=1}^n a_i g_i(\mathbf{x})</tex>, где <tex>g_i:\: \mathbb{R}^m \to \mathbb{R}</tex>&nbsp;— некоторые нелинейные функции от вектора свободных переменных <tex>\mathbf{x}=(x_1,\ldots,x_m)</tex>. В&nbsp;качестве функций <tex>g_i</tex> часто берут «элементарные» функции от свободных переменных: гиперболу <tex>y=k/x</tex>, тригонометрические функции <tex>\sin(x),\; \arcsin(x)</tex>, гиперболический синус <tex>\text{sh}(x)</tex>, корневые <tex>\sqrt{x}</tex> и обратно-корневые функции, и&nbsp;т.&nbsp;д. Эти функции используются в некоторых финансовых приложениях.
 +
 +
== Обобщённые линейные модели ==
 +
# [[Обобщённая линейная модель|Обобщённые линейные модели]] (Generalized Linear Model, GLM), называемые также обобщёнными аддитивными моделями (Generalized Additive Model, GAM), можно рассматривать как дальнейшее обобщение криволинейной регрессии <tex>y=g^{-1}\left(\sum\nolimits_{i=1}^n a_i g_i(\mathbf{x})\right)</tex>, где <tex>g(y)</tex> называется функцией связи (link function). Обычно в GLM дополнительно предполагается, что зависимая переменная подчиняется [[экспонентное распределение|экспонентному распределению]].
 +
# [[Логистическая регрессия]] — частный случай обобщённой линейной модели, если взять [[логит-функция|логит-функцию]] связи <tex>g(y)=\ln\left(\frac{p}{1-p}\right)</tex>, где <tex>p</tex>&nbsp;— зависимая переменная, имеющая смысл вероятности. Логистическая регрессия применяется для решения задач [[классификация|классификации]] и позволяет оценивать вероятности принадлежности объекта каждому из классов.
== Нелинейные модели ==
== Нелинейные модели ==
-
'''Нелинейные регрессионные модели''' — [[регрессионная модель|модели]] вида
+
<!--'''Нелинейные регрессионные модели''' — [[регрессионная модель|модели]] вида
-
<center><tex>y=f(\mathbf{w},\mathbf{x})+\varepsilon,</tex></center>
+
::<tex>y=f(\mathbf{w},\mathbf{x})+\varepsilon,</tex>
которые не могут быть представлены в виде скалярного произведения
которые не могут быть представлены в виде скалярного произведения
-
<center><tex>f(\mathbf{w},\mathbf{x})=(\mathbf{w},\mathbf{g}(\mathbf{x}))=\sum_{i=1}^W w_ig_i(\mathbf{x}).</tex></center>
+
::<tex>f(\mathbf{w},\mathbf{x})=(\mathbf{w},\mathbf{g}(\mathbf{x}))=\sum_{i=1}^n w_i g_i(\mathbf{x}),</tex>
-
Здесь <tex>\mathbf{w}=[w_1,\ldots, w_W]</tex>&nbsp;— параметры регрессионной модели,
+
где <tex>\mathbf{w}=[w_1,\ldots, w_n]</tex>&nbsp;— параметры регрессионной модели,
-
<tex>\mathbf{x}</tex>&nbsp;[[свободная переменная]] из пространства&nbsp;<tex>\mathbb{R}^N</tex>, <tex>y</tex>&nbsp;— [[зависимая переменная]],
+
<tex>\mathbf{x}</tex>&nbsp;[[свободная переменная]] из пространства&nbsp;<tex>\mathbb{R}^n</tex>, <tex>y</tex>&nbsp;— [[зависимая переменная]],
-
<tex>\varepsilon</tex>&nbsp;— случайная величина и&nbsp;<tex>\mathbf{g}=[g_1,\ldots, g_W]</tex>&nbsp;— функция из некоторого
+
<tex>\varepsilon</tex>&nbsp;— случайная величина и&nbsp;<tex>\mathbf{g}=[g_1,\ldots, g_n]</tex>&nbsp;— функция из некоторого
заданного множества.
заданного множества.
 +
-->
# Экспонента, <tex>y=e^bx</tex>, с линейным коэффициентом, <tex>y=ae^bx</tex>. Распространена двухкомпонентная экспоненциальная модель, <tex>y=ae^bx+ce^dx</tex>. Модель может быть использована, в частности, если коэффициент изменения величины свободной переменной пропорционален ее начальной величине.
# Экспонента, <tex>y=e^bx</tex>, с линейным коэффициентом, <tex>y=ae^bx</tex>. Распространена двухкомпонентная экспоненциальная модель, <tex>y=ae^bx+ce^dx</tex>. Модель может быть использована, в частности, если коэффициент изменения величины свободной переменной пропорционален ее начальной величине.
# Ряд Фурье, <tex>y=a_0+\sum_{i=1}^n\bigl(a_i\cos(i\omega{x})+b_i\sin(i\omega{x})\bigr)</tex>. Используется для описания периодических сигналов.
# Ряд Фурье, <tex>y=a_0+\sum_{i=1}^n\bigl(a_i\cos(i\omega{x})+b_i\sin(i\omega{x})\bigr)</tex>. Используется для описания периодических сигналов.
-
# Сумма гауссианов, <tex>y=\sum_{i=1}^na_i\exp(-\frac{(x-b_i)^2}{c_i})</tex>. Используется для аппроксимации пиков. Коэффициент&nbsp;<tex>a_i</tex> является амплитудой, <tex>b_i</tex>&nbsp;— смещение, коэффициент <tex>c_i</tex> отражает ширину пика. Всего в сумме может быть до&nbsp;<tex>n</tex> пиков.
+
# Сумма гауссианов, <tex>y=\sum_{i=1}^na_i\exp\left(-\frac{(x-b_i)^2}{c_i}\right)</tex>. Используется для аппроксимации пиков. Коэффициент&nbsp;<tex>a_i</tex> является амплитудой, <tex>b_i</tex>&nbsp;— смещение, коэффициент <tex>c_i</tex> отражает ширину пика. Всего в сумме может быть до&nbsp;<tex>n</tex> пиков.
# Моном, <tex>y=x^b</tex>, с линейным коэффициентом, <tex>y=ax^b</tex>. Используется при моделировании размерности физических или химических величин. Например, количество некоторого реагирующего в химической реакции вещества как правило, пропорциональна концентрации этого вещества, возведенного в некоторую степень.
# Моном, <tex>y=x^b</tex>, с линейным коэффициентом, <tex>y=ax^b</tex>. Используется при моделировании размерности физических или химических величин. Например, количество некоторого реагирующего в химической реакции вещества как правило, пропорциональна концентрации этого вещества, возведенного в некоторую степень.
# Рациональный полином, <tex>y=\frac{\sum_{i=0}^na_ix^i}{x^m+\sum_{i=0}^{m-1}b_ix^i}</tex>. Принято считать коэффициент перед&nbsp;<tex>x^m</tex> единицей. Например, если <tex>m=n</tex>, такое соглашение позволит получить уникальные числитель и знаменатель.
# Рациональный полином, <tex>y=\frac{\sum_{i=0}^na_ix^i}{x^m+\sum_{i=0}^{m-1}b_ix^i}</tex>. Принято считать коэффициент перед&nbsp;<tex>x^m</tex> единицей. Например, если <tex>m=n</tex>, такое соглашение позволит получить уникальные числитель и знаменатель.
# Сумма синусов, <tex>y=\sum_{i=1}^na_i\sin(b_ix+c_i)</tex>. Здесь&nbsp;<tex>a_i</tex>&nbsp;— амплитуда, <tex>b_i</tex>&nbsp;— частота, <tex>c_i</tex>&nbsp;— фаза некоторого периодического процесса.
# Сумма синусов, <tex>y=\sum_{i=1}^na_i\sin(b_ix+c_i)</tex>. Здесь&nbsp;<tex>a_i</tex>&nbsp;— амплитуда, <tex>b_i</tex>&nbsp;— частота, <tex>c_i</tex>&nbsp;— фаза некоторого периодического процесса.
# Распределение Вейбулла, двухпараметрическое, <tex>y=abx^{b-1}\exp(-ax^b)</tex>. Параметр&nbsp;<tex>a</tex> является масштабирующим, а параметр&nbsp;<tex>b</tex> определяет форму кривой. Трехпараметрическое распределение Вейбулла, со смещением&nbsp;<tex>c</tex>, <tex>y=abx^{b-1}\exp(-a(x-c)^b)</tex>.
# Распределение Вейбулла, двухпараметрическое, <tex>y=abx^{b-1}\exp(-ax^b)</tex>. Параметр&nbsp;<tex>a</tex> является масштабирующим, а параметр&nbsp;<tex>b</tex> определяет форму кривой. Трехпараметрическое распределение Вейбулла, со смещением&nbsp;<tex>c</tex>, <tex>y=abx^{b-1}\exp(-a(x-c)^b)</tex>.
-
# Логарифмическая сигмоида, <tex>\frac{1}{1+\exp(-n)}</tex>, используются в нейронных сетях, например в&nbsp;MLP, в качестве функций активации.
+
# Логарифмическая сигмоида, <tex>y=\frac{1}{1+\exp(-ax)}</tex>, используются в нейронных сетях, например в&nbsp;[[многослойном перцептроне|многослойный перцептрон]], в качестве функций активации.
-
# Тангенциальная сигмоида, <tex>y=\frac{2}{1+\exp(-2n)}-1</tex>, также используются в качестве функций активации.
+
# Тангенциальная сигмоида, <tex>y=\frac{2}{1+\exp(-ax)}-1</tex>, также используются в качестве функций активации.
-
 
+
-
== Линейные модели ==
+
-
 
+
-
# Полином, <tex>y=\sum_{i=1}^na_ix^{i-1}</tex> и его частный случай прямая <tex>y=ax+b</tex>. Следует помнить, что полиномы высоких степеней крайне неустойчивы и могут неадекватно описывать измеряемые данные.
+
-
# Гипербола, <tex>y=k/x</tex>, а также прочие нелинейные функции с линейно-входящими параметрами: тригонометрические функции <tex>\sin(x), \arcsin(x)</tex>, гиперболический синус <tex>\text{sh}(x)</tex>, корневые <tex>\sqrt{x}</tex> и обратно-корневые функции. Эти функции используются в финансовом анализе и других приложениях.
+
-
 
+
-
Этот список не является жестко заданным. Выбираемая регрессионная модель зависит прежде всего от
+
-
экспертных предположений относительно моделируемого явления.
+
== Смотри также ==
== Смотри также ==
Строка 41: Строка 50:
* [[Регрессионная модель]]
* [[Регрессионная модель]]
* [[Символьная регрессия]]
* [[Символьная регрессия]]
 +
* [http://en.wikipedia.org/wiki/Generalized_additive_model Generalized additive model] — Wikipedia
 +
* [http://en.wikipedia.org/wiki/Generalized_linear_model Generalized linear model] — Wikipedia
== Литература ==
== Литература ==
-
* Дрейпер Н., Смит Г. Прикладной регрессионный анализ. М.: Издательский дом «Вильямс». 2007.
+
# ''Дрейпер&nbsp;Н.'', ''Смит&nbsp;Г.'' Прикладной регрессионный анализ. М.: Издательский дом «Вильямс». 2007.
-
* Гордин&nbsp;В. А. Как это посчитать? Обработка метеорологической информации на компьютере. Идеи, методы, задачи. МЦНМО, 2006.
+
# ''Гордин&nbsp;В.&nbsp;А.'' Как это посчитать? Обработка метеорологической информации на компьютере. Идеи, методы, задачи. МЦНМО, 2006.
 +
# {{Публикация:Hastie 2001 The Elements of Statistical Learning}}
[[Категория:Регрессионный анализ]]
[[Категория:Регрессионный анализ]]

Версия 07:47, 7 сентября 2008

Содержание

Ниже приведены модели, которые используются при регрессионном анализе измеряемых данных. Параметры моделей обозначены латинскими и греческими буквами: \{a, b,c,\ldots,\chi,\psi, \omega\}, x, y — свободная и зависимая переменные. Все параметры и переменные вещественные.

В список не вошли универсальные параметрические модели, например, нейронная сеть — многослойный перцептрон, радиальные базисные функции, полиномы Лагранжа, полиномы Чебышёва. Также не вошли непараметрические модели. Оба эти класса требуют специального описания.

Этот список не является жестко заданным. Выбираемая регрессионная модель зависит прежде всего от экспертных предположений относительно моделируемого явления.

Линейные модели

  1. Одномерная линейная регрессия y=ax+b.
  2. Многомерная линейная регрессия y=\sum_{i=1}^n a_i x_i, где \mathbf{x}=(x_1,\ldots,x_n) — вектор свободных переменных.
  3. Полиномиальная регрессия y=\sum_{i=1}^na_ix^{i-1}. В роли свободных переменных выступают степени одной и той же вещественной переменной x. Следует помнить, что полиномы высоких степеней крайне неустойчивы и могут неадекватно описывать измеряемые данные.
  4. Криволинейная регрессия y=\sum_{i=1}^n a_i g_i(\mathbf{x}), где g_i:\: \mathbb{R}^m \to \mathbb{R} — некоторые нелинейные функции от вектора свободных переменных \mathbf{x}=(x_1,\ldots,x_m). В качестве функций g_i часто берут «элементарные» функции от свободных переменных: гиперболу y=k/x, тригонометрические функции \sin(x),\; \arcsin(x), гиперболический синус \text{sh}(x), корневые \sqrt{x} и обратно-корневые функции, и т. д. Эти функции используются в некоторых финансовых приложениях.

Обобщённые линейные модели

  1. Обобщённые линейные модели (Generalized Linear Model, GLM), называемые также обобщёнными аддитивными моделями (Generalized Additive Model, GAM), можно рассматривать как дальнейшее обобщение криволинейной регрессии y=g^{-1}\left(\sum\nolimits_{i=1}^n a_i g_i(\mathbf{x})\right), где g(y) называется функцией связи (link function). Обычно в GLM дополнительно предполагается, что зависимая переменная подчиняется экспонентному распределению.
  2. Логистическая регрессия — частный случай обобщённой линейной модели, если взять логит-функцию связи g(y)=\ln\left(\frac{p}{1-p}\right), где p — зависимая переменная, имеющая смысл вероятности. Логистическая регрессия применяется для решения задач классификации и позволяет оценивать вероятности принадлежности объекта каждому из классов.

Нелинейные модели

  1. Экспонента, y=e^bx, с линейным коэффициентом, y=ae^bx. Распространена двухкомпонентная экспоненциальная модель, y=ae^bx+ce^dx. Модель может быть использована, в частности, если коэффициент изменения величины свободной переменной пропорционален ее начальной величине.
  2. Ряд Фурье, y=a_0+\sum_{i=1}^n\bigl(a_i\cos(i\omega{x})+b_i\sin(i\omega{x})\bigr). Используется для описания периодических сигналов.
  3. Сумма гауссианов, y=\sum_{i=1}^na_i\exp\left(-\frac{(x-b_i)^2}{c_i}\right). Используется для аппроксимации пиков. Коэффициент a_i является амплитудой, b_i — смещение, коэффициент c_i отражает ширину пика. Всего в сумме может быть до n пиков.
  4. Моном, y=x^b, с линейным коэффициентом, y=ax^b. Используется при моделировании размерности физических или химических величин. Например, количество некоторого реагирующего в химической реакции вещества как правило, пропорциональна концентрации этого вещества, возведенного в некоторую степень.
  5. Рациональный полином, y=\frac{\sum_{i=0}^na_ix^i}{x^m+\sum_{i=0}^{m-1}b_ix^i}. Принято считать коэффициент перед x^m единицей. Например, если m=n, такое соглашение позволит получить уникальные числитель и знаменатель.
  6. Сумма синусов, y=\sum_{i=1}^na_i\sin(b_ix+c_i). Здесь a_i — амплитуда, b_i — частота, c_i — фаза некоторого периодического процесса.
  7. Распределение Вейбулла, двухпараметрическое, y=abx^{b-1}\exp(-ax^b). Параметр a является масштабирующим, а параметр b определяет форму кривой. Трехпараметрическое распределение Вейбулла, со смещением c, y=abx^{b-1}\exp(-a(x-c)^b).
  8. Логарифмическая сигмоида, y=\frac{1}{1+\exp(-ax)}, используются в нейронных сетях, например в многослойный перцептрон, в качестве функций активации.
  9. Тангенциальная сигмоида, y=\frac{2}{1+\exp(-ax)}-1, также используются в качестве функций активации.

Смотри также

Литература

  1. Дрейпер Н., Смит Г. Прикладной регрессионный анализ. М.: Издательский дом «Вильямс». 2007.
  2. Гордин В. А. Как это посчитать? Обработка метеорологической информации на компьютере. Идеи, методы, задачи. МЦНМО, 2006.
  3. Hastie, T., Tibshirani, R., Friedman, J. The Elements of Statistical Learning, 2nd edition. — Springer, 2009. — 533 p.  (подробнее)
Личные инструменты