Коэффициент корреляции Пирсона
Материал из MachineLearning.
м (→Определение) |
м |
||
(1 промежуточная версия не показана) | |||
Строка 15: | Строка 15: | ||
== Статистическая проверка наличия корреляции == | == Статистическая проверка наличия корреляции == | ||
- | '''Гипотеза:''' <tex>H_0</tex>: отсутствует линейная связь между выборками x и y (<tex>r_{xy} = 0</tex>). | + | '''Гипотеза:''' <tex>H_0</tex>: отсутствует линейная связь между выборками <tex>x</tex> и <tex>y</tex> (<tex>r_{xy} = 0</tex>). |
'''Статистика критерия: ''' | '''Статистика критерия: ''' | ||
- | <tex> T = \frac{r_{xy}\sqrt{n-2}}{sqrt{1-r^2_{xy}}} \sim t_{n-2} </tex> – [[распределение Стьюдента]] с <tex>n-2</tex> степенями свободы. | + | ::<tex> T = \frac{r_{xy}\sqrt{n-2}}{sqrt{1-r^2_{xy}}} \sim t_{n-2} </tex> – [[распределение Стьюдента]] с <tex>n-2</tex> степенями свободы. |
'''Критерий:''' | '''Критерий:''' | ||
Строка 33: | Строка 33: | ||
* Необходимо понимать различие понятий "независимость" и "некоррелированность". Из первого следует второе, но не наоборот. | * Необходимо понимать различие понятий "независимость" и "некоррелированность". Из первого следует второе, но не наоборот. | ||
- | Для того, чтобы выяснить отношение между двумя переменными, часто необходимо избавиться от влияния третьей переменной. Рассмотрим пример 3-х переменных | + | Для того, чтобы выяснить отношение между двумя переменными, часто необходимо избавиться от влияния третьей переменной. Рассмотрим пример 3-х переменных <tex>x, y, z.</tex> Исключим влияние переменной <tex>z</tex>: |
:: <tex>r_{xy \setminus z}=\frac{r_{xy}-r_{xz}r_{yz}}{\sqrt{ \left(\ 1-r_{xz} \right)^2 \left(\ 1-r_{yz} \right)^2}} </tex> – [[Частная корреляция|частный коэффициент корреляции]]. | :: <tex>r_{xy \setminus z}=\frac{r_{xy}-r_{xz}r_{yz}}{\sqrt{ \left(\ 1-r_{xz} \right)^2 \left(\ 1-r_{yz} \right)^2}} </tex> – [[Частная корреляция|частный коэффициент корреляции]]. | ||
Строка 39: | Строка 39: | ||
Для исключения влияния большего числа переменных: | Для исключения влияния большего числа переменных: | ||
- | :: <tex>r_{ij \setminus vars}=\frac{-R_{ij}}{\sqrt{R_{ii}R_{jj}}}</tex> | + | :: <tex>r_{ij \setminus vars}=\frac{-R_{ij}}{\sqrt{R_{ii}R_{jj}}},</tex> |
- | <tex> R_{ij} = (-1)^{i+j}M_{ij} </tex> | + | :: <tex>R_{ij} = (-1)^{i+j}M_{ij},</tex> |
- | \begin{pmatrix} | + | |
- | 1 & r_{12} & \dots & r_{1k} \\ | + | где <tex>M_{ij} </tex> – главный минор матрицы коэффициентов корреляции переменных |
- | r_{21} & 1 & | + | |
- | \vdots & | + | ::<tex> R = \begin{pmatrix} 1 & r_{12} & \dots & r_{1k} \\r_{21} & 1 & & r_{2k}\\\vdots & & \ddots & \vdots \\r_{k1} & \dots & \dots & 1\end{pmatrix} .</tex> |
- | r_{k1} & \dots & \dots & 1 | + | |
- | \end{pmatrix} | + | |
- | .</tex> | + | |
== Литература == | == Литература == |
Текущая версия
|
Определение
Коэффициент корреляции Пирсона характеризует существование линейной зависимости между двумя величинами.
Пусть даны две выборки коэффициент корреляции Пирсона рассчитывается по формуле:
где – выборочные средние и , – выборочные дисперсии, .
Коэффициент корреляции Пирсона называют также теснотой линейной связи:
- линейно зависимы,
- линейно независимы.
Статистическая проверка наличия корреляции
Гипотеза: : отсутствует линейная связь между выборками и ().
Статистика критерия:
- – распределение Стьюдента с степенями свободы.
Критерий:
, где есть α-квантиль распределения Стьюдента.
Слабые стороны
- Неустойчивость к выбросам.
- С помощью коэффициента корреляции Пирсона можно определить силу линейной зависимости между величинами, другие виды взаимосвязей выявляются методами регрессионного анализа.
- Необходимо понимать различие понятий "независимость" и "некоррелированность". Из первого следует второе, но не наоборот.
Для того, чтобы выяснить отношение между двумя переменными, часто необходимо избавиться от влияния третьей переменной. Рассмотрим пример 3-х переменных Исключим влияние переменной :
Для исключения влияния большего числа переменных:
где – главный минор матрицы коэффициентов корреляции переменных