WnioskowanieStatystyczne/Interpretacja współczynnika korelacji: Różnice pomiędzy wersjami

Z Brain-wiki
 
Linia 79: Linia 79:
  
 
:<math> S^2 =  
 
:<math> S^2 =  
b^2\dfrac{\underset{i=1}{\overset{N}{\sum }}(x_i-\overline{x})^2}
+
b^2 \,\,\, \dfrac{\underset{i=1}{\overset{N}{\sum }}(x_i-\overline{x})^2}
 
{\underset{i=1}{\overset{N}{\sum }}(y_i-\overline{y})^{2}}
 
{\underset{i=1}{\overset{N}{\sum }}(y_i-\overline{y})^{2}}
 
=
 
=
Linia 86: Linia 86:
 
\overline{y})\right)^2}
 
\overline{y})\right)^2}
 
{\left(\underset{i=1}{\overset{N}{\sum }}(x_{i}-\overline{x})^{2}\right)^2}
 
{\left(\underset{i=1}{\overset{N}{\sum }}(x_{i}-\overline{x})^{2}\right)^2}
 +
\;\;\;
 
\dfrac{\underset{i=1}{\overset{N}{\sum }}(x_i-\overline{x})^2}
 
\dfrac{\underset{i=1}{\overset{N}{\sum }}(x_i-\overline{x})^2}
 
{\underset{i=1}{\overset{N}{\sum }}(y_i-\overline{y})^{2}}
 
{\underset{i=1}{\overset{N}{\sum }}(y_i-\overline{y})^{2}}
=
+
</math>
 +
 
 +
<math>
 +
S^2 =
 
\dfrac
 
\dfrac
 
{\left(\underset{i=1}{\overset{N}{\sum }}(x_{i}-\overline{x})(y_{i}-
 
{\left(\underset{i=1}{\overset{N}{\sum }}(x_{i}-\overline{x})(y_{i}-
 
\overline{y})\right)^2}
 
\overline{y})\right)^2}
{\underset{i=1}{\overset{N}{\sum }}(x_{i}-\overline{x})^{2}}
+
{{\underset{i=1}{\overset{N}{\sum }}(x_{i}-\overline{x})^{2}}
\dfrac{1}
+
\underset{i=1}{\overset{N}{\sum }}(y_i-\overline{y})^{2}}
{\underset{i=1}{\overset{N}{\sum }}(y_i-\overline{y})^{2}}
+
=\rho_{x,y}^2
</math>
+
</math>,
 
+
czyli  [[WnioskowanieStatystyczne/Momenty#Kowariancja_i_wsp.C3.B3.C5.82czynnik_korelacji|współczynnik korelacji]].
 
 
  
 
 
 
:<math>
 
\underset{i=1}{\overset{N}{\sum }}(y_{i}^{p}-\overline{y})^{2}
 
= b^2 \underset{i=1}{\overset{N}{\sum }}(x_{i}-\overline{x})^{2}
 
</math>
 
 
:<math>
 
\underset{i=1}{\overset{N}{\sum }}(y_{i}^{p}-\overline{y})^{2}
 
= b \underset{i=1}{\overset{N}{\sum }}(x_{i}-\overline{x})^{2}
 
=\frac{\left(
 
\underset{i=1}{\overset{N}{\sum }}(x_{i}-\overline{x})(y_{i}-\overline{y}
 
)\right) ^{2}}{\left( \underset{i=1}{\overset{N}{\sum }}(x_{i}-\overline{x}
 
)^{2}\right) ^{2}}\underset{i=1}{\overset{N}{\sum }}(x_{i}-\overline{x}
 
)^{2}=\\
 
 
=\frac{\left( \underset{i=1}{\overset{N}{\sum }}(x_{i}-\overline{x}
 
)(y_{i}-\overline{y})\right) ^{2}}{\underset{i=1}{\overset{N}{\sum }}(x_{i}-
 
\overline{x})^{2}}\frac{\underset{i=1}{\overset{N}{\sum }}(y_{i}-\overline{y}
 
)^{2}}{\underset{i=1}{\overset{N}{\sum }}(y_{i}-\overline{y})^{2}}=r^{2}
 
\underset{i=1}{\overset{N}{\sum }}(y_{i}-\overline{y})^{2}
 
</math>
 
 
oraz wzór na estymator współczynnika korelacji liniowej
 
 
<math>
 
r_{x, y}= \frac{\sigma_{x, y}}{\sigma_x \sigma_y}=
 
\frac{E\left( \left(x-\mu_{x})(y-\mu_{y}\right)\right)}
 
{\sqrt{E\left( (x-\mu_{x})^2\right) E\left( (y-\mu_{y})^2\right)}},
 
</math>
 
jego kwadrat estymujemy jako
 
<math>
 
r^{2}=\frac{\left( \underset{i=1}{\overset{N}{\sum }}(x_{i}-
 
\overline{x})(y_{i}-\overline{y})\right) ^{2}}{\underset{i=1}{\overset{N}{
 
\sum }}(x_{i}-\overline{x})^{2}\underset{i=1}{\overset{N}{\sum }}(y_{i}-
 
\overline{y})^{2}}
 
</math>
 
 
Podstawiając
 
<math>
 
\forall_i (y_i - \overline{y}) =
 
b (x_i - \overline{x} )
 
</math>, oraz
 
<math>
 
b=\frac{\underset{i=1}{\overset{N}{\sum }}(x_{i}-\overline{x})(y_{i}-
 
\overline{y})}{\underset{i=1}{\overset{N}{\sum }}(x_{i}-\overline{x})^{2}}
 
</math>
 
do wyrażenia na wariancję tłumaczoną przez model
 
 
:<math>\underset{i=1}{\overset{N}{\sum }}(y_{i}^{p}-\overline{y})^{2} </math>,
 
dostajemy:
 
:<math>
 
\underset{i=1}{\overset{N}{\sum }}(y_{i}^{p}-\overline{y})^{2}
 
= b \underset{i=1}{\overset{N}{\sum }}(x_{i}-\overline{x})^{2}
 
=\frac{\left(
 
\underset{i=1}{\overset{N}{\sum }}(x_{i}-\overline{x})(y_{i}-\overline{y}
 
)\right) ^{2}}{\left( \underset{i=1}{\overset{N}{\sum }}(x_{i}-\overline{x}
 
)^{2}\right) ^{2}}\underset{i=1}{\overset{N}{\sum }}(x_{i}-\overline{x}
 
)^{2}=\\
 
 
=\frac{\left( \underset{i=1}{\overset{N}{\sum }}(x_{i}-\overline{x}
 
)(y_{i}-\overline{y})\right) ^{2}}{\underset{i=1}{\overset{N}{\sum }}(x_{i}-
 
\overline{x})^{2}}\frac{\underset{i=1}{\overset{N}{\sum }}(y_{i}-\overline{y}
 
)^{2}}{\underset{i=1}{\overset{N}{\sum }}(y_{i}-\overline{y})^{2}}=r^{2}
 
\underset{i=1}{\overset{N}{\sum }}(y_{i}-\overline{y})^{2}
 
</math>
 
 
 
czyli
 
 
 
:<math>
 
{r^{2}=\frac{\underset{i=1}{\overset{N}{\sum }}(y_{i}^{p}-
 
\overline{y})^{2}}{\underset{i=1}{\overset{N}{\sum }}(y_{i}-\overline{y})^{2}
 
}\ }
 
</math>
 
  
  

Aktualna wersja na dzień 17:58, 6 maj 2025

Wnioskowanie_Statystyczne_-_wykład


Interpretacja współczynnika korelacji

Rozważmy wariancję zmiennej [math]y[/math] z poprzedniego rozdziału. Niech [math]y_{i}^{p}=a+bx_{i}[/math]

Wsp kor war.png

[math] \underset{i=1}{\overset{N}{\sum }}(y_{i}-\overline{y})^{2}= \underset{i=1}{\overset{N}{\sum }}(y_{i}-y_{i}^{p}+y_{i}^{p}-\overline{y} )^{2}= [/math] [math] \underset{i=1}{\overset{N}{\sum }}(y_{i}-y_{i}^{p})^{2}+\underset{i=1}{ \overset{N}{\sum }}(y_{i}^{p}-\overline{y})^{2}+2\underset{i=1}{\overset{N}{ \sum }}(y_{i}-y_{i}^{p})(y_{i}^{p}-\overline{y}) [/math]


Całkowitą wariancję zmiennej [math]y[/math] można podzielić na dwa człony: wariancję estymaty [math]y_{i}^{p}[/math] wokół wartości średniej [math]\overline{y}[/math] i wariancję obserwowanych [math]y_{i}[/math] wokół estymaty [math]y_{i}^{p}[/math] (trzeci człon znika):


[math] \underset{i=1}{\overset{N}{\sum }}(y_{i}-\overline{y})^{2}= \underset{i=1}{\overset{N}{\sum }}(y_{i}-y_{i}^{p})^{2}+\underset{i=1}{ \overset{N}{\sum }}(y_{i}^{p}-\overline{y})^{2} [/math]



Współczynnik korelacji liniowej (Pearsona)

Rozważmy stosunek wariancji tłumaczonej przez model do całkowitej wariancji

[math] S^2 = \dfrac{\underset{i=1}{\overset{N}{\sum }}(y_{i}^{p}-\overline{y})^{2}} {\underset{i=1}{\overset{N}{\sum }}(y_i-\overline{y})^{2}} [/math]

podstawiając [math]y_i^p = a + b x_i[/math] dostajemy

[math] S^2 = \dfrac{\underset{i=1}{\overset{N}{\sum }}(a + b x_i-\overline{y})^{2}} {\underset{i=1}{\overset{N}{\sum }}(y_i-\overline{y})^{2}} [/math]


Ponieważ [math]\overline{y} = a + b \overline{x}[/math], czyli [math]a=\overline{y}-b\overline{x}[/math],


[math] S^2 = \dfrac{\underset{i=1}{\overset{N}{\sum }}(\overline{y}-b\overline{x} + b x_i-\overline{y})^{2}} {\underset{i=1}{\overset{N}{\sum }}(y_i-\overline{y})^{2}} = \dfrac{\underset{i=1}{\overset{N}{\sum }}b^2(x_i-\overline{x})^2} {\underset{i=1}{\overset{N}{\sum }}(y_i-\overline{y})^{2}} = b^2\dfrac{\underset{i=1}{\overset{N}{\sum }}(x_i-\overline{x})^2} {\underset{i=1}{\overset{N}{\sum }}(y_i-\overline{y})^{2}} [/math]


Skoro prosta [math]y= a + b x[/math] została dopasowana metodą największej wiarygodności, to [math] b=\frac{\underset{i=1}{\overset{N}{\sum }}(x_{i}-\overline{x})(y_{i}- \overline{y})}{\underset{i=1}{\overset{N}{\sum }}(x_{i}-\overline{x})^{2}} [/math], czyli

[math] S^2 = b^2 \,\,\, \dfrac{\underset{i=1}{\overset{N}{\sum }}(x_i-\overline{x})^2} {\underset{i=1}{\overset{N}{\sum }}(y_i-\overline{y})^{2}} = \dfrac {\left(\underset{i=1}{\overset{N}{\sum }}(x_{i}-\overline{x})(y_{i}- \overline{y})\right)^2} {\left(\underset{i=1}{\overset{N}{\sum }}(x_{i}-\overline{x})^{2}\right)^2} \;\;\; \dfrac{\underset{i=1}{\overset{N}{\sum }}(x_i-\overline{x})^2} {\underset{i=1}{\overset{N}{\sum }}(y_i-\overline{y})^{2}} [/math]

[math] S^2 = \dfrac {\left(\underset{i=1}{\overset{N}{\sum }}(x_{i}-\overline{x})(y_{i}- \overline{y})\right)^2} {{\underset{i=1}{\overset{N}{\sum }}(x_{i}-\overline{x})^{2}} \underset{i=1}{\overset{N}{\sum }}(y_i-\overline{y})^{2}} =\rho_{x,y}^2 [/math], czyli współczynnik korelacji.



Przykładowe wartości współczynnika korelacji dla 300 par [math](x, y)[/math] o różnych stopniach współzależności.


Ciekawe przykłady korelacji liniowych dla zależności nieliniowych podaje artykuł z Wikipedii

Istotność statystyczna współczynnika korelacji

...to osobny problem :-)