WnioskowanieStatystyczne/Regresja liniowa: Różnice pomiędzy wersjami

Z Brain-wiki
(Nie pokazano 16 pośrednich wersji utworzonych przez tego samego użytkownika)
Linia 21: Linia 21:
 
</math>
 
</math>
  
logarytmiczna <math>\rightarrow</math> '''funkcja wiarygodności''':
+
logarytmiczna funkcja wiarygodności:
  
 
<math>
 
<math>
Linia 29: Linia 29:
 
</math>
 
</math>
  
<math>\sigma _{i}</math> zwykle nie znamy, możemy przyjąć
+
<math>\sigma _{i}</math> zwykle nie znamy, więc przyjmujemy jako stałą
 
<math>\forall i  \sigma _{i}=\sigma</math>. Pozostaje szukanie minimum
 
<math>\forall i  \sigma _{i}=\sigma</math>. Pozostaje szukanie minimum
sumy <math>S=\underset{i=1}{\overset{N}{\sum
+
sumy  
}}(y_{i}-a-bx_{i})^{2}</math>, w zerze pochodnej po parametrach
+
 
 +
<math>S=\underset{i=1}{\overset{N}{\sum
 +
}}(y_{i}-a-bx_{i})^{2}</math>
 +
 
 +
w zerze pochodnej po parametrach
 
<math>a</math> i <math>b</math>
 
<math>a</math> i <math>b</math>
  
<math>
 
\frac{\partial S}{\partial a}=-2\underset{i=1}{\overset{N}{\sum }}(y_{i}-a-bx_{i})\\
 
\sum_{i=1}^N \left(y_i - a - bx_i\right) = 0 \\
 
\sum_{i=1}^N y_i = \sum_{i=1}^N a + b\sum_{i=1}^N x_i \\
 
\sum_{i=1}^N y_i = n a + b\sum_{i=1}^N x_i \\
 
\frac{1}{N}\sum_{i=1}^N y_{i} = a + \frac{1}{N} b\sum_{i=1}^N x_i
 
</math>
 
  
<math>
 
\bar{y} = a + b\bar{x}
 
</math>
 
  
 
<math>
 
<math>
a = \bar{y} - b\bar{x}
+
\frac{\partial S}{\partial a}=-2\underset{i=1}{\overset{N}{\sum }}(y_{i}-a-bx_{i})\\
</math>
+
\underset{i=1}{\overset{N}{\sum }} \left(y_i - a - bx_i\right) = 0 \\
  
==xxx==
+
\underset{i=1}{\overset{N}{\sum }} y_i = \underset{i=1}{\overset{N}{\sum }} a + b\underset{i=1}{\overset{N}{\sum }} x_i \\
wyznaczone stąd <math>a</math> podstawiamy do wzoru na <math>S</math>
 
  
<math>S=\underset{i=1}{\overset{N}{\sum
+
\underset{i=1}{\overset{N}{\sum }} y_i = N a + b\underset{i=1}{\overset{N}{\sum }} x_i \\
}}(y_{i}-a-bx_{i})^{2} = \underset{i=1}{\overset{N}{\sum
 
}}(y_{i}-\bar{y} - b\bar{x}-bx_{i})^{2}
 
</math>
 
  
<math>
+
\frac{1}{N}
S=\underset{i=1}{\overset{N}{\sum}}
+
\underset{i=1}{\overset{N}{\sum }} y_{i}  
\left( (y_{i}-\bar{y}) - b (x_i - \bar{x}) \right)^2
+
= a + \frac{1}{N} b \underset{i=1}{\overset{N}{\sum }} x_i
 
</math>
 
</math>
 
 
 
<!-- pochodna po b -->
 
  
 
<math>
 
<math>
\frac{\partial S}{\partial b}= ....
+
\bar{y} = a + b\bar{x}
 
</math>
 
</math>
  
 
<math>
 
<math>
=-2\sum_{i=1}^N \left[\left(y_{i} - \bar{y}\right) - b\left(x_{i} - \bar{x}\right)\right]\left(x_{i}-\bar{x}\right) = 0 \\
+
a = \bar{y} - b\bar{x}
\sum_{i=1}^N \left(y_i - \bar{y}\right)\left(x_i - \bar{x}\right) - b\sum_{i=1}^N \left(x_i - \bar{x}\right)^2 = 0 \\
 
b = \frac{\sum_{i=1}^N \left(y_{i} - \bar{y}\right)\left(x_i - \bar{x}\right)}{\sum_{i=1}^N \left(x_{i}-\bar{x}\right)^2} = \frac{\operatorName{Cov}(x, y)}{\operatorName{Var}(x)}
 
 
</math>
 
</math>
  
==yyy==
 
<math>
 
-2\sum_{i=1}^n \left[\left(y_{i} - \bar{y}\right) - b\left(x_{i} - \bar{x}\right)\right]\left(x_{i}-\bar{x}\right) = 0 \\
 
  \Rightarrow {} &\sum_{i=1}^n \left(y_i - \bar{y}\right)\left(x_i - \bar{x}\right) - b\sum_{i=1}^n \left(x_i - \bar{x}\right)^2 = 0 \\
 
  \Rightarrow {} &b = \frac{\sum_{i=1}^n \left(y_{i} - \bar{y}\right)\left(x_i - \bar{x}\right)}{\sum_{i=1}^n \left(x_{i}-\bar{x}\right)^2}
 
</math>
 
  
  
<math>
+
wyznaczone stąd <math>a</math> podstawiamy do wzoru na <math>S</math>
D=N\underset{i=1}{\overset{N}{\sum }}x_{i}^{2}-\left( \underset{i=1}{
 
\overset{N}{\sum }}x_{i}\right) ^{2}
 
</math>
 
  
 
<math>
 
<math>
a=\frac{\underset{i=1}{\overset{N}{\sum }}y_{i}\underset{i=1}{\overset{N}{\sum }}x_{i}^{2}-\underset{i=1}{\overset{N}{\sum }}x_{i}
+
S=\underset{i=1}{\overset{N}{\sum
\underset{i=1}{\overset{N}{\sum }}x_{i}y_{i}}{D},
+
}}(y_{i}-a-bx_{i})^{2}
\qquad
 
b=\frac{N\underset{i=1}{\overset{N}{\sum }}x_{i}y_{i}-\left( \underset{i=1}{\overset{N}{\sum }}x_{i}\right) \left( \underset{i=1}{\overset{N}{\sum }}
 
y_{i}\right) }{D}
 
 
</math>
 
</math>
 
lub:
 
  
 
<math>
 
<math>
b=\frac{\underset{i=1}{\overset{N}{\sum }}(x_{i}-\overline{x})(y_{i}-
+
= \underset{i=1}{\overset{N}{\sum}}(y_{i}-\bar{y} - b\bar{x}-bx_{i})^{2}
\overline{y})}{\underset{i=1}{\overset{N}{\sum }}(x_{i}-\overline{x})^{2}},
 
\qquad a=\overline{y}-b\overline{x}
 
 
</math>
 
</math>
 
===Interpretacja współczynnika korelacji===
 
 
Rozważmy wariancję zmiennej <math>y</math> z poprzedniego
 
rozdziału. Niech <math>y_{i}^{p}=a+bx_{i}</math>
 
  
 
<math>
 
<math>
\underset{i=1}{\overset{N}{\sum }}(y_{i}-\overline{y})^{2}=
+
=\underset{i=1}{\overset{N}{\sum}}
\underset{i=1}{\overset{N}{\sum }}(y_{i}-y_{i}^{p}+y_{i}^{p}-\overline{y}
+
\left( (y_{i}-\bar{y}) - b (x_i - \bar{x}) \right)^2
)^{2}=
 
 
</math>
 
</math>
<math>
 
\underset{i=1}{\overset{N}{\sum }}(y_{i}-y_{i}^{p})^{2}+\underset{i=1}{
 
\overset{N}{\sum }}(y_{i}^{p}-\overline{y})^{2}+2\underset{i=1}{\overset{N}{
 
\sum }}(y_{i}-y_{i}^{p})(y_{i}^{p}-\overline{y})
 
</math>
 
  
Całkowitą wariancię zmiennej <math>y</math> podzieliliśmy na dwa
 
człony: wariancję estymaty <math>y_{i}^{p}</math> wokół wartości
 
średniej <math>\overline{y}</math> i wariancję obserwowanych
 
<math>y_{i}</math> wokół estymaty <math>y_{i}^{p}</math> (trzeci człon
 
[https://en.wikipedia.org/wiki/Explained_sum_of_squares#Simple_derivation znika]).
 
 
'''Współczynnik korelacji'''
 
  
 +
po podstawieniu liczymy pochodną po <math>b</math>
  
 
<math>
 
<math>
\rho_{x, y}= \frac{\sigma_{x, y}}{\sigma_x \sigma_y}=
+
\frac{\partial S}{\partial b}= -2\sum_{i=1}^N \left( (y_{i} - \bar{y}) - b(x_{i} - \bar{x})\right)\left(x_{i}-\bar{x}\right) = 0
\frac{E\left( \left(x-\mu_{x})(y-\mu_{y}\right)\right)}
 
{\sqrt{E\left( (x-\mu_{x})^2\right) E\left( (y-\mu_{y})^2\right)}},
 
 
</math>
 
</math>
 
możemy estymować jako
 
 
<math>
 
\rho ^{2}=\frac{\left( \underset{i=1}{\overset{N}{\sum }}(x_{i}-
 
\overline{x})(y_{i}-\overline{y})\right) ^{2}}{\underset{i=1}{\overset{N}{
 
\sum }}(x_{i}-\overline{x})^{2}\underset{i=1}{\overset{N}{\sum }}(y_{i}-
 
\overline{y})^{2}}
 
</math>
 
 
 
Rozważmy
 
  
 
<math>
 
<math>
{ \underset{i=1}{\overset{N}{\sum }}(y_{i}^{p}-\overline{y})^{2}=b^{2}
+
\sum_{i=1}^N \left(y_{i} - \bar{y}\right)\left(x_i - \bar{x}\right) - b\sum_{i=1}^N \left(x_i - \bar{x}\right)^2 = 0
\underset{i=1}{\overset{N}{\sum }}(x_{i}-\overline{x})^{2}=\frac{\left(
 
\underset{i=1}{\overset{N}{\sum }}(x_{i}-\overline{x})(y_{i}-\overline{y}
 
)\right) ^{2}}{\left( \underset{i=1}{\overset{N}{\sum }}(x_{i}-\overline{x}
 
)^{2}\right) ^{2}}\underset{i=1}{\overset{N}{\sum }}(x_{i}-\overline{x}
 
)^{2}=\ }
 
 
</math>
 
</math>
  
 
<math>
 
<math>
{ =\frac{\left( \underset{i=1}{\overset{N}{\sum }}(x_{i}-\overline{x}
+
b = \frac{\sum_{i=1}^N \left(y_{i} - \bar{y}\right)\left(x_i - \bar{x}\right)}{\sum_{i=1}^N \left(x_{i}-\bar{x}\right)^2}
)(y_{i}-\overline{y})\right) ^{2}}{\underset{i=1}{\overset{N}{\sum }}(x_{i}-
 
\overline{x})^{2}}\frac{\underset{i=1}{\overset{N}{\sum }}(y_{i}-\overline{y}
 
)^{2}}{\underset{i=1}{\overset{N}{\sum }}(y_{i}-\overline{y})^{2}}=\rho ^{2}
 
\underset{i=1}{\overset{N}{\sum }}(y_{i}-\overline{y})^{2}\ }
 
 
</math>
 
</math>
  
czyli  
+
czyli
  
 
<math>
 
<math>
{ \rho ^{2}=\frac{\underset{i=1}{\overset{N}{\sum }}(y_{i}^{p}-
+
b=\frac{\underset{i=1}{\overset{N}{\sum }}(x_{i}-\overline{x})(y_{i}-
\overline{y})^{2}}{\underset{i=1}{\overset{N}{\sum }}(y_{i}-\overline{y})^{2}
+
\overline{y})}{\underset{i=1}{\overset{N}{\sum }}(x_{i}-\overline{x})^{2}},
}\ }
+
\qquad a=\overline{y}-b\overline{x}
 
</math>
 
</math>
 
 
[[Plik:Korelacja.png|600px|thumb|left|<figure id="fig:rozw2"></figure>Przykładowe wartości współczynnika korelacji dla 300 par <math>(x, y)</math> o
 
różnych stopniach współzależności.
 
]]
 

Wersja z 16:47, 20 kwi 2023

Wnioskowanie_Statystyczne_-_wykład


Regresja liniowa

Pary pomiarów [math](x_{i},y_{i})[/math]. Dla każdego [math]x_{i}[/math], [math]y_{i}[/math] traktujemy jak zmienną losową z rozkładu normalnego o wartości średniej [math]a+b[/math] [math]x_{i}[/math] i wariancji [math]\sigma _{i}^{2}[/math]. Prawdopodobieństwo a posteriori otrzymania [math]N[/math] wyników [math]y_{i}[/math] dla określonych [math]x_{i}[/math] przy założeniu wartości [math]a[/math] i [math]b[/math]

[math] P(\overline{y}\mid \overline{x},a,b) =\underset{i=1}{\overset{N}{\prod }} \frac{1}{\sqrt{2\pi \sigma _{i}^{2}}}e^{\frac{(y_{i}-a-bx_{i})^{2}}{2\sigma_{i}^{2}}} =\frac{1}{\sqrt{(2\pi )^{n}}} \cdot \underset{i=1}{\overset{N}{\prod }} \frac{1}{\sigma _{i}} \cdot e^{-\frac{1}{2}\underset{i=1}{\overset{N}{\sum }}\frac{ (y_{i}-a-bx_{i})^{2}}{\sigma _{i}^{2}}} [/math]

logarytmiczna funkcja wiarygodności:

[math] l=-\frac{N}{2}\ln 2\pi +\ln (\underset{i=1}{\overset{N}{\prod }}\frac{1}{ \sigma _{i}})-\frac{1}{2}\underset{i=1}{\overset{N}{\sum }}\frac{ (y_{i}-a-bx_{i})^{2}}{\sigma _{i}^{2}} [/math]

[math]\sigma _{i}[/math] zwykle nie znamy, więc przyjmujemy jako stałą [math]\forall i \sigma _{i}=\sigma[/math]. Pozostaje szukanie minimum sumy

[math]S=\underset{i=1}{\overset{N}{\sum }}(y_{i}-a-bx_{i})^{2}[/math]

w zerze pochodnej po parametrach [math]a[/math] i [math]b[/math]


[math] \frac{\partial S}{\partial a}=-2\underset{i=1}{\overset{N}{\sum }}(y_{i}-a-bx_{i})\\ \underset{i=1}{\overset{N}{\sum }} \left(y_i - a - bx_i\right) = 0 \\ \underset{i=1}{\overset{N}{\sum }} y_i = \underset{i=1}{\overset{N}{\sum }} a + b\underset{i=1}{\overset{N}{\sum }} x_i \\ \underset{i=1}{\overset{N}{\sum }} y_i = N a + b\underset{i=1}{\overset{N}{\sum }} x_i \\ \frac{1}{N} \underset{i=1}{\overset{N}{\sum }} y_{i} = a + \frac{1}{N} b \underset{i=1}{\overset{N}{\sum }} x_i [/math]

[math] \bar{y} = a + b\bar{x} [/math]

[math] a = \bar{y} - b\bar{x} [/math]


wyznaczone stąd [math]a[/math] podstawiamy do wzoru na [math]S[/math]

[math] S=\underset{i=1}{\overset{N}{\sum }}(y_{i}-a-bx_{i})^{2} [/math]

[math] = \underset{i=1}{\overset{N}{\sum}}(y_{i}-\bar{y} - b\bar{x}-bx_{i})^{2} [/math]

[math] =\underset{i=1}{\overset{N}{\sum}} \left( (y_{i}-\bar{y}) - b (x_i - \bar{x}) \right)^2 [/math]


po podstawieniu liczymy pochodną po [math]b[/math]

[math] \frac{\partial S}{\partial b}= -2\sum_{i=1}^N \left( (y_{i} - \bar{y}) - b(x_{i} - \bar{x})\right)\left(x_{i}-\bar{x}\right) = 0 [/math]

[math] \sum_{i=1}^N \left(y_{i} - \bar{y}\right)\left(x_i - \bar{x}\right) - b\sum_{i=1}^N \left(x_i - \bar{x}\right)^2 = 0 [/math]

[math] b = \frac{\sum_{i=1}^N \left(y_{i} - \bar{y}\right)\left(x_i - \bar{x}\right)}{\sum_{i=1}^N \left(x_{i}-\bar{x}\right)^2} [/math]

czyli

[math] b=\frac{\underset{i=1}{\overset{N}{\sum }}(x_{i}-\overline{x})(y_{i}- \overline{y})}{\underset{i=1}{\overset{N}{\sum }}(x_{i}-\overline{x})^{2}}, \qquad a=\overline{y}-b\overline{x} [/math]