WnioskowanieStatystyczne/Regresja liniowa: Różnice pomiędzy wersjami

Z Brain-wiki
Linia 13: Linia 13:
  
 
<math>
 
<math>
P(\overline{y}\mid \overline{x},a,b)=\underset{i=1}{\overset{N}{\prod }}
+
P(\overline{y}\mid \overline{x},a,b)
\frac{1}{\sqrt{2\pi \sigma _{i}^{2}}}e^{\frac{(y_{i}-a-bx_{i})^{2}}{2\sigma
+
=\underset{i=1}{\overset{N}{\prod }}
_{i}^{2}}}=\frac{1}{\sqrt{(2\pi )^{n}}}\underset{i=1}{\overset{N}{\prod }}
+
\frac{1}{\sqrt{2\pi \sigma _{i}^{2}}}e^{\frac{(y_{i}-a-bx_{i})^{2}}{2\sigma_{i}^{2}}}
\frac{1}{\sigma _{i}}e^{-\frac{1}{2}\underset{i=1}{\overset{N}{\sum }}\frac{
+
=\frac{1}{\sqrt{(2\pi )^{n}}} \cdot \underset{i=1}{\overset{N}{\prod }}  
 +
\frac{1}{\sigma _{i}} \cdot e^{-\frac{1}{2}\underset{i=1}{\overset{N}{\sum }}\frac{
 
(y_{i}-a-bx_{i})^{2}}{\sigma _{i}^{2}}}
 
(y_{i}-a-bx_{i})^{2}}{\sigma _{i}^{2}}}
 
</math>
 
</math>
Linia 36: Linia 37:
 
<math>
 
<math>
 
\frac{\partial S}{\partial a}=-2\underset{i=1}{\overset{N}{\sum }}
 
\frac{\partial S}{\partial a}=-2\underset{i=1}{\overset{N}{\sum }}
(y_{i}-a-bx_{i}),\ \ \ \ \ \ \ \ \frac{\partial S}{\partial b}=-2\underset{}{
+
(y_{i}-a-bx_{i})
\underset{i=1}{\overset{N}{\sum }}x_{i}}(y_{i}-a-bx_{i}), \dots
 
 
</math>
 
</math>
 +
 +
 +
<!-- wyprowadzenie y=a+bx-->
 +
 +
<math>
 +
\sum_{i=1}^N \left(y_i - a - bx_i\right) = 0 \\
 +
\sum_{i=1}^N y_i = \sum_{i=1}^N a + b\sum_{i=1}^N x_i \\
 +
\sum_{i=1}^N y_i = na + b\sum_{i=1}^N x_i \\
 +
\frac{1}{N}\sum_{i=1}^N y_{i} = a + \frac{1}{N} b\sum_{i=1}^N x_i \\
 +
\bar{y} = a + b\bar{x}
 +
</math>
 +
 +
<!-- pochodna po b_..
 +
 +
<math>
 +
\frac{\partial S}{\partial b}=-2\underset{}{
 +
\underset{i=1}{\overset{N}{\sum }}x_{i}}(y_{i}-a-bx_{i})
 +
</math>
 +
  
 
<math>
 
<math>

Wersja z 18:02, 27 kwi 2017

Wnioskowanie_Statystyczne_-_wykład


Regresja liniowa

Pary pomiarów [math](x_{i},y_{i})[/math]. Dla każdego [math]x_{i}[/math], [math]y_{i}[/math] traktujemy jak zmienną losową z rozkładu normalnego o wartości średniej [math]a+b[/math] [math]x_{i}[/math] i wariancji [math]\sigma _{i}^{2}[/math]. Prawdopodobieństwo a posteriori otrzymania [math]N[/math] wyników [math]y_{i}[/math] dla określonych [math]x_{i}[/math] przy założeniu wartości [math]a[/math] i [math]b[/math]

[math] P(\overline{y}\mid \overline{x},a,b) =\underset{i=1}{\overset{N}{\prod }} \frac{1}{\sqrt{2\pi \sigma _{i}^{2}}}e^{\frac{(y_{i}-a-bx_{i})^{2}}{2\sigma_{i}^{2}}} =\frac{1}{\sqrt{(2\pi )^{n}}} \cdot \underset{i=1}{\overset{N}{\prod }} \frac{1}{\sigma _{i}} \cdot e^{-\frac{1}{2}\underset{i=1}{\overset{N}{\sum }}\frac{ (y_{i}-a-bx_{i})^{2}}{\sigma _{i}^{2}}} [/math]

logarytmiczna [math]\rightarrow[/math] funkcja wiarygodności:

[math] l=-\frac{N}{2}\ln 2\pi +\ln (\underset{i=1}{\overset{N}{\prod }}\frac{1}{ \sigma _{i}})-\frac{1}{2}\underset{i=1}{\overset{N}{\sum }}\frac{ (y_{i}-a-bx_{i})^{2}}{\sigma _{i}^{2}} [/math]

[math]\sigma _{i}[/math] zwykle nie znamy, możemy przyjąć [math]\forall i \sigma _{i}=\sigma[/math]. Pozostaje szukanie minimum sumy [math]S=\underset{i=1}{\overset{N}{\sum }}(y_{i}-a-bx_{i})^{2}[/math], w zerze pochodnej po parametrach [math]a[/math] i [math]b[/math]

[math] \frac{\partial S}{\partial a}=-2\underset{i=1}{\overset{N}{\sum }} (y_{i}-a-bx_{i}) [/math]


[math] \sum_{i=1}^N \left(y_i - a - bx_i\right) = 0 \\ \sum_{i=1}^N y_i = \sum_{i=1}^N a + b\sum_{i=1}^N x_i \\ \sum_{i=1}^N y_i = na + b\sum_{i=1}^N x_i \\ \frac{1}{N}\sum_{i=1}^N y_{i} = a + \frac{1}{N} b\sum_{i=1}^N x_i \\ \bar{y} = a + b\bar{x} [/math]