WnioskowanieStatystyczne/MLF: Różnice pomiędzy wersjami
Linia 5: | Linia 5: | ||
==Metoda największej wiarygodności== | ==Metoda największej wiarygodności== | ||
− | + | W procesie estymacji na podstawie próby <math>\mathbf{x}=\{x_{i}\}_{i=1\ldots N}</math> | |
− | + | wyznaczamy parametr | |
− | <math>\lambda</math> | + | <math>\lambda</math> opisujący |
− | domniemany rozkład prawdopodobieństwa. Na podstawie tegoż rozkładu | + | domniemany rozkład prawdopodobieństwa. |
− | możemy z kolei określić ''a posteriori'' prawdopodobieństwo próby | + | Na podstawie tegoż rozkładu |
− | <math> | + | możemy z kolei określić ''a posteriori'' prawdopodobieństwo pojedynczej próby <math>x_i</math>: |
− | <math>\lambda</math> dobierać tak, aby zmaksymalizować | + | <math>P(\lambda | x_i)</math>. |
− | + | ||
− | + | ||
− | + | Logicznym wydaje się postulat, aby parametr(y) | |
+ | <math>\lambda</math> dobierać tak, aby zmaksymalizować łączny rozkład | ||
+ | prawdopodobieństw ''a posteriori'' wszystkich prób <math>x_i</math>, zwany '''funkcją wiarygodności'''. | ||
+ | Dla zmiennych niezależnych łączny rozkład prawdopodobieństwa będzie iloczynem | ||
+ | prawdopodobieństw: | ||
<math> | <math> | ||
− | L=\underset{i=1}{\overset{N}{\prod }}f(x_{i},\lambda );\quad l=\ln | + | L= |
+ | P(\mathbf{x} | \lambda) = | ||
+ | \underset{i=1}{\overset{N}{\prod }}f(x_{i},\lambda );\quad | ||
+ | </math> | ||
+ | |||
+ | Maksimum tej funkcji będzie w tym samym punkcie, co maksimum jej logarytmu: | ||
+ | |||
+ | <math> | ||
+ | l=\ln | ||
(L)=\underset{i=1}{\overset{N}{\sum }}\ln f(x_{i},\lambda) | (L)=\underset{i=1}{\overset{N}{\sum }}\ln f(x_{i},\lambda) | ||
</math> | </math> | ||
− | |||
− | |||
===Przyklad=== | ===Przyklad=== |
Wersja z 18:02, 20 kwi 2017
Wnioskowanie_Statystyczne_-_wykład
Metoda największej wiarygodności
W procesie estymacji na podstawie próby [math]\mathbf{x}=\{x_{i}\}_{i=1\ldots N}[/math] wyznaczamy parametr [math]\lambda[/math] opisujący domniemany rozkład prawdopodobieństwa. Na podstawie tegoż rozkładu możemy z kolei określić a posteriori prawdopodobieństwo pojedynczej próby [math]x_i[/math]: [math]P(\lambda | x_i)[/math].
Logicznym wydaje się postulat, aby parametr(y)
[math]\lambda[/math] dobierać tak, aby zmaksymalizować łączny rozkład
prawdopodobieństw a posteriori wszystkich prób [math]x_i[/math], zwany funkcją wiarygodności.
Dla zmiennych niezależnych łączny rozkład prawdopodobieństwa będzie iloczynem
prawdopodobieństw:
[math] L= P(\mathbf{x} | \lambda) = \underset{i=1}{\overset{N}{\prod }}f(x_{i},\lambda );\quad [/math]
Maksimum tej funkcji będzie w tym samym punkcie, co maksimum jej logarytmu:
[math] l=\ln (L)=\underset{i=1}{\overset{N}{\sum }}\ln f(x_{i},\lambda) [/math]
Przyklad
Wyznaczanie stałej fizycznej na podstawie [math]N[/math] różnych eksperymentów (o różnej dokładności). Niech błędy podlegają rozkładowi Gaussa.
Estymowany parametr [math]\lambda[/math] to wartość oczekiwana
stałej. Prawdopdobieństwo a posteriori wyniku [math]x_{i}[/math]
eksperymentu o danej wariancji [math]\sigma _{i}^{2}[/math]
[math] { f(x^{i},\lambda )=\frac{1}{\sqrt{2\pi }\sigma _{i}}e^{\frac{ -(x^{i}-\lambda )^{2}}{2\sigma _{i}^{2}}}\ } [/math]
Funkcja wiarygodności
[math] L=\underset{i=1}{\overset{N}{\prod }}f(x_{i},\lambda )={ \ }\underset{ i=1}{\overset{N}{\prod }}\frac{1}{\sqrt{2\pi }\sigma _{i}}e^{\frac{ -(x^{i}-\lambda )^{2}}{2\sigma _{i}^{2}}} [/math]
a jej logarytm
[math] l=-\underset{i=1}{\overset{N}{\sum }}\frac{(x_{i}-\lambda )^{2}}{2\sigma _{i}^{2}}-\underset{i=1}{\overset{N}{\sum }}\ln (\sqrt{2\pi }\sigma _{j}) [/math]
Maksimum przewidujemy zwykle w zerze pochodnej
[math] \frac{\delta l}{\delta \lambda }=\underset{i=1}{\overset{N}{\sum }} \frac{x_{i}-\lambda }{\sigma _{i}^{2}}=0\Rightarrow \underset{i=1}{\overset{N }{\sum }}\frac{x_{i}}{\sigma _{i}^{2}}=\lambda \underset{i=1}{\overset{N}{ \sum }}\frac{1}{\sigma _{i}^{2}}\Rightarrow \lambda _{NW}=\frac{\underset{i=1 }{\overset{N}{\sum }}\frac{x_{i}}{\sigma _{i}^{2}}}{\underset{i=1}{\overset{N }{\sum }}\frac{1}{\sigma _{i}^{2}}} [/math]