
WnioskowanieStatystyczne/Statystyki i estymatory
Wnioskowanie_Statystyczne_-_wykład
Spis treści
Statystyki i estymatory
Funkcję [math]S(x_{1},x_{2},...x_{n})[/math] określoną na elementach próby [math]\{x_i\}[/math] zwiemy statystyką. Obliczane w praktyce statystyki służą weryfikacji hipotez statystycznych (zwiemy je wtedy statystykami testowymi — tym zajmiemy się w następnym rozdziale) lub estymacji (szacowaniu) parametrów rozkładu prawdopodobieństwa w populacji zmiennej [math]x[/math], z której pobierana jest próba. W tym drugim przypadku zwiemy je estymatorami. Na przykład wartość średnia próby
[math]\displaystyle \overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i} \qquad [/math] może być estymatorem wartości oczekiwanej populacji [math]\mu=E(x)[/math].
Estymator zwiemy nieobciążonym, jeśli dla każdej
wielkości próby [math]n[/math] jego wartość oczekiwana jest równa
wartości estymowanego parametru (oznaczmy go np. [math]\beta[/math]):
[math]\displaystyle \forall n \ E(S(x_{1}...x_{n}))=\beta. [/math]
Estymator zwiemy zgodnym, jeśli przy wielkości próby dążącej do
nieskończoności jego wariancja dąży do zera:
[math]\displaystyle \underset{n\rightarrow \infty }{\lim }\sigma (S(x_{1}...x_{n}))=0. [/math]
Estymator wartości oczekiwanej
Dla rozkładów ciągłych wartość oczekiwana [math]\displaystyle \mu=E(x)=\overset{n}{\underset{i=1}{\sum }}x_{i}P(X=x_{i}) [/math]
Dla rozkładów dyskretnych wartość oczekiwana [math]\displaystyle
\mu=E(x)=\underset{-\infty }{\overset{\infty }{\int }}x p(x)dx
[/math]
Estymator wartości oczekiwanej postaci
jest nieobciążony i zgodny.
Dowód:
[math]\displaystyle E(\overline{x})=E\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}\right)= \frac{1}{n}\underset{i=1}{\overset{n}{\sum }}E(x_{i}) =\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu =\frac{1}{n}n\mu =\mu [/math]
[math]\displaystyle
\sigma ^{2}\left( \overline{x}\right) =
E \left( \left( \overline{x}-E(\overline{x})\right)^{2}\right) =
E\left(\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}-
\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu \right)^{2}\right) =
[/math]
[math]\displaystyle =\frac{1}{n^{2}}E\left(\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )\right)^{2}\right) [/math]
Jeśli elementy próby są niezależne, to
[math]\displaystyle
E\left((x_{i}-\mu)(x_{j}-\mu )\right) =\delta _{ij}\sigma ^{2}(x_{i}),
[/math]
gdzie [math]\delta_{ij}[/math] oznacza deltę Kroneckera ([math]\delta_{ij}=1\ \textrm{ dla }\ i=j, \delta_{ij}=0\ \textrm{ dla }\ i\neq j[/math]), czyli:
[math]\sigma ^{2}\left( \overline{x}\right)
=\frac{1}{n^{2}}E\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )^{2}\right)
=\frac{1}{n^{2}}\left(\underset{i=1}{\overset{n}{\sum }}E(x_{i}-\mu )^{2}\right)
= \frac{1}{n^{2}}\underset{i=1}{\overset{n}{
\sum }}\sigma ^{2}(x_i)
[/math]
Ponadto, jeśli elementy próby pochodzą z tego samego rozkładu, to
[math]\sigma ^{2}(x_{i})=\sigma^{2}(x)[/math], czyli
| Prawo wielkich liczb (opcjonalnie) |
Do zgodności estymatora wartości oczekiwanej odnosi się również prawo wielkich liczb. Mówi ono, że
Co to znaczy "odpowiednio duża próba" i "dowolnie bliska"? Jeśli chcemy, żeby wartość średnia nie odbiegała od [math]\mu[/math] o więcej niż [math]\varepsilon[/math] z prawdopodobieństwem ,,prawie jeden", czyli [math]1-\eta[/math], to dla wybranych (dowolnie małych, dodatnich) [math]\varepsilon [/math] i [math]\eta[/math] istnieje takie [math]n_{0}[/math], że dla każdego [math]n\gt n_{0}[/math]: [math]\displaystyle \exists {\varepsilon, \eta} \forall{n\gt n_0}
P\left( \left| \frac{1}{n}\sum\limits_{i=1}^{n} x_i -\mu \right| \lt \varepsilon
\right) \gt 1-\eta.
[/math]
[math]\displaystyle \underset{n\rightarrow \infty }{\lim} \frac{1}{n}\sum\limits_{i=1}^{n} x_i = \mu . [/math] Dokładniejsze formulacje i dowody można znaleźć np. w książce "Wnioskowanie statystyczne" L. Gajek i M. Kałuszka, WNT 2000. |
Estymator wariancji
Spróbujmy skonstruować estymator wariancji z próby jako [math]\displaystyle s_o^{2}=\frac{1}{n} \underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}.[/math]
Aby wyliczyć jego wartość oczekiwaną, wyprowadźmy jeszcze kilka prostych zależności. Na początek wykażemy, że wariancja zmiennej losowej jest równa różnicy wartości oczekiwanej kwadratu tej zmiennej i kwadratu jej wartości oczekiwanej:
[math]\displaystyle
\sigma^{2}(x_i)=E((x_i-\mu)^{2})=E(x_i^{2}-2x_i\mu+\mu ^{2})=E(x_i^{2})-2\mu E(x_i)+\mu^{2}=\\
\quad\;\;\;\;\;\: = E(x_i^{2})-\mu^{2}=E(x_i^{2})-\left\{ E(x_i)\right\} ^{2}
[/math]
Czyli
Wynika stąd w szczególności, że
Analogicznie dla wariancji wartości średniej
Ponieważ [math]\displaystyle { \sigma ^{2}_\overline{x}=\frac{1}{n}\sigma^{2}_x } [/math] dostajemy
czyli
Policzmy teraz wartość oczekiwaną proponowanego estymatora wariancji
[math]\displaystyle s_o^{2}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}[/math]
[math]\displaystyle E\left( s_o^{2}\right) = \frac{1}{n} E\left(\sum\limits_{i=1}^{n}(x_{i}-\overline{x})^{2}\right) [/math]
[math]\displaystyle =
\frac{1}{n} E\left(\sum\limits_{i=1}^{n}x_{i}^2 + \sum\limits_{i=1}^{n}\overline{x}^{2} - 2\sum\limits_{i=1}^{n} \overline{x} x_i \right)
[/math]
[math]\displaystyle =
\frac{1}{n} \left(\sum\limits_{i=1}^{n}E(x_{i}^2) + \sum\limits_{i=1}^{n}E(\overline{x}^{2}) - 2 E \left(\overline{x} \sum\limits_{i=1}^{n} x_i \right) \right)
[/math]
[math]\displaystyle =
\frac{1}{n} \left(\sum\limits_{i=1}^{n}E(x_{i}^2) + n E(\overline{x}^{2}) - 2 n E (\overline{x}^2 ) \right)
[/math]
[math]\displaystyle =
\frac{1}{n} \left(n E\left(x_{i}^2\right) - n E\left(\overline{x}^{2}\right) \right)
[/math]
podstawiając wyprowadzone wcześniej wzory na [math]E(x_{i}^2)[/math] i [math]E(\overline{x}^{2})[/math] dostajemy
[math]\displaystyle
E\left( s_o^{2}\right) = \frac{1}{n} \left( n \left(\sigma^2_{x_i} - \mu^2\right) -n \left( \frac{1}{n}\sigma^2_{x_i} - \mu^2 \right) \right)
=\frac{n-1}{n}\sigma^{2}_{x_i}
[/math]
czyli nie jest dla każdej wielkości próby [math]n[/math] wartość oczekiwana tego estymatora wyniesie [math]\sigma^2(x)[/math]. Tak więc [math]s_o^2[/math] jest estymatorem obciążonym.
W tej sytuacji, jako nieobciążony estymator wariancji możemy zaproponować
Estymator wariancji wartości średniej
Podstawiając tę zależność do wyprowadzonego powyżej wzoru na wariancję wartości średniej w miejsce [math]\sigma^2[/math], dostajemy wzór na estymator wariancji wartości średniej próby
Pierwiastek tej wielkości
jest estymatorem odchylenia standardowego wartości średniej.