Z Brain-wiki
Skocz do: nawigacja, szukaj

Wnioskowanie_Statystyczne_-_wykład


Statystyki i estymatory

Funkcję S(x_{1},x_{2},...x_{n}) określoną na elementach próby \{x_i\} zwiemy statystyką. Obliczane w praktyce statystyki służą weryfikacji hipotez statystycznych (zwiemy je wtedy statystykami testowymi — tym zajmiemy się w następnym rozdziale) lub estymacji (szacowaniu) parametrów rozkładu prawdopodobieństwa w populacji zmiennej x, z której pobierana jest próba. W tym drugim przypadku zwiemy je estymatorami. Na przykład wartość średnia próby

\overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}

może być estymatorem wartości oczekiwanej populacji \mu=E(x).

Estymator zwiemy nieobciążonym, jeśli dla każdej wielkości próby n jego wartość oczekiwana jest równa wartości estymowanego parametru (oznaczmy go np. \beta):

\forall n \ E(S(x_{1}...x_{n}))=\beta.

Estymator zwiemy zgodnym, jeśli przy wielkości próby dążącej do nieskończoności jego wariancja dąży do zera:

\underset{n\rightarrow \infty }{\lim }\sigma (S(x_{1}...x_{n}))=0.

Estymator wartości oczekiwanej

\mu=E(x)=\overset{n}{\underset{i=1}{\sum }}x_{i}P(X=x_{i})

\mu=E(x)=\underset{-\infty }{\overset{\infty }{\int }}x p(x)dx.

Zaproponowany powyżej estymator wartości oczekiwanej

\overline{x}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}

jest nieobciążony i zgodny.

Dowód:

E(\overline{x})=E\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}\right)=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}E(x_{i})=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu=\frac{1}{n}n\mu =\mu

\sigma ^{2}\left( \overline{x}\right) =E \left( \left( \overline{x}-E(\overline{x})\right)^{2}\right) =E\left(\left(\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}x_{i}-\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}\mu \right)^{2}\right) =

=\frac{1}{n^{2}}E\left(\left(\underset{i=1}{\overset{n}{\sum }}(x_{i}-\mu )\right)^{2}\right)

Jeśli elementy próby są niezależne, to

E\left((x_{i}-\mu)(x_{j}-\mu )\right) =\delta _{ij}\sigma ^{2}(x_{i}),

gdzie \delta_{ij} oznacza deltę Kroneckera:

\delta_{ij}=1\ \textrm{ dla }\ i=j,\delta_{ij}=0\ \textrm{ dla }\ i\neq j.

Ponadto, jeśli elementy próby pochodzą z tego samego rozkładu, to \sigma ^{2}(x_{i})=\sigma^{2}(x), czyli

{ \sigma ^{2}(\overline{x})=\frac{1}{n^{2}}\underset{i=1}{\overset{n}{\sum }}\sigma ^{2}(x)=\frac{1}{n}\sigma ^{2}(x)\ }.


Estymator wariancji

przypomnijmy wzory na wariancję dla przypadku, kiedy znany jest rozkład:


\sigma ^{2}(x)=E((x-\mu)^{2})=\overset{n}{\underset{i=1}{\sum }}P(X=x_{i})(x_{i}-\mu)^{2}

\sigma ^2(x)=E((x-\mu)^{2})=\underset{-\infty }{\overset{\infty }{\int }}(x-\mu)^{2} p(x)dx


Spróbujmy skonstruować estymator wariancji z próby jako  s_o^{2}=\frac{1}{n}\underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2}.

Jego wartość oczekiwana wyniesie

E\left( s_o^{2}\right) = \frac{1}{n} E\left(\sum\limits_{i=1}^{n}(x_{i}-\overline{x})^{2}\right)

= \frac{1}{n} E\left( \sum\limits_{i=1}^{n} (x_{i}-\mu  -\overline{x}+\mu)^2 \right) \right]

= \frac{1}{n} E\left( \sum\limits_{i=1}^{n} \left[  (x_{i}-\mu)^2   + (\overline{x}-\mu)^2 - 2 (x_{i}-\mu) (\overline{x}-\mu) \right] \right)

= \frac{1}{n}  E\left(  \sum\limits_{i=1}^{n} \left[(x_i-\mu)^2 - (\overline{x}-\mu )^{2}  \right] \right)

= \frac{1}{n}  \left(  \sum\limits_{i=1}^{n} E (x_i-\mu)^2 - n E (\overline{x}-\mu )^{2}  \right)

= \frac{1}{n} \left[ n \sigma^{2}(x)-n\left(\frac{1}{n}\sigma^{2}(x)\right)\right]

=\frac{n-1}{n}\sigma ^{2}(x) ,


czyli nie jest dla każdej wielkości próby n równa \sigma^2(x). Tak więc s_o^2 jest estymatorem obciążonym. Jako nieobciążony estymator wariancji możemy zaproponować

{ s^{2}=\frac{1}{n-1}\underset{i=1}{\overset{n}{\sum }}(x_{i}-\overline{x})^{2} }

Podstawiając ten estymator wariancji do wyprowadzonego powyżej wzoru na wariancję wartości średniej (3) w miejsce \sigma^2, dostajemy wzór na estymator wariancji wartości średniej próby:

s^2_{\overline{x}} = \frac{1}{n(n-1)}\sum_{i=1}^n(x_{i}-\overline{x})^{2}.

Pierwiastek tej wielkości

s_{\overline{x}} = \sqrt{\frac{1}{n(n-1)}\sum_{i=1}^n(x_{i}-\overline{x})^{2}}

jest estymatorem odchylenia standardowego wartości średniej. Wielkość tę czasem utożsamia się z "błędem wartości średniej".