WnioskowanieStatystyczne/CLT

Z Brain-wiki

Wnioskowanie_Statystyczne_-_wykład

Rozkład Gaussa

Rozkład Gaussa (zwany też rozkładem normalnym lub krzywą dzwonową) zależy od parametrów [math]\mu[/math] i [math]\sigma[/math]. Jego gęstość prawdopodobieństwa określona jest wzorem:

[math] p(x)=N(\mu, \sigma)= \frac{1}{\sqrt{2\pi }\sigma }e^{\frac{-(x-\mu )^{2}}{2\sigma ^{2}}}. [/math]

Parametry te są tak dobrane, że wartość oczekiwana wynosi [math]\mu[/math], a wariancja [math]\sigma^2[/math], co można sprawdzić wstawiając (1) do wzorów na wartość oczekiwaną i wariancję.

[math]N(0,1)[/math], czyli standardowy rozkład Gaussa o zerowej średniej ([math]\mu=0[/math]) i jednostkowej wariancji ([math]\sigma=1[/math]).

Rozkład Gaussa dla zerowej wartości oczekiwanej i jednostkowej wariancji ([math]\mu=0, \sigma^2=1[/math]) zwiemy standardowym rozkładem Gaussa i oznaczamy zwykle [math]N(0,1)[/math]. Przedstawia go rysunek %i 1. Zaznaczono na nim m. in. wartość całki od [math]-\infty[/math] do [math]-1[/math], czyli prawdopodobieństwo, że wylosowana z tego rozkładu liczba będzie mniejsza niż [math]-1[/math]. Jak widać, wynosi ono ok. 16%, a jeśli weźmiemy pod uwagę również wartości większe od 1, będzie to aż 32%! Oznacza to, że przy losowaniu wielu liczb z tego rozkładu prawie dwie spośród pięciu mogą znaleźć się w odległości większej niż [math]\sigma[/math] od wartości oczekiwanej. Warto o tym pamiętać, gdyż odchylenie standardowe [math]\sigma[/math] bywa czasami nazywane "błędem". Stwierdzenie "w granicach błędu" może odnosić się raczej np.do wartości 3[math]\sigma[/math]: prawdopodobieństwo wylosowania wartości oddalonej od średniej o więcej niż [math]3\sigma[/math] dla rozkładu Gaussa wynosi zaledwie 0,3 wartości prawdopodobieństw odchyleń większych niż [math]1\div 3\sigma[/math] dla zmiennych z rozkładu normalnego:

[math] x\in N(\mu,\sigma)\quad \Rightarrow \quad \begin{cases} P(\left| x-\mu \right| \geq \sigma )\approx 0,\!317,\\ P(\left| x-\mu \right| \geq 2\sigma )\ \approx 0,\!046,\\ \ P(\left| x-\mu \right| \geq 3\sigma )\approx 0,\!003. \end{cases} [/math]

Należy jednak pamiętać, że gęstość prawdopodobieństwa dana równaniem (1) zanika w nieskończoności tylko asymptotycznie, i dlatego w świetle tego rozkładu prawdopodobieństwo wylosowania dowolnej wartości będzie niezerowe (choć dla większości niezmiernie małe). Prowadzi to czasem do paradoksów, jak np. niezerowe prawdopodobieństwo ujemnej masy.[1] Jest to cena za korzystanie ze zwięzłej i eleganckiej postaci analitycznej rozkładu.


Centralne Twierdzenie Graniczne

Rozkład Gaussa pełni w statystyce bardzo znaczącą rolę ze względu na Centralne Twierdzenie Graniczne , według którego rozkład sumy dużej liczby zmiennych losowych o podobnych wielkościach [2] dąży (przy liczbie sumowanych zmiennych dążących do nieskończoności) do rozkładu Gaussa. Poniżej przytoczymy dowód tego twierdzenia dla uproszczonego przypadku sumy zmiennych pochodzących z tego samego rozkładu.[3]

Twierdzenie Lindeberga — Levy'ego

Zakładamy, że [math]x_{i}[/math] są niezależnymi zmiennymi podlegającymi (dowolnemu) rozkładowi o skończonej wartości oczekiwanej [math]\mu[/math] i wariancji [math]\sigma ^{2}[/math]. Dla [math]n\rightarrow \infty[/math], wielkość

[math] y=\frac{ \left(\sum\limits_{i=1}^{n} x_{i}\right) -n\mu }{\sigma \sqrt{n}} [/math]

podlega rozkładowi normalnemu o wartości średniej 0 i wariancji 1.


Funkcja tworząca rozkładu

W dowodzie skorzystamy z pojęcia funkcji tworzącej (charakterystycznej) rozkładu. Dla zmiennej losowej [math]x[/math] jest to wartość oczekiwana wyrażenia [math]e^{itx}[/math], gdzie [math]i=\sqrt{-1}[/math]. Dla rozkładów ciągłych jest to transformata Fouriera funkcji gęstości prawdopodobieństwa [math]f(x)[/math]:

[math] \phi_x (t)=E(e^{itx})=\underset{-\infty }{\overset{\infty }{\int }} e^{itx}f\left( x\right) dx [/math]


Użyteczne będą poniższe związki, które wyprowadzić można bezpośrednio z definicji:

funkcja tworząca sumy zmiennych niezależnych

Dla niezależnych zmiennych [math]x[/math] i [math]y[/math]:

[math] w=x+y\Rightarrow \phi _{w}(t) =\phi _{x}\left( t\right) \cdot \phi_{y}(t). [/math]

Dowód:

[math] \phi _{w}(t) = E(e^{it(x+y)})=E(e^{itx}\cdot e^{ity}) = E(e^{itx})\cdot E(e^{ity})=\phi _{x}\left( t\right) \cdot \phi_{y}(t). [/math]

pochodna funkcji tworzącej

Bezpośrednio z definicji (różniczkujemy po [math]dt[/math], więc przy każdym różniczkowaniu spada nam z wykładnika [math]i x[/math], [math]x[/math] zostaje pod całką a [math]i[/math] jako stała wychodzi przed całkę) widać, że:

[math] \frac{d^{n}\phi (t)}{dt^{n}}=i^{n}\underset{}{\underset{-\infty }{\overset{ \infty }{\int }}x^{n}}\ e^{itx}f(x) dx [/math]

związek pochodnej funkcji tworzącej z momentami zmiennej losowej

[math]n[/math]-ta pochodna funkcji tworzącej w zerze (czyli dla [math]t=0[/math]) wynosi

[math] \phi^{(n)}(0)= i^{n}\underset{}{\underset{-\infty }{\overset{\infty }{\int }}x^{n}}\ e^{i 0 x} f(x) dx = i^{n}\underset{}{\underset{-\infty }{\overset{\infty }{\int }}x^{n}} f(x) dx = i^{n}E(x^{n}) [/math]


Dowód

rozważamy sumę zmiennych [math]x_i[/math] pochodzących z rozkładu o wartości oczekiwanej [math]\mu[/math] i wariancji [math]\sigma^2[/math]. Funkcję tworzącą tego rozkładu [math]\phi(z)[/math] możemy rozwinąć w szereg Taylora wokół [math]z_0[/math]

[math] \phi(z)=\underset{n=0}{\overset{\infty }{\sum }}\frac{\phi^{(n)}(z_{0})}{n!} (z-z_{0})^{n} [/math]

Rozpatrzmy zmienną [math]y_i[/math] przesuniętą względem [math]x_i[/math] o [math]-\mu[/math] i przeskalowaną czynnikiem [math]\sigma\sqrt{n}[/math]:

[math] y_{i}=\frac{x_{i}-\mu}{\sigma \sqrt{n}}. [/math]

-- będziemy mieli do czynienia z rozkładem o wartości oczekiwanej 0 i jednostkowej wariancji. Pzypomnijmy (6) [math] \phi^{(n)}(0)= i^{n}E(x^{n}) [/math]; wynika stąd, że [math]\phi^{(0)}(0)=1[/math], [math]\phi^{(1)}(0)=0[/math], a [math]\phi^{(2)}(0)=-\frac1 n[/math], czyli funkcja tworząca [math]y_i[/math] rozwinięta w szereg Taylora (7) będzie miała postać

[math] \phi_{y_i}(t)=1-\frac{t^{2}}{2n}+\cdots . [/math]

Korzystając ze wzoru (4) możemy przedstawić pierwsze wyrazy rozwinięcia Taylora sumy [math]y=\sum_{i=1}^n y_i[/math], odpowiadającej transformacji (3) z dowodzonego twierdzenia, jako iloczyn [math]n[/math] funkcji tworzących (8):

[math] \phi_y(t)=\left(1-\frac{t^2}{2n}+\ldots\right)^n. [/math]

Przy przejściu z [math]n[/math] do nieskończoności (i konsekwentnym pomijaniu wyrazów wyższego rzędu) dostajemy

[math] \phi_y(t)\rightarrow \underset{n\rightarrow \infty }{\lim }\left(1-\frac{t^2}{2n}\right)^n= e^{\frac{-t^{2}}{2}} [/math]

bo [math]e^x=\lim_{n\rightarrow\infty} (1+x/n)^n[/math]


transformata Fouriera funkcji Gaussa

Funkcja tworząca rozkładu normalnego o wartości oczekiwanej 0 i jednostkowej wariancji będzie miała postać

[math] \phi _{x}(t)= \int\limits_{-\infty}^\infty e^{itx}\frac{1}{\sqrt{2\pi }} e^{\frac{-x^{2}}{2}} dx [/math]

[math] \dfrac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty \left( \cos(tx) + i \sin(tx) \right) e^{\frac{-x^{2}}{2}}} dx = [/math]

[math] \dfrac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty \cos(tx) e^{\frac{-x^{2}}{2}}} dx + \dfrac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty i \sin(tx) e^{\frac{-x^{2}}{2}}} dx [/math]

ponieważ funkcja [math]\sin(x)[/math] jest antysymetryczna, druga całka znika. Dostajemy

[math] \int\limits_{-\infty}^\infty e^{itx}\frac{1}{\sqrt{2\pi }} e^{\frac{-x^{2}}{2}} dx = \dfrac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty \cos(tx) e^{\frac{-x^{2}}{2}}} dx [/math]

Dla części symetrycznej znajdujemy w tablicach całkę oznaczoną

[math] \int\limits_{0}^{\infty} e^{-a^2 x^2} \cos(b x) dx = \frac{ \sqrt{\pi} e^{-\tfrac{b^2}{4a^2}} } {2 a} [/math]

po wymnożeniu przez 2 i podstawieniu [math] b=t[/math] i [math]a^2=\frac{1}{2}[/math] dostajemy

[math] \int\limits_{-\infty}^{\infty} e^{-\frac{1}{2} x^2} \cos(t x) dx = \frac{ \sqrt{\pi} e^{ -\frac{t^2} { 4 \frac{1}{2} } } } {\frac{1}{\sqrt{2}}} = \sqrt{2\pi} e^{-\frac{t^2}{2}} [/math]


[math] \phi _{x}(t) = \int\limits_{-\infty}^\infty e^{itx}\frac{1}{\sqrt{2\pi }} e^{\frac{-x^{2}}{2}} dx = e^{-t^2 / 2} [/math]


W analizie sygnałów wynik ten będzie oznaczał, że transformacja Fouriera funkcji Gaussa jest funkcją Gaussa. W tym konkretnym przypadku otrzymaliśmy funkcję tożsamą z funkcją tworzącą rozkładu rozważanej sumy zmiennych, czyli rozkład ten będzie (w przypadku granicznym) miał postać funkcji Gaussa.


Ilustracja działania Centralnego Twierdzenia Granicznego. Zmienną [math]x_i[/math] bierzemy z rozkładu równomiernego, kolejne histogramy przedstawiają sumę 2, 3 i 4 zmiennych [math]x_i[/math] dla \mbox{10 000} losowań. Widać dużą zgodność z dopasowanym rozkładem normalnym (ciągła linia) już dla niewielu sumowanych zmiennych.

Rysunek 2 ilustruje powyższe twierdzenie dla przypadku sumy zmiennych pochodzących z rozkładu równomiernego. Jak widać, już dla sumy 3 zmiennych rozkład wydaje się bardzo podobny do normalnego. Niestety, często istotne bywają różnice w ,,ogonach, czyli dla wartości bardzo dużych lub bardzo małych. Otóż według wzoru wartości gęstości prawdopodobieństwa rozkładu normalnego dążą do zera dla dużych wartości bezwzględnych zmiennej asymptotycznie, lecz zera faktycznie nie osiągają. Inaczej mówiąc, prawdopodobieństwo wylosowania dowolnie dużej wartości z rozkładu Gaussa będzie małe, ale nie zerowe. Za to suma np. czterech zmiennych z rozkładu równomiernego od zera do jedynki (prawy dolny wykres rys. 2) nie przekroczy nigdy wartości 4, czyli prawdopodobieństwo dla [math]x\gt 4[/math] będzie dokładnie zerem. I choć w skali rysunku 2 efekt ten jest prawie niewidoczny, warto pamiętać, że testy oparte na założeniu normalności rozkładów często operują właśnie w okolicach tych "ogonów", gdzie przybliżenie rozkładu normalnego, uzyskane za pomocą tej prostej procedury, zawodzi.


  1. Gaussowski rozkład pomiarów jakiejkolwiek masy, określony dodatnimi wartościami [math]\mu[/math] i [math]\sigma[/math], będzie wykazywał nieujemne — choć zapewne bardzo małe — prawdopodobieństwo również dla ujemnych wartości zmiennej losowej, którą w tym przypadku będzie mierzona masa.
  2. Chodzi o to, aby żadna ze zmiennych w tej sumie nie dominowała nad innymi.
  3. Dokładniejsze sformułowania Twierdzenia można znaleźć np. w książce "Probabilistyka. Rachunek Prawdopodobieństwa. Statystyka matematyczna. Procesy stochastyczne" Agnieszki i Edmunda Plucińskich.