WnioskowanieStatystyczne/Rozklady: Różnice pomiędzy wersjami

Z Brain-wiki
(UWAGA! Usunięcie treści (strona pozostała pusta)!)
Linia 1: Linia 1:
  
 +
==Rozkłady prawdopodobieństwa==
 +
Rozkład prawdpopodobieństwa — zgodnie z nazwą — będzie funkcją określającą,
 +
jak prawdopodobieństwo rozkłada się pomiędzy możliwe wyniki danego
 +
doświadczenia. Mieliśmy już z nim do czynienia w pierwszej części książki,
 +
<xr id="fig:boot+mc_kosz">rysunek %i</xr> przypomina niektóre z tych przypadków.
 +
 +
[[Plik:Boot+mc_kosz.png|300px|thumb|left|<figure id="fig:boot+mc_kosz"></figure>(a) rozkład liczby jedynek uzyskany z 10 tysięcy repróbkowań ze
 +
zwracaniem (bootstrap) próby 18 jedynek i 82 zer;
 +
(b) liczba trafień na 10 rzutów do kosza, przy średnim prawdopodobieństwie
 +
trafienia 0,6 ]]
 +
 +
Nie są to prawdopodobieństwa, gdyż nie spełniają [[WnioskowanieStatystyczne/Prawdopodobieństwo#label-eq:45|aksjomatu]] <math>(0\leq P(A)\leq 1)</math>, który wraz z [[WnioskowanieStatystyczne/Prawdopodobieństwo#label-eq:43|aksjomatem]] <math>(P(\Omega)=1)</math> możemy spełnić dzieląc liczbę wystąpień każdego przypadku przez całkowitą liczbę eksperymentów &mdash;
 +
wtedy suma wszystkich prawdopodobieństw (czyli <math>P(\Omega)</math>)
 +
wyniesie 1. Przykład tak znormalizowanego dyskretnego rozkładu
 +
prawdopodobieństwa przedstawia rysunek <xr id="fig:dysk_i_plask">rysunek %i(a)</xr>.
 +
 +
Pozostaje jeszcze problem formalny: występujące w klasycznej teorii
 +
funkcje nie są określone na zdarzeniach, tylko na liczbach.  Przejście
 +
od zdarzeń do odpowiadających im liczb wymaga pojęcia ''zmiennej
 +
losowej'' &ndash; odwzorowania <math>X(.)</math> z przestrzeni zdarzeń do
 +
przestrzeni liczb rzeczywistych. Na przykład w doświadczeniu
 +
polegającym na rzucaniu kostką zmienna losowa przypisze liczbę 4
 +
przypadkowi, w którym na górnej ściance rzuconej kostki widać cztery
 +
kropki.
 +
 +
Liczby (czyli zmienne losowe) są już pełnoprawnymi argumentami
 +
funkcji, ale z definicją rozkładu prawdopodobieństwa będzie jeszcze
 +
trochę kłopotu, jeśli wyniki eksperymentu będą pochodzić z ciągłych
 +
przedziałów zmiennej losowej, a nie, jak w przykładach z rysunku <xr id="fig:boot+mc_kosz">rysunek %i</xr>, ze zbioru dyskretnego.
 +
 +
==Rozkłady ciągłe &mdash; gęstość prawdopodobieństwa==
 +
 +
[[Plik:Rozklad_dyskretny_i_plaski.png|300px|thumb|left|<figure
 +
id="fig:dysk_i_plask"></figure>(a) dyskretny rozkład prawdopodobieństw
 +
wyników rzutu kostką; (b) ciągły rozkład prawdopodobieństwa dla liczb
 +
rzeczywistych z przedziału od zera do jednego.  ]]
 +
 +
Z rozkładem ciągłym mieliśmy do czynienia, gdy używaliśmy generatora
 +
liczb losowych &mdash; losował on z równym prawdopodobieństwem liczby
 +
rzeczywiste z przedziału od zera do jednego. Funkcja przypisująca
 +
równe prawdopodobieństwa liczbom od zera do jednego powinna wyglądać
 +
jak na <xr id="fig:dysk_i_plask">rysunku %i(b)</xr>. A jednak coś się
 +
tu nie zgadza...
 +
 +
Zacznijmy od rozkładu dyskretnego, czyli <xr
 +
id="fig:dysk_i_plask">wykresu %i(a)</xr>. Prawdopodobieństwo dla
 +
zmiennej losowej (teraz nie jest to już formalnie zdarzenie)
 +
wynoszącej na przykład 2 odczytujemy jako wynoszące 0,167. Czyli
 +
mniejsze od 1 i większe od zera. Suma prawdopodobieństw dla wszystkich
 +
możliwych wartości zmiennej losowej wyniesie 1 &mdash; wszystko zgadza się
 +
z [[WnioskowanieStatystyczne/Prawdopodobieństwo#Częstościowa definicja prawdopodobieństwa|aksjomatami definicji prawdopodobieństwa]].
 +
 +
Teraz spróbujmy z wykresu po prawej stronie odczytać wartość
 +
prawdopodobieństwa wylosowania jakiejś liczby spomiędzy 0 i 1. Jeden?
 +
To oznacza pewność &mdash; niemożliwe. Na osi <math>y</math> powinna
 +
występować jakaś znacznie mniejsza wartość... Ale jaka?
 +
 +
Zastanówmy się: niezależnie od tego, jak małą (niezerową i nieujemną)
 +
wartość przyjmiemy dla prawdopodobieństwa wylosowania dowolnej liczby
 +
z tego przedziału, to gdy zaczniemy je sumować dla wszystkich
 +
możliwych wyników, których na odcinku <math>(0, 1)</math> jest wszak
 +
nieskończenie wiele, zawsze dostaniemy więcej niż jeden. Najwyraźniej
 +
tak się nie da.
 +
 +
Widać już, że sumę będziemy musieli zastąpić całką &mdash; jest to właśnie
 +
graniczny przypadek sumy. W tym układzie aksjomat
 +
<math>P(\Omega)=1</math>, który dla przypadku dyskretnego wyrażał się
 +
sumą
 +
 +
<math>
 +
\sum_i P(X=x_i) = 1,
 +
</math>
 +
 +
teraz będzie wyrażał się całką
 +
 +
<math>
 +
\int p(x) dx = 1,
 +
</math>
 +
 +
gdzie prawdopodobieństwo <math>P</math> zastąpiła, z przyczyn, które
 +
staną się jasne za chwilę, gęstość prawdopodobieństwa <math>p</math>.
 +
Łatwo sprawdzić, że całka rozkładu z <xr
 +
id="fig:dysk_i_plask">rys. %i</xr> spełnia ten warunek. Jednak
 +
pozostaje problem odczytywania wartości prawdopodobieństwa dla
 +
konkretnej wartości zmiennej losowej.
 +
 +
Przypomnijmy sobie, że [[WnioskowanieStatystyczne/Bootstrap|symulując rzuty monetą]] korzystaliśmy z faktu, że prawdopodobieństwo wylosowania liczby
 +
mniejszej niż <math>\frac1 2</math> wynosi 0,5. Zdefiniujmy więc
 +
''dystrybuantę'' prawdopodobieństwa zmiennej losowej <math>X</math>
 +
jako prawdopodobieństwo wystąpienia któregokolwiek ze zdarzeń, dla
 +
których zmienna losowa przyjmuje wartości mniejsze od <math>x</math>:
 +
 +
<equation id="eq:59">
 +
<math>
 +
F(x)=P[X \leq x]. 
 +
</math>
 +
</equation>
 +
 +
Będzie to oczywiście funkcja niemalejąca, dążąca do zera dla małych
 +
<math>x</math> i do jednego dla dużych. Dla rozkładu z <xr
 +
id="fig:dysk_i_plask">rysunku %i</xr>(b) dystrybuanta będzie wyglądać
 +
jak na <xr id="fig:plaski">rysunku %i</xr>.
 +
 +
[[Plik:Dystryb_plaski.png|300px|thumb|left|<figure
 +
id="fig:plaski"></figure>Dystrybuanta ciągłej zmiennej losowej o
 +
równym prawdopodobieństwie na przedziale (0, 1).]]
 +
 +
Dopiero teraz '''gęstość prawdopodobieństwa''' zmiennej losowej określimy jako
 +
pochodną dystrybuanty
 +
 +
<equation id="eq:59">
 +
<math>
 +
p(x)=\frac{d F(x)}{dx}=\frac{P[x\leq X\leq x+dx]}{dx}.
 +
</math>
 +
</equation>
 +
 +
Dlaczego gęstość, a nie po prostu rozkład prawdopodobieństwa, jak w
 +
przypadku dyskretnym? Właśnie ze względu na problemy z odczytem
 +
prawdopodobieństwa dla konkretnej wartości zmiennej. Na podobny
 +
problem trafiamy np. w fizyce, próbując obliczyć masę punktu. Masa to
 +
iloczyn (całka) gęstości i objętości, a punkt ma zerową objętość. Aby
 +
otrzymać niezerową masę, gęstość materii musimy scałkować w jakimś
 +
niezerowym obszarze &mdash; nie można przyjąć za masę gęstości materii w
 +
danym punkcie. Tak samo w przypadku ciągłych rozkładów gęstości
 +
prawdopodobieństwa, prawdopodobieństwo możemy obliczyć tylko dla
 +
niezerowego przedziału zmiennej losowej, a wartość odczytywaną dla
 +
konkretnej wartości zmiennej losowej interpretujemy jako gęstość.

Wersja z 13:40, 22 maj 2015

Rozkłady prawdopodobieństwa

Rozkład prawdpopodobieństwa — zgodnie z nazwą — będzie funkcją określającą, jak prawdopodobieństwo rozkłada się pomiędzy możliwe wyniki danego doświadczenia. Mieliśmy już z nim do czynienia w pierwszej części książki, rysunek 1 przypomina niektóre z tych przypadków.

(a) rozkład liczby jedynek uzyskany z 10 tysięcy repróbkowań ze zwracaniem (bootstrap) próby 18 jedynek i 82 zer; (b) liczba trafień na 10 rzutów do kosza, przy średnim prawdopodobieństwie trafienia 0,6

Nie są to prawdopodobieństwa, gdyż nie spełniają aksjomatu [math](0\leq P(A)\leq 1)[/math], który wraz z aksjomatem [math](P(\Omega)=1)[/math] możemy spełnić dzieląc liczbę wystąpień każdego przypadku przez całkowitą liczbę eksperymentów — wtedy suma wszystkich prawdopodobieństw (czyli [math]P(\Omega)[/math]) wyniesie 1. Przykład tak znormalizowanego dyskretnego rozkładu prawdopodobieństwa przedstawia rysunek rysunek 2(a).

Pozostaje jeszcze problem formalny: występujące w klasycznej teorii funkcje nie są określone na zdarzeniach, tylko na liczbach. Przejście od zdarzeń do odpowiadających im liczb wymaga pojęcia zmiennej losowej – odwzorowania [math]X(.)[/math] z przestrzeni zdarzeń do przestrzeni liczb rzeczywistych. Na przykład w doświadczeniu polegającym na rzucaniu kostką zmienna losowa przypisze liczbę 4 przypadkowi, w którym na górnej ściance rzuconej kostki widać cztery kropki.

Liczby (czyli zmienne losowe) są już pełnoprawnymi argumentami funkcji, ale z definicją rozkładu prawdopodobieństwa będzie jeszcze trochę kłopotu, jeśli wyniki eksperymentu będą pochodzić z ciągłych przedziałów zmiennej losowej, a nie, jak w przykładach z rysunku rysunek 1, ze zbioru dyskretnego.

Rozkłady ciągłe — gęstość prawdopodobieństwa

(a) dyskretny rozkład prawdopodobieństw wyników rzutu kostką; (b) ciągły rozkład prawdopodobieństwa dla liczb rzeczywistych z przedziału od zera do jednego.

Z rozkładem ciągłym mieliśmy do czynienia, gdy używaliśmy generatora liczb losowych — losował on z równym prawdopodobieństwem liczby rzeczywiste z przedziału od zera do jednego. Funkcja przypisująca równe prawdopodobieństwa liczbom od zera do jednego powinna wyglądać jak na rysunku 2(b). A jednak coś się tu nie zgadza...

Zacznijmy od rozkładu dyskretnego, czyli wykresu 2(a). Prawdopodobieństwo dla zmiennej losowej (teraz nie jest to już formalnie zdarzenie) wynoszącej na przykład 2 odczytujemy jako wynoszące 0,167. Czyli mniejsze od 1 i większe od zera. Suma prawdopodobieństw dla wszystkich możliwych wartości zmiennej losowej wyniesie 1 — wszystko zgadza się z aksjomatami definicji prawdopodobieństwa.

Teraz spróbujmy z wykresu po prawej stronie odczytać wartość prawdopodobieństwa wylosowania jakiejś liczby spomiędzy 0 i 1. Jeden? To oznacza pewność — niemożliwe. Na osi [math]y[/math] powinna występować jakaś znacznie mniejsza wartość... Ale jaka?

Zastanówmy się: niezależnie od tego, jak małą (niezerową i nieujemną) wartość przyjmiemy dla prawdopodobieństwa wylosowania dowolnej liczby z tego przedziału, to gdy zaczniemy je sumować dla wszystkich możliwych wyników, których na odcinku [math](0, 1)[/math] jest wszak nieskończenie wiele, zawsze dostaniemy więcej niż jeden. Najwyraźniej tak się nie da.

Widać już, że sumę będziemy musieli zastąpić całką — jest to właśnie graniczny przypadek sumy. W tym układzie aksjomat [math]P(\Omega)=1[/math], który dla przypadku dyskretnego wyrażał się sumą

[math] \sum_i P(X=x_i) = 1, [/math]

teraz będzie wyrażał się całką

[math] \int p(x) dx = 1, [/math]

gdzie prawdopodobieństwo [math]P[/math] zastąpiła, z przyczyn, które staną się jasne za chwilę, gęstość prawdopodobieństwa [math]p[/math]. Łatwo sprawdzić, że całka rozkładu z rys. 2 spełnia ten warunek. Jednak pozostaje problem odczytywania wartości prawdopodobieństwa dla konkretnej wartości zmiennej losowej.

Przypomnijmy sobie, że symulując rzuty monetą korzystaliśmy z faktu, że prawdopodobieństwo wylosowania liczby mniejszej niż [math]\frac1 2[/math] wynosi 0,5. Zdefiniujmy więc dystrybuantę prawdopodobieństwa zmiennej losowej [math]X[/math] jako prawdopodobieństwo wystąpienia któregokolwiek ze zdarzeń, dla których zmienna losowa przyjmuje wartości mniejsze od [math]x[/math]:

[math] F(x)=P[X \leq x]. [/math]

Będzie to oczywiście funkcja niemalejąca, dążąca do zera dla małych [math]x[/math] i do jednego dla dużych. Dla rozkładu z rysunku 2(b) dystrybuanta będzie wyglądać jak na rysunku 3.

Dystrybuanta ciągłej zmiennej losowej o równym prawdopodobieństwie na przedziale (0, 1).

Dopiero teraz gęstość prawdopodobieństwa zmiennej losowej określimy jako pochodną dystrybuanty

[math] p(x)=\frac{d F(x)}{dx}=\frac{P[x\leq X\leq x+dx]}{dx}. [/math]

Dlaczego gęstość, a nie po prostu rozkład prawdopodobieństwa, jak w przypadku dyskretnym? Właśnie ze względu na problemy z odczytem prawdopodobieństwa dla konkretnej wartości zmiennej. Na podobny problem trafiamy np. w fizyce, próbując obliczyć masę punktu. Masa to iloczyn (całka) gęstości i objętości, a punkt ma zerową objętość. Aby otrzymać niezerową masę, gęstość materii musimy scałkować w jakimś niezerowym obszarze — nie można przyjąć za masę gęstości materii w danym punkcie. Tak samo w przypadku ciągłych rozkładów gęstości prawdopodobieństwa, prawdopodobieństwo możemy obliczyć tylko dla niezerowego przedziału zmiennej losowej, a wartość odczytywaną dla konkretnej wartości zmiennej losowej interpretujemy jako gęstość.