WnioskowanieStatystyczne/Bonferroni: Różnice pomiędzy wersjami

Z Brain-wiki
 
(Nie pokazano 77 pośrednich wersji utworzonych przez tego samego użytkownika)
Linia 1: Linia 1:
 
[[Wnioskowanie_Statystyczne_-_wykład]]
 
[[Wnioskowanie_Statystyczne_-_wykład]]
  
==Błędy I i II rodzaju==
+
==Wielokrotne porównania==
Przyjęcie poziomu istotności (<math>\alpha</math>) na poziomie 5 procent oznacza, że średnio w jednym na dwadzieścia przypadków możemy odrzucić prawdziwą hipotezę, czyli popełnić '''błąd I rodzaju''' (false positive).  
+
Niebranie pod uwagę problemu wielokrotnych porównań (ang. multiple comparisons) ilustruje jakościowo przykład z Wikipedii: http://en.wikipedia.org/wiki/Data_dredging
  
Dla kompletności przypomnijmy, że '''błąd II rodzaju''' polega na przyjęciu hipotezy fałszywej (false negative) i jest związany z poziomem istotności testu.
+
===Przykład ilościowy===
 +
<math>N</math> obserwacji podzielonych na 7 grup. Testujemy hipotezę o różnicy między średnimi dowolnych par grup, wykonując <math>\binom{7}{2}=21</math> testów hipotez o różnicach między dwoma grupami.  
  
Pojęcia błędów I i II rodzaju, podobnie jak hipotezy zerowej (H<sub>0</sub>) wprowadzili do statystyki  [https://pl.wikipedia.org/wiki/Jerzy_Spława-Neyman Jerzy Spława-Neyman] i [https://pl.wikipedia.org/wiki/Egon_Pearson Egon Pearson] w latach 30. XX wieku.
+
Załóżmy, że podziału na 7 grup dokonaliśmy zupełnie przypadkowo, czyli że nie powinna wystąpić istotna statystycznie różnica między średnimi żadnej pary. Jeśli test dla każdej pary wykonujemy na poziomie istoności p=5%, to przyjmujemy, że z prawdopodobieństwem 0,05 test może wykazać różnicę (FP). Prawdopodobieństwo, że test nie wykaże różnicy, wynosi
 +
<!-- <ref>dla testów niezależnych; w tym przykładzie wyniki testów nie będą niezależne — dlaczego?</ref> -->
 +
1 - 0,05 = 0,95. Prawdopodobieństwo, że test poprawnie '''nie''' wykaże różnicy we '''wszystkich''' 21 porównaniach, wynosi (0,95)<sup>21</sup> czyli ok. 0,34. Tak więc prawdopodobieństwo, że przynajmniej w jednej parze grup test fałszywie wykaże różnicę, pomimo wykonywania każdego testu na poziomie istotności 0,05 wynosi aż  1 - 0,34 = 0,66!
  
 +
===FWER: family-wise error rate===
 +
Poziomy istotności zdefiniowane dla pojedynczych testów zastępujemy pojęciem FWER, czyli prawdopodobieństwem popełnienia przynajmniej jednego błędu I rodzaju w grupie (rodzinie) testów.
  
{| class="wikitable"
+
Niech rodzina składa się z <math>m</math> hipotez <math>\{H_i\}_{i=1..m}</math>,
|-
+
<!-- dla ustalenia uwagi zakładających np. brak istotnych różnic między grupami,
| rowspan="2" colspan="2" |
+
-->
| colspan="2" style="text-align:center;" | hipoteza ''H<sub>0</sub>''
+
z których  <math>m_0</math> jest prawdziwych,
|-
+
<!-- (czyli np. grupy losowano z tej samej populacji; oczywiście <math>m_0 \le m</math>).
! Fałszywa
 
! Prawdziwa
 
|-
 
| rowspan="2" | decyzja
 
! Przyjmij
 
| style="text-align:center;"| błąd typu &nbsp;I (False Positive)
 
| style="text-align:center;"| poprawna (True Positive)
 
|-
 
! Odrzuć
 
| style="text-align:center;"| poprawna (True Negative)
 
| style="text-align:center;"| błąd typu&nbsp;II (False Negative)
 
|}
 
  
 +
W pozostałych <math>m-m_0</math> przypadkach prawdziwa będzie któraś z hipotez alternatywnych, czyli wystąpi istotna statystycznie różnica (szukany efekt).
  
[[Plik:wh_moc.png|thumb|center|600px|<figure id="fig:101"></figure>Linią przerywaną jest oznaczony rozkład jednej z możliwych hipotez
 
alternatywnych.
 
Na górnym wykresie zacieniowany obszar (o polu <math>\beta</math>) odpowiada prawdopodobieństwu błędnej akceptacji hipotezy alternatywnej (błąd II rodzaju, false nagative). Na dolnym zacieniowany obszar odpowiada prawdopodobieństwu odrzucenia hipotezy alternatywnej, czyli '''mocy testu''' (<math>1-\beta</math>) względem tej konkretnej hipotezy alternatywnej.]]
 
  
==Krzywa ROC (receiver operating characteristic)==
+
Testy poprawnie przeprowadzone dla tej rodziny powinny wykazać <math>m-m_0</math> istotnych różnic; odrzucenie każdej z <math>m_0</math> prawdziwych hipotez jest błędem I rodzaju, kontrolowanym przez poziom istotności <math>p</math>.
Opisane powyżej błędy odnoszą się do ostatecznych, binarnych decyzji systemu (np. przynależność do grupy A lub B). Jednak bardzo często system na "przedostatnim" stadium zwraca wielkość odpowiadającą prawdopodobieństwu przynależności do jednej z grup. Dopiero wybranie progu daje nam decyzję binarną. Ten próg możemy dobierać w zależności od tego, czy ważniejsze jest unikanie FP czy maksymalizowanie TP.
 
  
 +
Niech
 +
-->
 +
a każdej z hipotez <math>H_i</math> odpowiada prawdopodobieństwo <math>p_i</math>.
  
Na poniższych ilustracjach <xr id="fig:k1">Rys.</xr> i <xr id="fig:k2">Rys.</xr> z [https://www.worldscientific.com/doi/abs/10.1142/S012906571850048X artykułu dostępnego w Internecie] przedstawiono histogramy decyzji klasyfikatora, który przypisywał odcinkom EEG prawdopodobieństwo faktu, że wystąpił w nim potencjał wywołany, który związany jest z koncentracją uwagi na bodźcu wyświetlanym w danym momencie. Jako "ground truth", czyli kryterium, przyjęto deklarowane przez użytkowników intencje zwracania uwagi na dany bodziec (target) lub nie (nontarget).
+
===Poprawka Bonferroniego===
 
+
gwarantuje, że jeśli każdy z ''m'' testów wykonamy na poziomie istotności <math>\frac{\alpha}{m}</math>, to <math>\mathrm{FWER}=\alpha</math>.
[[Plik:Klasyfikator1.png|left|thumb|300px|<figure id="fig:k1"></figure>Histogram decyzji "dobrego" klasyfikatora.]]
 
 
 
[[Plik:Klasyfikator2.png|left|thumb|300px|<figure id="fig:k2"></figure>Histogram decyzji "słabego" klasyfikatora.]]
 
 
 
[[Plik:Roc1.png|right|thumb|300px|<figure id="fig:h1"></figure>Fig. 3: Przykładowe krzywe ROC dla "dobrego" i "słabego" klasyfikatora]]
 
 
 
<br clear="all" />
 
  
AUC (inaczej AUROC, czyli ''Area Under ROC'') to pole pod krzywą ROC, określające jakość separacji rozkładów dla różnych ustawień progu.
+
====Dowód====
 
+
Powtórzmy założenia: rozważamy rodzinę <math>m</math> hipotez <math>H_i</math>, przypisując każdemu z testów odpowiadających <math>H_i</math>  p-wartość (ang. p-value) ''p<sub>i</sub>''.
==Wielokrotne porównania==
+
Niech <math>m_0 \le m</math> z tych hipotez będzie prawdziwych.  
Problem wielokrotnych porównań (ang. multiple comparisons) pojawia się w eksploracyjnej (w odróżnieniu od konfirmacyjnej) analizie danych, por. np. http://en.wikipedia.org/wiki/Data_dredging zwane też ''p''-hacking.
 
  
 +
Jeśli wszystkie hipotezy z rodziny będziemy testować na tym samym poziomie istotności <math>\frac{\alpha}{m}</math>,
 +
to pojedynczą hipotezę <math>H_i</math> odrzucimy, jeśli <math>p_i\leq\frac{\alpha}{m}</math>.
  
===Przykład===
+
W tej sytuacji <math>\mathrm{FWER}</math>, czyli prawdopodobieństwo popełnienia przynajmniej jednego błędu I rodzaju w którymś z <math>m_0</math> testów prawdziwych hipotez <math>H_i</math>,
<math>N</math> obserwacji podzielonych na 7 grup. Testujemy hipotezę o różnicy między średnimi dowolnych par grup, wykonując <math>\binom{7}{2}=21</math> testów różnic między dwoma grupami.
+
będzie logiczną sumą <math>m_0</math> takich zdarzeń
  
Załóżmy, że podziału na 7 grup dokonaliśmy zupełnie przypadkowo, czyli że nie powinna wystąpić istotna statystycznie różnica między średnimi żadnej pary. Jeśli test dla każdej pary wykonujemy na poziomie istoności p=5%, to przyjmujemy, że z prawdopodobieństwem 0,05 test może wykazać różnicę (FP). Prawdopodobieństwo, że test nie wykaże różnicy, wynosi<ref>dla testów niezależnych; w tym przykładzie wyniki testów nie będą niezależne -- dlaczego?</ref> 1 - 0,05 = 0,95. Prawdopodobieństwo, że test poprawnie '''nie''' wykaże różnicy we '''wszystkich''' 21 porównaniach, wynosi (0,95)<sup>21</sup> czyli ok. 0,34. Tak więc prawdopodobieństwo, że przynajmniej w jednej parze grup test fałszywie wykaże różnicę, pomimo wykonywania każdego testu na poziomie istotności 0,05 wynosi aż  1 - 0,34 = 0,66!
+
<math> \text{FWER}  = P\left\{ \bigcup_{i=1}^{m_0}\left(p_i\leq\frac \alpha m \right) \right\}</math>
  
==FWER: family-wise error rate==
+
i zgodnie z [https://en.wikipedia.org/wiki/Boole%27s_inequality nierównością Boole'a] będzie nie większe niż suma prawdopodobieństw popełnienia błędu I rodzaju
Poziom istotności zdefiniowany dla pojedynczych testów zastępujemy pojęciem FWER, czyli prawdopodobieństwem popełnienia przynajmniej jednego błędu I rodzaju w grupie (rodzinie) testów.
+
<math> \sum_{i=1}^{m_0} P\left(p_i\leq\frac \alpha m\right)</math>
 +
w każdym testów z osobna:
  
===Poprawka Bonferroniego===
+
<math> P\left\{ \bigcup_{i=1}^{m_0}\left(p_i\leq\frac \alpha m \right) \right\} \leq \sum_{i=1}^{m_0} P\left(p_i\leq\frac \alpha m\right)
gwarantuje, że jeśli każdy z ''m'' testów wykonamy na poziomie istotności <math>\frac{\alpha}{m}</math>, to <math>\mathrm{FWER}=\alpha</math>.
+
= m_0 \frac{\alpha}{m}</math>
  
Rozważmy rodzinę ''m'' hipotez ''H<sub>i</sub>'' (w powyższym przykładzie ''m'' = 21), przypisując każdej ''H<sub>i</sub>''  p-wartość (ang. p-value) ''p<sub>i</sub>''. Niech ''m<sub>0</sub>'' z tych hipotez będzie prawdziwych. FWER, czyli prawdopodobieństwo popełnienia przynajmniej jednego błędu I rodzaju w którymś z ''m'' testów hipotez ''H<sub>i</sub>'', będzie nie większy niż suma prawdopodobieństw popełnienia błędu I rodzaju
+
Ponieważ nie wiemy a priori, ile z hipotez <math>H_i</math> jest prawdziwych, nie znamy wartości <math>m_0</math>. Wiemy tylko, że <math>m_0 \le m</math>, więc
<math> P\left(p_i\leq\frac \alpha m\right)</math>
 
w każdym testów z osobna. I to niezależnie od tego, czy testy są niezależne czy nie, ani od wartości ''m<sub>0</sub>'', czyli od tego jak wiele z hipotez ''H<sub>i</sub>'' jest prawdziwych:
 
  
<math> \text{FWER}  = P\left\{ \bigcup_{i=1}^{m_0}\left(p_i\leq\frac \alpha m \right) \right\} \leq \sum_{i=1}^{m_0} P\left(p_i\leq\frac \alpha m\right)
+
<math>\mathrm{FWER} \leq m_0 \frac{\alpha}{m} \le m \frac{\alpha}{m} = \alpha</math>
\leq m_0 \frac{\alpha}{m}
 
\leq m \frac{\alpha}{m} = \alpha.</math>
 
  
-- skorzystaliśmy z [https://en.wikipedia.org/wiki/Boole%27s_inequality nierówności Boole'a]. Jak widać jest to poprawka bardzo konserwatywna, wymuszająca przeprowadzanie testów na potencjalnie zaniżonych poziomach istotności <math>\frac{\alpha}{m}</math>.
+
Jest to poprawka bardzo konserwatywna, wymuszająca przeprowadzanie testów na potencjalnie zaniżonych poziomach istotności <math>\frac{\alpha}{m}</math>.
  
Sprawdźmy jak zadziała w przykładzie 7 grup: mamy 21 porównań, jeśli chcemy utrzymać prawdopodobieństwo co najmniej jednego błędu I rodzaju na poziomie 5%, każdy test musimy wykonać na poziomie 0,05 / 21 = ok. 0.002381, czyli mniej niż 0,0024%! Wtedy prawdopodobieństwo popełnienia jednego błędu I rodzaju wyniesie
+
====Przykład====
 +
Sprawdźmy, jak poprawka Bonferroniego zadziała w opisanym powyżej przykładzie 7 grup: mamy 21 porównań, jeśli chcemy utrzymać prawdopodobieństwo co najmniej jednego błędu I rodzaju na poziomie 5%, każdy test musimy wykonać na poziomie <math>\frac{0.05}{21} \approx 0.002381</math> czyli mniej niż 0,0024%! Wtedy prawdopodobieństwo popełnienia jednego błędu I rodzaju wyniesie
  
 
<math> 1 - \left( 1 - \frac{0,05}{21} \right)^{21} \approx 0,0488 </math>
 
<math> 1 - \left( 1 - \frac{0,05}{21} \right)^{21} \approx 0,0488 </math>
Linia 87: Linia 72:
  
 
===Poprawka Bonferroniego-Holma===
 
===Poprawka Bonferroniego-Holma===
P-wartości p<sub>i</sub> odpowiadające hipotezom ''H<sub>i</sub>'' sortujemy w kolejności od najmniejszej do największej
+
 
 +
gwarantuje, że jeśli każdy z <math>m</math> testów wykonamy na poziomie <math> \frac{\alpha}{m+1-k}</math>, gdzie <math>k</math> znajdujemy w opisanej poniżej procedurze, to <math>\mathrm{FWER} = \alpha</math>
 +
 
 +
 
 +
[[Plik:Bonferroni-holmes.png|400px|right|frameless]]
 +
 
 +
====Znajdowanie <math>k</math>====
 +
P-wartości p<sub>i</sub>, odpowiadające hipotezom ''H<sub>i</sub>'', sortujemy w kolejności od najmniejszej do największej
  
 
''p<sub>(1)</sub> < p<sub>(2)</sub> < ... < p<sub>(m)</sub>''
 
''p<sub>(1)</sub> < p<sub>(2)</sub> < ... < p<sub>(m)</sub>''
Linia 97: Linia 89:
 
i odrzucamy hipotezy ''H<sub>1</sub> ... H<sub>k-1</sub>'', przyjmując ''H<sub>k</sub> ... H<sub>m</sub>''.
 
i odrzucamy hipotezy ''H<sub>1</sub> ... H<sub>k-1</sub>'', przyjmując ''H<sub>k</sub> ... H<sub>m</sub>''.
  
====dowód====
 
Załóżmy, że wśród ''m'' testowanych ''H<sub>i</sub>'' jest ''m<sub>0</sub>'' hipotez prawdziwych.
 
  
Musimy dowieść, że prawdopodobieństwo popełnienia błędu I rodzaju w tej procedurze jest nie większe niż <math>\alpha</math>.  
+
====Dowód====
 +
Mamy dowieść, że prawdopodobieństwo popełnienia błędu I rodzaju w tej procedurze jest nie większe niż <math>\alpha</math>. Ponownie zakładamy, że wśród <math>m</math> testowanych <math>H_i</math> jest <math>m_0</math> hipotez prawdziwych.
 +
<!-- (czyli wykazujących różnice), a <math>(m-m_0)</math> nie powinno różnic wykazywać. -->
 +
Jak w przepisie na znajdowanie <math>k</math>, hipotezy <math>H_i</math> renumerujemy tak, żeby hipotezie <math>H_1</math> odpowiadała najmniejsza wartość <math>p_i</math>.
 +
 
 +
Zacznijmy of <math>H_1</math>. Jeśli odpowiadające jej <math>p_1 < \frac{\alpha}{m-1+1}</math>, odrzucamy <math>H_1</math> i kontynuujemy do <math>H_2</math>.
  
Zaczynamy od ''H<sub>1</sub>'': niech pierwszą prawdziwą odrzuconą hipotezą (pierwszy błąd I rodzaju, false positive) będzie ''H<sub>k</sub>''. To znaczy, że ''H<sub>k-1</sub>'' była ostatnią hipotezą fałszywą, i
+
Jeśli <math>p_2 < \frac{\alpha}{m-2+1}</math>, odrzucamy <math>H_2</math> i kontynuujemy do <math>H_3</math>.
  
:<math>k - 1 + m_0 \leq m \implies m_0 \leq m - k + 1</math>.
+
Niech pierwszą hipotezą, dla której <math>p_k > \frac{\alpha}{m-k+1}</math> będzie <math>H_k</math>. To znaczy, że odrzucamy hipotezy <math>H_1 \ldots H_{k-1}</math>, czyli wykazujemy <math>(k-1)</math> istotnych różnic, a <math>H_k</math> jest pierwszą z przyjętych hipotez zerowych. Akceptujemy również <math>(m-k+1)</math> pozostałych hipotez <math>\{H_i\}_{i=k \ldots m}</math>.
  
Skoro  ''H<sub>k</sub>'' została odrzucona, to z definicji procedury  
+
:<math>k - 1  \leq m - m_0 \\
 +
m_0 \leq m - k + 1 \\
 +
\dfrac{1}{m_0} \ge \dfrac{1}{m-k+1}
 +
</math>
 +
czyli również
 +
<math>
 +
\dfrac{\alpha}{m_0} \ge \dfrac{\alpha}{m-k+1}
 +
</math>
 +
 
 +
Skoro  <math>H_k</math> została odrzucona, to z definicji procedury  
  
 
:<math> p_k \leq \frac{\alpha}{m - k +1} \leq \frac{\alpha}{m_0}</math>
 
:<math> p_k \leq \frac{\alpha}{m - k +1} \leq \frac{\alpha}{m_0}</math>
  
bo skoro <math>m_0 \leq m - k + 1</math>, to <math>\frac{\alpha}{m - k +1} \leq \frac{\alpha}{m_0}</math>. Odpowiada to poprawce Bonferroniego w zbiorze ''m<sub>0</sub>'' hipotez prawdziwych.
+
— odpowiada to poprawce Bonferroniego w zbiorze <math>m_0</math> hipotez prawdziwych, czyli kontroluje <math>\mathrm{FWER}</math> na poziomie <math>\alpha</math>.
  
 
===False Discovery Rate FDR===
 
===False Discovery Rate FDR===
...w podobnej procedurze kontroluje oczekiwany stosunek liczby hipotez błędnie odrzuconych do liczby hipotez odrzuconych. Poniżej przykład zastosowania z artykułu [https://www.ncbi.nlm.nih.gov/pubmed/15248533 On the statistical significance of event-related EEG desynchronization and synchronization in the time-frequency plane.] [http://www.fuw.edu.pl/~durka/papers/tfstats/tfstats.pdf PDF].
+
...w podobnej procedurze kontroluje oczekiwany '''stosunek liczby hipotez błędnie odrzuconych do liczby hipotez odrzuconych'''.  
 +
 
 +
Poniżej przykład zastosowania z artykułu [https://www.ncbi.nlm.nih.gov/pubmed/15248533 On the statistical significance of event-related EEG desynchronization and synchronization in the time-frequency plane.] [http://www.fuw.edu.pl/~durka/papers/tfstats/tfstats.pdf PDF].
  
 
[[Plik:ERDS_stat.png|center|thumb| Calculating the high-resolution ERD/ERS from the MP decomposition in statistically significant regions. (a) Average time-frequency energy density approximated from the MP decomposition. Reference epoch marked by black vertical lines, movement onset in the fifth second marked by white dashed line. (b) Energy from (a) integrated in resels 0.25 s x  2 Hz. (c) Average values of ERD/ERS calculated for the time from the end of the reference epoch to the end of the recorded epoch (black dashed vertical lines in (a) and (b)). (d) ERD/ERS from (c) indicated as statistically different from the reference epoch by the pseudo-  bootstrap procedure (Section II-D3) corrected by a 5% FDR. (e) High-resolution map of ERD/ERS calculated from (a). (f) High-resolution ERD/ERS in statistically significant regions from (d). A—  <math>\mu</math> desynchronization, B—desynchonization of the <math>\mu</math>  harmonic, C—postmovement <math>\beta</math> synchronization, D—harmonic of  <math>\beta</math>. Horizontal scales in seconds, vertical in Hz.]]
 
[[Plik:ERDS_stat.png|center|thumb| Calculating the high-resolution ERD/ERS from the MP decomposition in statistically significant regions. (a) Average time-frequency energy density approximated from the MP decomposition. Reference epoch marked by black vertical lines, movement onset in the fifth second marked by white dashed line. (b) Energy from (a) integrated in resels 0.25 s x  2 Hz. (c) Average values of ERD/ERS calculated for the time from the end of the reference epoch to the end of the recorded epoch (black dashed vertical lines in (a) and (b)). (d) ERD/ERS from (c) indicated as statistically different from the reference epoch by the pseudo-  bootstrap procedure (Section II-D3) corrected by a 5% FDR. (e) High-resolution map of ERD/ERS calculated from (a). (f) High-resolution ERD/ERS in statistically significant regions from (d). A—  <math>\mu</math> desynchronization, B—desynchonization of the <math>\mu</math>  harmonic, C—postmovement <math>\beta</math> synchronization, D—harmonic of  <math>\beta</math>. Horizontal scales in seconds, vertical in Hz.]]
 
 
 
  
 
==Evaluation of measurement data — Guide to the expression of uncertainty in measurement==
 
==Evaluation of measurement data — Guide to the expression of uncertainty in measurement==
Linia 125: Linia 128:
  
 
''3.4.8  Although this Guide provides a framework for assessing uncertainty, it cannot substitute for critical thinking, intellectual honesty and professional skill. The evaluation of uncertainty is neither a routine task nor a purely mathematical one; it depends on detailed knowledge of the nature of the measurand and of the measurement. The quality and utility of the uncertainty quoted for the result of a measurement therefore ultimately depend on the understanding, critical analysis, and integrity of those who contribute to the assignment of its value.''
 
''3.4.8  Although this Guide provides a framework for assessing uncertainty, it cannot substitute for critical thinking, intellectual honesty and professional skill. The evaluation of uncertainty is neither a routine task nor a purely mathematical one; it depends on detailed knowledge of the nature of the measurand and of the measurement. The quality and utility of the uncertainty quoted for the result of a measurement therefore ultimately depend on the understanding, critical analysis, and integrity of those who contribute to the assignment of its value.''
 +
 +
 +
Formalnym sposobem przeciwdziałania praktykom wybiórczego raportowania wyników jest [https://pl.wikipedia.org/wiki/Prerejestracja_badania prerejestracja badań].

Aktualna wersja na dzień 08:11, 5 maj 2023

Wnioskowanie_Statystyczne_-_wykład

Wielokrotne porównania

Niebranie pod uwagę problemu wielokrotnych porównań (ang. multiple comparisons) ilustruje jakościowo przykład z Wikipedii: http://en.wikipedia.org/wiki/Data_dredging

Przykład ilościowy

[math]N[/math] obserwacji podzielonych na 7 grup. Testujemy hipotezę o różnicy między średnimi dowolnych par grup, wykonując [math]\binom{7}{2}=21[/math] testów hipotez o różnicach między dwoma grupami.

Załóżmy, że podziału na 7 grup dokonaliśmy zupełnie przypadkowo, czyli że nie powinna wystąpić istotna statystycznie różnica między średnimi żadnej pary. Jeśli test dla każdej pary wykonujemy na poziomie istoności p=5%, to przyjmujemy, że z prawdopodobieństwem 0,05 test może wykazać różnicę (FP). Prawdopodobieństwo, że test nie wykaże różnicy, wynosi 1 - 0,05 = 0,95. Prawdopodobieństwo, że test poprawnie nie wykaże różnicy we wszystkich 21 porównaniach, wynosi (0,95)21 czyli ok. 0,34. Tak więc prawdopodobieństwo, że przynajmniej w jednej parze grup test fałszywie wykaże różnicę, pomimo wykonywania każdego testu na poziomie istotności 0,05 wynosi aż 1 - 0,34 = 0,66!

FWER: family-wise error rate

Poziomy istotności zdefiniowane dla pojedynczych testów zastępujemy pojęciem FWER, czyli prawdopodobieństwem popełnienia przynajmniej jednego błędu I rodzaju w grupie (rodzinie) testów.

Niech rodzina składa się z [math]m[/math] hipotez [math]\{H_i\}_{i=1..m}[/math], z których [math]m_0[/math] jest prawdziwych, a każdej z hipotez [math]H_i[/math] odpowiada prawdopodobieństwo [math]p_i[/math].

Poprawka Bonferroniego

gwarantuje, że jeśli każdy z m testów wykonamy na poziomie istotności [math]\frac{\alpha}{m}[/math], to [math]\mathrm{FWER}=\alpha[/math].

Dowód

Powtórzmy założenia: rozważamy rodzinę [math]m[/math] hipotez [math]H_i[/math], przypisując każdemu z testów odpowiadających [math]H_i[/math] p-wartość (ang. p-value) pi. Niech [math]m_0 \le m[/math] z tych hipotez będzie prawdziwych.

Jeśli wszystkie hipotezy z rodziny będziemy testować na tym samym poziomie istotności [math]\frac{\alpha}{m}[/math], to pojedynczą hipotezę [math]H_i[/math] odrzucimy, jeśli [math]p_i\leq\frac{\alpha}{m}[/math].

W tej sytuacji [math]\mathrm{FWER}[/math], czyli prawdopodobieństwo popełnienia przynajmniej jednego błędu I rodzaju w którymś z [math]m_0[/math] testów prawdziwych hipotez [math]H_i[/math], będzie logiczną sumą [math]m_0[/math] takich zdarzeń

[math] \text{FWER} = P\left\{ \bigcup_{i=1}^{m_0}\left(p_i\leq\frac \alpha m \right) \right\}[/math]

i zgodnie z nierównością Boole'a będzie nie większe niż suma prawdopodobieństw popełnienia błędu I rodzaju [math] \sum_{i=1}^{m_0} P\left(p_i\leq\frac \alpha m\right)[/math] w każdym testów z osobna:

[math] P\left\{ \bigcup_{i=1}^{m_0}\left(p_i\leq\frac \alpha m \right) \right\} \leq \sum_{i=1}^{m_0} P\left(p_i\leq\frac \alpha m\right) = m_0 \frac{\alpha}{m}[/math]

Ponieważ nie wiemy a priori, ile z hipotez [math]H_i[/math] jest prawdziwych, nie znamy wartości [math]m_0[/math]. Wiemy tylko, że [math]m_0 \le m[/math], więc

[math]\mathrm{FWER} \leq m_0 \frac{\alpha}{m} \le m \frac{\alpha}{m} = \alpha[/math]

Jest to poprawka bardzo konserwatywna, wymuszająca przeprowadzanie testów na potencjalnie zaniżonych poziomach istotności [math]\frac{\alpha}{m}[/math].

Przykład

Sprawdźmy, jak poprawka Bonferroniego zadziała w opisanym powyżej przykładzie 7 grup: mamy 21 porównań, jeśli chcemy utrzymać prawdopodobieństwo co najmniej jednego błędu I rodzaju na poziomie 5%, każdy test musimy wykonać na poziomie [math]\frac{0.05}{21} \approx 0.002381[/math] czyli mniej niż 0,0024%! Wtedy prawdopodobieństwo popełnienia jednego błędu I rodzaju wyniesie

[math] 1 - \left( 1 - \frac{0,05}{21} \right)^{21} \approx 0,0488 [/math]

czyli mniej niż 0,05.

Analogiczny wynik dostaniemy np. dla tysiąca testów

[math] 1 - \left( 1 - \frac{0,05}{1000} \right)^{1000} \approx 0,0488 [/math]

ale wtedy każdy z testów musielibyśmy wykonywać na poziomie istotności 0,00005.

Poprawka Bonferroniego-Holma

gwarantuje, że jeśli każdy z [math]m[/math] testów wykonamy na poziomie [math] \frac{\alpha}{m+1-k}[/math], gdzie [math]k[/math] znajdujemy w opisanej poniżej procedurze, to [math]\mathrm{FWER} = \alpha[/math]


Bonferroni-holmes.png

Znajdowanie [math]k[/math]

P-wartości pi, odpowiadające hipotezom Hi, sortujemy w kolejności od najmniejszej do największej

p(1) < p(2) < ... < p(m)

Dla [math]\textrm{FWER}=\alpha[/math] znajdujemy najmniejsze k, dla którego

[math]p_k \gt \frac{\alpha}{m+1-k}[/math]

i odrzucamy hipotezy H1 ... Hk-1, przyjmując Hk ... Hm.


Dowód

Mamy dowieść, że prawdopodobieństwo popełnienia błędu I rodzaju w tej procedurze jest nie większe niż [math]\alpha[/math]. Ponownie zakładamy, że wśród [math]m[/math] testowanych [math]H_i[/math] jest [math]m_0[/math] hipotez prawdziwych. Jak w przepisie na znajdowanie [math]k[/math], hipotezy [math]H_i[/math] renumerujemy tak, żeby hipotezie [math]H_1[/math] odpowiadała najmniejsza wartość [math]p_i[/math].

Zacznijmy of [math]H_1[/math]. Jeśli odpowiadające jej [math]p_1 \lt \frac{\alpha}{m-1+1}[/math], odrzucamy [math]H_1[/math] i kontynuujemy do [math]H_2[/math].

Jeśli [math]p_2 \lt \frac{\alpha}{m-2+1}[/math], odrzucamy [math]H_2[/math] i kontynuujemy do [math]H_3[/math].

Niech pierwszą hipotezą, dla której [math]p_k \gt \frac{\alpha}{m-k+1}[/math] będzie [math]H_k[/math]. To znaczy, że odrzucamy hipotezy [math]H_1 \ldots H_{k-1}[/math], czyli wykazujemy [math](k-1)[/math] istotnych różnic, a [math]H_k[/math] jest pierwszą z przyjętych hipotez zerowych. Akceptujemy również [math](m-k+1)[/math] pozostałych hipotez [math]\{H_i\}_{i=k \ldots m}[/math].

[math]k - 1 \leq m - m_0 \\ m_0 \leq m - k + 1 \\ \dfrac{1}{m_0} \ge \dfrac{1}{m-k+1} [/math]

czyli również [math] \dfrac{\alpha}{m_0} \ge \dfrac{\alpha}{m-k+1} [/math]

Skoro [math]H_k[/math] została odrzucona, to z definicji procedury

[math] p_k \leq \frac{\alpha}{m - k +1} \leq \frac{\alpha}{m_0}[/math]

— odpowiada to poprawce Bonferroniego w zbiorze [math]m_0[/math] hipotez prawdziwych, czyli kontroluje [math]\mathrm{FWER}[/math] na poziomie [math]\alpha[/math].

False Discovery Rate FDR

...w podobnej procedurze kontroluje oczekiwany stosunek liczby hipotez błędnie odrzuconych do liczby hipotez odrzuconych.

Poniżej przykład zastosowania z artykułu On the statistical significance of event-related EEG desynchronization and synchronization in the time-frequency plane. PDF.

Calculating the high-resolution ERD/ERS from the MP decomposition in statistically significant regions. (a) Average time-frequency energy density approximated from the MP decomposition. Reference epoch marked by black vertical lines, movement onset in the fifth second marked by white dashed line. (b) Energy from (a) integrated in resels 0.25 s x 2 Hz. (c) Average values of ERD/ERS calculated for the time from the end of the reference epoch to the end of the recorded epoch (black dashed vertical lines in (a) and (b)). (d) ERD/ERS from (c) indicated as statistically different from the reference epoch by the pseudo- bootstrap procedure (Section II-D3) corrected by a 5% FDR. (e) High-resolution map of ERD/ERS calculated from (a). (f) High-resolution ERD/ERS in statistically significant regions from (d). A— [math]\mu[/math] desynchronization, B—desynchonization of the [math]\mu[/math] harmonic, C—postmovement [math]\beta[/math] synchronization, D—harmonic of [math]\beta[/math]. Horizontal scales in seconds, vertical in Hz.

Evaluation of measurement data — Guide to the expression of uncertainty in measurement

JCGM 100:2008 GUM 1995 with minor corrections http://www.iso.org/sites/JCGM/GUM-JCGM100.htm


3.4.8 Although this Guide provides a framework for assessing uncertainty, it cannot substitute for critical thinking, intellectual honesty and professional skill. The evaluation of uncertainty is neither a routine task nor a purely mathematical one; it depends on detailed knowledge of the nature of the measurand and of the measurement. The quality and utility of the uncertainty quoted for the result of a measurement therefore ultimately depend on the understanding, critical analysis, and integrity of those who contribute to the assignment of its value.


Formalnym sposobem przeciwdziałania praktykom wybiórczego raportowania wyników jest prerejestracja badań.