Correzione di Bonferroni

In statistica, la correzione di Bonferroni è uno dei numerosi metodi utilizzati per contrastare il problema dei confronti multipli.

Origine modifica

La correzione Bonferroni prende il nome dal matematico italiano Carlo Emilio Bonferroni per il suo uso delle disuguaglianze di Bonferroni.[1] Il suo sviluppo è spesso attribuito a Olive Jean Dunn, che ha descritto l'applicazione della procedura a intervalli di confidenza .[2][3]

Il test delle ipotesi statistiche si basa sul rifiuto dell'ipotesi nulla se la probabilità che i dati osservati sotto l'ipotesi nulla è bassa . Se vengono verificate più ipotesi, aumenta la possibilità di osservare un evento raro e, quindi, aumenta la probabilità di rifiutare erroneamente un'ipotesi nulla (ovvero, fare un errore di tipo I).[4]

La correzione di Bonferroni compensa l'aumento di tale probabilità verificando ogni singola ipotesi a un livello di significatività di  , dove   è il livello di significatività statistica e   è il numero di ipotesi.[5] Ad esempio, se sto testando   ipotesi con un desiderato  , allora la correzione di Bonferroni verificherà ogni singola ipotesi con  .

Definizione modifica

Siano   una famiglia di ipotesi e   i loro corrispondenti valori p. Sia   il numero totale di ipotesi nulle e   il numero di ipotesi nulle vere. Il tasso di errore familiare (FWER) è la probabilità di rifiutare almeno una   vera, cioè di commettere almeno un errore di tipo I. La correzione Bonferroni respinge l'ipotesi nulla per ciascun  , controllando in tal modo il FWER  . La prova di questo controllo deriva dalla disuguaglianza di Boole, come segue:

 

Questo controllo non richiede alcuna assunzione sulla dipendenza tra i valori p o su quante delle ipotesi nulle siano vere.[6]

Estensioni modifica

Generalizzazione modifica

Piuttosto che verificare ogni ipotesi al livello di  , le ipotesi possono essere verificate a qualsiasi altra combinazione di livelli che si sommano ad  , a condizione che il livello di ciascun test sia determinato prima di esaminare i dati.[7] Ad esempio, per due test di ipotesi, un totale   di 0,05 potrebbe essere mantenuto eseguendo una prova a 0,04 e l'altra a 0,01.

Intervalli di confidenza modifica

La correzione Bonferroni può essere utilizzata per regolare gli intervalli di confidenza . Se uno stabilisce   intervalli di confidenza e desidera avere un livello di confidenza complessivo di  , ogni intervallo di confidenza individuale può essere regolato con un livello di  .[2][3]

Alternative modifica

Esistono modi alternativi per controllare il tasso di errore familiare . Ad esempio, il metodo Holm-Bonferroni e la correzione Šidák sono procedure universalmente più potenti della correzione Bonferroni, il che significa che sono sempre almeno altrettanto potenti. A differenza della procedura Bonferroni, questi metodi non controllano il valore atteso degli errori di tipo I per famiglia (il tasso di errore di tipo I per famiglia).[8]

Critica modifica

Per quanto riguarda il controllo FWER, la correzione di Bonferroni può essere prudente se ci sono molti test e/o se le statistiche dei test sono correlate positivamente.[9]

La correzione ha il costo di aumentare la probabilità di produrre falsi negativi, cioè di ridurre la potenza statistica.[9][10] Non esiste un consenso definitivo su come definire una famiglia in tutti i casi e i risultati adeguati dei test possono variare a seconda del numero di test inclusi nella famiglia di ipotesi. Tali critiche si applicano al controllo FWER in generale e non sono specifiche della correzione Bonferroni.

Note modifica

  1. ^ Bonferroni, C. E., Teoria statistica delle classi e calcolo delle probabilità, Pubblicazioni del R Istituto Superiore di Scienze Economiche e Commerciali di Firenze 1936
  2. ^ a b Olive Jean Dunn, Estimation of the Means for Dependent Variables, in Annals of Mathematical Statistics, vol. 29, n. 4, 1958, pp. 1095–1111, DOI:10.1214/aoms/1177706374.
  3. ^ a b Olive Jean Dunn, Multiple Comparisons Among Means (PDF), in Journal of the American Statistical Association, vol. 56, n. 293, 1961, pp. 52–64, DOI:10.1080/01621459.1961.10482090.
  4. ^ Ron C. Mittelhammer, George G. Judge e Douglas J. Miller, Econometric Foundations, Cambridge University Press, 2000, pp. 73–74, ISBN 978-0-521-62394-0.
  5. ^ Rupert G. Miller, Simultaneous Statistical Inference, Springer, 1966, ISBN 9781461381228.
  6. ^ Jelle J. Goeman e Aldo Solari, Multiple Hypothesis Testing in Genomics, in Statistics in Medicine, vol. 33, n. 11, 2014, pp. 1946–1978, DOI:10.1002/sim.6082, PMID 24399688.
  7. ^ AF Neuwald e P Green, Detecting patterns in protein sequences, in J. Mol. Biol., vol. 239, n. 5, 1994, pp. 698–712, DOI:10.1006/jmbi.1994.1407, PMID 8014990.
  8. ^ Andrew Frane, Are per-family Type I error rates relevant in social and behavioral science?, in Journal of Modern Applied Statistical Methods, vol. 14, n. 1, 2015, pp. 12–23, DOI:10.22237/jmasm/1430453040.
  9. ^ a b Matthew Moran, Arguments for rejecting the sequential Bonferroni in ecological studies, in Oikos, vol. 100, n. 2, 2003, pp. 403–405, DOI:10.1034/j.1600-0706.2003.12010.x.
  10. ^ Shinichi Nakagawa, A farewell to Bonferroni: the problems of low statistical power and publication bias, in Behavioral Ecology, vol. 15, n. 6, 2004, pp. 1044–1045, DOI:10.1093/beheco/arh107.

Collegamenti esterni modifica

  Portale Statistica: accedi alle voci di Wikipedia che trattano di statistica