Distribuzione beta-binomiale

In teoria delle probabilità la distribuzione casuale beta-binomiale è una famiglia di distribuzioni di probabilità discrete che può essere vista come generalizzazione della distribuzione binomiale. Descrive la distribuzione del numero di successi su n esperimenti indipendenti di tipo sì/no, ma, contrariamente alla distribuzione Binomiale, la probabilità di successo non è un parametro fisso π, ma è un valore distribuito come una variabile casuale Beta B(a,b). Si tratta infatti di una mistura di Binomiali in cui il parametro π ha distribuzione Beta.

La distribuzione beta-binomiale dipende da tre parametri: n, a, b.

DefinizioneModifica

Se X~BeB(n,a,b) è una variabile casuale distribuita come una variabile casuale beta-binomiale con i parametri n, a, b allora per  

 

dove la costante C è data da

 

e   è la funzione gamma.

Un modo alternativo per descrivere la BeB(n,a,b) è dato da

 

dove   è la funzione beta di Eulero.

CaratteristicheModifica

Il valore atteso dipende da tutti e tre i parametri

 

così come pure la varianza

 

l'assimetria viene indicata con

 
= 

Utilizzando la notazione   il valore atteso e la varianza possono essere descritti in una forma che ricorda quella della variabile casuale binomiale.

 
 

dalla quale si nota che a parità di valore atteso (ed n) la variabile casuale beta-binomiale ha sempre una varianza maggiore della variabile casuale binomiale.

e l'assimitria viene indicata con

 
 

e così anche in questo caso diventa evidente come l'asimmetria della beta-binomiale sia sempre maggiore dell'asimmetria della binomiale, a parità valore atteso (ed n).

Casi particolariModifica

Nel caso che a=1 e b=1, allora si tratta di una variabile casuale uniforme discreta con P(X=x)=1/(n+1) essendoci n+1 valori possibili.

Ambiti di applicazioneModifica

La variabile casuale beta-binomiale è idonea a descrivere fenomeni solitamente descritti dalla variabile casuale binomiale, qualora però la probabilità vari.

Un possibile caso è quello di prevedere quante lampadine si fulminano entro 1 anno dall'installazione sapendo che la probabilità che si fulminino non è uguale per tutte, ma riesce ad essere descritta da una variabile casuale Beta.

Analogamente, qualora ci si trovi di fronte ad un modello che dovrebbe essere descritto da una variabile casuale binomiale, ma dove i dati mostrano una distribuzione molto "larga", allora si può sospettare che la probabilità degli eventi non sia costante, ma vari attorno ad un valore come nel modello beta-binomiale.

EsempiModifica

Probabilità di estrarre X palline rosse da un'urna della quale si conosce solo approssimativamente la composizioneModifica

Un modelloModifica

Nell'ambito dell'inferenza bayesiana, da un'urna della quale si ignora il numero di palline presenti ma che da estrazioni precedenti risulta che vi siano una percentuale di palline rosse che varia come una variabile casuale Beta(a,b), dovranno essere estratte (e ogni volta reinserite) n palline. Ci si chiede quale sia la probabilità che x di queste siano rosse. La risposta sta nella variabile casuale BetaB(n,a,b)

Esempio numericoModifica

Partendo da un concetto di completa ignoranza che ci porta a descrivere la distribuzione a priori come una variabile casuale uniforme continua e dunque come una Beta(1,1) vengono estratte 15 palline, delle quali solo una è rossa. In questo modo la probabilità a posteriori diventa una variabile casuale Beta(1+1,1+14)=Beta(2,15).

A questo punto si decide di fare un'ulteriore estrazione di 40 palline e ci si chiede quale sia la probabilità che esattamente due di queste siano rosse.

Essendo in questa seconda estrazione la probabilità P(X=x) quella di una variabile casuale BetaB(40,2,15) si ottiene che

 

dove

 

ed essendo   e inoltre essendo in generale   e pertanto

 
 
 
 
 
 

si ottiene

 
 
 
 
Le due variabili casuali usate nell'esempio

Questo risultato è diverso da quello che si sarebbe ottenuto utilizzando come probabilità di successo la stima puntuale, vale a dire la semplice proporzione ottenuta nella prima serie di estrazioni (1/15 = 6,67%) e applicando per la seconda la variabile casuale binomiale B(n=40,p=1/15). In questo caso si sarebbe ottenuto P(X=2 | n=40, p=1/15) = 25,19%.

Il grafico mette in evidenza il fatto che la variabile casuale B(n=40,p=1/15) è molto più "stretta" della BetaB(40,2,15), ciò è dovuto al fatto che nell'approccio bayesiano non ci si "dimentica" che vi è un'incertezza su quale sia la vera proporzione di palline rosse e questa incertezza rende probabili anche valori più "distanti".

Scelta bayesiana tra due modelli: Estrazione da un'urna: determinare a quale urna nota corrisponda un'urnaModifica

  • Di un'urna si sa che una percentuale ignota di palline sono rosse.
  • Si sa che l'urna è o l'urna A oppure l'urna B.
  • Dall'urna A sono state estratte in passato 10 palline, delle quali 2 rosse (dunque il 20%),
  • mentre dall'urna B in passato su 15 palline estratte 10 erano rosse (pari al 67%).
  • Nulla fa pensare che l'urna in questione sia l'urna A piuttosto che l'urna B.
  • Né dell'urna A, né dell'urna B si conosce il numero complessivo di palline.
  • dall'urna in questione vengono estratte 50 palline, delle quali 12 sono rosse (il 24%).

Domande

  • qual è la probabilità che l'urna in questione sia l'urna A?
  • qual è la distribuzione a posteriori della percentuale di palline rosse?
  • qual è la probabilità che dall'urna in questione alla prossima estrazione di 10 palline, neanche una volta esca una rossa?

Nell'ambito dell'inferenza bayesiana si può dire pertanto che

  • la probabilità a priori che l'urna in questione sia l'urna A è pari a P(U=A)=1/2 e di conseguenza P(U=B)=1-P(U=A)=1/2
  • per l'urna A, grazie all'estrazione di 10 palline, delle quali 2 rosse, la distribuzione a posteriori della percentuale di palline rosse è una variabile casuale Beta  , nel caso che la distribuzione a priori sia una rettangolare, equivalente ad una Beta(1,1)
  • analogamente per l'urna B, la distribuzione a posteriori è una  

Per procedere è necessario fare ricorso alla variabile casuale beta-binomiale, infatti sapendo che su 50 palline estratte 12 sono rosse, si può calcolare la probabilità   che si tratti dell'urna A, nel seguente modo

 

che grazie al fatto che P(U=B)=1-P(U=A)=1/2=P(U=A) si semplifica ottenendo

 

tenuto conto dei valori dell'esempio, si calcola

 
 
 

ciò vuol dire che la probabilità che l'urna in questione sia l'urna A è del 98,4%. Questo risultato è comprensibile, visto che il 24% dell'urna ignota è molto più prossimo al 20% dell'urna A che non al 67% dell'urna B.

Tenuto conto delle prime due estrazioni (quando le urne erano note) e l'estrazione dall'urna della quale si era perso il nome, e del fatto che al 98,4% l'urna in questione è l'urna A, ma che c'è pur sempre una probabilità dell'1,6% che si tratti dell'urna B, la percentuale di palline rosse in questa urna della quale non si sa quale delle due sia viene descritta dalla mistura delle due variabili casuali   (con i=A,B) ponderate con le probabilità P(U=i|X=x,n).

Una volta nota tale mistura di variabili casuali è possibile calcolare la probabilità che alla prossima estrazione di 10 palline neanche una sia rossa. Par fare ciò è necessario fare ricorso a tecniche di calcolo numerico.

BibliografiaModifica

  • (DE) Leonhard Held, Methoden der statistischen Inferenz. Likelihood und Bayes, con la collaborazione di Daniel Sabanés Bové, Spektrum Akademischer Verlag Heidelberg 2008, ISBN 978-3-8274-1939-2
  • (EN) Jim Albert, Bayesian Computation With R, Springer New York, 2009, ISBN 978-0-387-92297-3 [1][collegamento interrotto]

Collegamenti esterniModifica