Disuguaglianza di Markov: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
m spazio indivisibile
Aggiunta della legge debole dei grandi numeri
Riga 65:
 
<math>P(|X-\mathbb{E}[X]|\geq t \sigma)\leq\frac{1}{t^2}</math>
 
== Legge debole dei grandi numeri ==
La diseguaglianza di Čebyšëv, viene inoltre utilizzata nella famosa legge dei grandi numeri, di cui qui verrà dimostrata il suo enunciato cosiddetto "debole". L'enunciato è il seguente:
 
Consideriamo una popolazione di <math>N</math> elementi di variabili aleatorie '''indipendenti''' tutte di valore atteso <math>\mu</math> e varianza <math>\sigma^{2}</math>.
 
<math>\{X_n\}_{n \in \mathbb{N},
\ n\leq N } \subset \mathbb{R}</math>
 
<math>\mathbb{E}[X_n] = \mu, \ \forall n</math>
 
<math>Var(X_n)=\sigma^2, \ \forall n</math>
 
E definendo lo stimatore del valor medio <math>\bar{X}_N = \frac{1}{N}\sum_{n=1}^{N} X_n</math> si ha
 
<math>\forall \epsilon \in \mathbb{R}^+ \lim_{N\rightarrow\infty} P(|\bar{X}_N-\mu|\leq\epsilon)=1</math>
 
Il che vuol dire che aumentando la grandezza della popolazione in nostro possesso, lo stimatore del valor medio va sempre di più a coincidere con il valore atteso.
 
== Dimostrazione ==
Applichiamo la disuguaglianza di Čebyšëv allo stimatore del valor medio:
 
<math>P(|\bar{X}_N-\mathbb{E}[\bar{X}_N]|\geq\epsilon)\leq \frac{Var(\bar{X}_N)}{\epsilon^2}</math>
 
Con <math>\epsilon \in \mathbb{R}^+</math> arbitrario.
 
Per le proprietà di linearità del valore atteso abbiamo che in generale la media aritmetica di variabili aleatorie di diverso valore atteso corrisponde a uno stimatore di valore atteso pari alla media aritmetica dei singoli valori attesi. Nel nostro caso tutte le <math>X_n</math> hanno lo stesso valore atteso <math>\mu</math>, pertanto
 
<math>\mathbb{E}[\bar{X}_N]=\frac{1}{N}\sum_{n=1}^N \mathbb{E}[X_n] =\mu</math>
 
Poiché le <math>X_n</math> sono indipendenti tra di loro vale quanto segue <math>\forall a,b \in \mathbb{R}, \forall i, j \in \mathbb{N} \ t.c. \ i\leq j\leq N</math>
 
<math>Var(aX_i+bX_j)=a^2Var(X_i)+b^2Var(X_j)</math>
 
Nel nostro caso quindi abbiamo che
 
<math>Var(\bar{X}_N)=\frac{1}{N^2}\sum_{n=1}^N Var(X_n)=\frac{\sigma^2}{N}</math>
 
Quindi riscriviamo la nostra relazione alla luce di quanto detto
 
<math>P(|\bar{X}_N-\mu|\geq\epsilon)\leq \frac{\sigma^2}{N\epsilon^2} \rightarrow 1-P(|\bar{X}_N-\mu|\geq\epsilon)\geq 1-\frac{\sigma^2}{N\epsilon^2}</math>
 
Il primo termine può essere riscritto mediante il complementare dell'evento di cui stiamo calcolando la probabilità
 
<math>1-P(|\bar{X}_N-\mu|\geq\epsilon)=P(|\bar{X}_N-\mu|\leq\epsilon)</math>
 
Ma comunque la probabilità di qualunque evento è al più 1:
 
<math>P(|\bar{X}_N-\mu|\leq\epsilon)\geq 1-\frac{\sigma^2}{N\epsilon^2}\leq 1</math>
 
Pertanto se portiamo al limite tale espressione otteniamo quanto stavamo cercando
 
<math>\lim_{N\rightarrow\infty} P(|\bar{X}_N-\mu|\leq\epsilon)=1</math>
 
Il che vuol dire che è certo l'evento preso in considerazione, ovvero che [[Sufficientemente grande|definitivamente]] la distanza tra <math>\bar{X}_N</math> e <math>\mu</math> è maggiorata da <math>\epsilon</math> arbitrario positivo
 
<math>\forall \epsilon >0 \ \exist \bar{N} \ t.c. \forall N > \bar{N}</math>
 
<math>|\bar{X}_N-\mu|\leq \epsilon</math>
 
Il che significa in conclusione che
 
<math>\lim_{N\rightarrow\infty}\bar{X}_N = \mu</math>
 
== Voci correlate ==