Varianza: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Nessun oggetto della modifica
Pagina sostituita con '{{disambigua}} *'''Varianza (probabilità)''' - in probabilità è una funzione di una variabile aleatoria. *'''Varianza (statistica)''' - in ...'
Riga 1:
{{disambigua}}
{{nota disambigua|il grado di libertà di un sistema|[[Grado di libertà (chimica)]]}}
*'''[[Varianza (probabilità)]]''' - in [[probabilità]] è una funzione di una [[variabile aleatoria]].
*'''[[Varianza (statistica)]]''' - in [[statistica]] è un [[indice di dispersione]].
 
Nella [[teoria della probabilità]] e in [[statistica]] la '''varianza''' di una [[variabile aleatoria]] ''x'' (e della [[distribuzione di probabilità]] che questa segue) è una [[Funzione (matematica)|funzione]] indicata con '''[[sigma (lettera greca)|σ]]<sup>2</sup>(x)''', o a volte con '''Var(X)''', che fornisce una misura di quanto siano vari i valori assunti dalla variabile, ovvero di quanto si discostino dal [[valore atteso]] ''<math>\mathbb E[x]</math>''.
 
== Definizione ==
La varianza di ''x'' è definita come il [[valore atteso]] del quadrato della variabile aleatoria centrata ''<math>x-\mathbb{E}[x]</math>''
:<math>\sigma^2(x)=\mathbb{E}\Big[\big(x-\mathbb{E}[x]\big)^2\Big] = \mathbb{E} \left[ x^2 \right]-\mathbb{E}[x]^2 </math>
 
In [[statistica]] viene spesso preferita la [[radice quadrata]] della varianza di ''x'', chiamata [[scarto quadratico medio|scarto tipo]] (o ''[[scarto quadratico medio]]'') e indicata con la lettera greca [[sigma (lettera greca)|σ]]. Per questo motivo la varianza viene indicata con σ<sup>2</sup>.
 
Un esempio di "misura" dello scostamento di una variabile aleatoria dalla media è dato dalla [[disuguaglianza di Čebyšëv]] che ''controlla'' questo scostamento in termini dello scarto tipo:
:<math>P\Big(\big|x-\mathbb{E}[x]\big|\geqslant\lambda \sigma(x)\Big)\leqslant\frac{1}{\lambda^2}</math>
 
== Proprietà ==
La varianza di una variabile aleatoria non è mai negativa, ed è zero solamente quando la variabile assume ''[[insieme trascurabile|quasi certamente]]'' un solo valore, ''P(x=x)=1''.
 
Una formula alternativa per la varianza è
:<math>\sigma^2(x)=\mathbb{E}[x^2]-\mathbb{E}[x]^2\ </math>
Questa formula è a volte più pratica per calcolare la varianza.
{{cassetto|Dimostrazione|
La varianza di ''x'' è per definizione pari al [[valore atteso]] di
:<math>(x-\mathbb{E}[x])^2=x^2-2x\mathbb{E}[x]+\mathbb{E}[x]^2\ </math>:
per la [[trasformazione lineare|linearità]] del valore atteso si ottiene
:<math>\sigma^2(x)=\mathbb{E}[x^2-2x\mathbb{E}[x]+\mathbb{E}[x]^2]=\mathbb{E}[x^2]-2\mathbb{E}[x]\mathbb{E}[x]+\mathbb{E}[x]^2=\mathbb{E}[x^2]-\mathbb{E}[x]^2\ </math>.
}}
 
=== Linearità ===
La varianza è invariante per [[traslazione (geometria)|traslazione]], che lascia fisse le distanze dalla media, e cambia quadraticamente per [[omotetia|riscalamento]]:
:<math>\sigma^2(ax+b)=a^2\sigma^2(x)\ </math>
{{cassetto|Dimostrazione|
Sfruttando la [[trasformazione lineare|linearità]] del [[valore atteso]] si trova
:<math>(ax+b)-\mathbb{E}[ax+b]=ax+b-a\mathbb{E}[x]-b=a(x-\mathbb{E}[x])</math>,
quindi
:<math>\sigma^2(ax+b)=\mathbb{E}[a^2(x-\mathbb{E}[x])^2]=a^2\sigma^2(x)\ </math>.
}}
 
La varianza della somma di due [[variabili indipendenti]] o anche solo incorrelate è pari alla somma delle loro varianze
:<math>\sigma^2(x+y)=\sigma^2(x)+\sigma^2(y)\ </math>
{{cassetto|Dimostrazione|
Se <math>\mathbb{E}[x]=\mathbb{E}[y]=0</math>, allora <math>\mathbb{E}[xy]=0</math> e
:<math>\sigma^2(x+y)=\mathbb{E}[(x+y)^2]=\mathbb{E}[x^2]+2\mathbb{E}[xy]+\mathbb{E}[y^2]=\sigma^2(x)+\sigma^2(y)+2\mathbb{E}[xy]\ </math>,
e siccome le variabili sono indipendenti risulta <math>\mathbb{E}[xy]=\mathbb{E}[x]\mathbb{E}[y]=0</math>.
 
Nel caso generale basta traslare le variabili di modo che abbiano valore atteso nullo (come <math>x'=x-\mathbb{E}[x]</math>); la loro varianza non cambia.
}}
 
Usande le due precedenti affermazioni, possiamo dire che la varianza della differenza di due [[variabili indipendenti]] è pari alla somma delle loro varianze
:<math>\sigma^2(x-y)=\sigma^2(x+(-y))=\sigma^2(x) + \sigma^2(-y) = \sigma^2(x) + \sigma^2(y) \ </math>
 
 
Se ''x'' e ''y'' non sono indipendenti, la formula viene corretta dalla loro [[covarianza]],
:<math>\sigma^2(x+y)=\sigma^2(x)+\sigma^2(y)+2\sigma^2(x,y)\ </math>,
dove
:<math>\sigma^2(x,y)=\mathbb{E}[xy]-\mathbb{E}[x]\mathbb{E}[y]\ </math>
 
In particolare, la [[media aritmetica]] <math>\textstyle \bar{x}=\frac{x_1+\ldots+x_n}{n}</math> di ''n'' variabili aleatorie indipendenti aventi la medesima legge, ha varianza aritmetica
:<math>\sigma^2(\bar{x})=\frac{1}{n^2}\sigma^2(x_1+\ldots+x_n)=\frac{1}{n}\sigma^2(x_1)</math>
 
== Variabili discrete e continue ==
La varianza di una variabile aleatoria [[variabile casuale discreta|discreta]] ''x'' a valori in un insieme ''X'' si calcola attraverso la sua [[funzione di probabilità]]:
:<math>\mathbb{E}[x]=\sum_{y\in X}yP(x=y)</math>
:<math>\sigma^2(x)=\sum_{y\in X}(y-\mathbb{E}[x])^2P(x=y)</math>
 
La varianza di una variabile aleatoria [[variabile casuale continua|continua]] ''x'' a valori in un insieme ''X'' si calcola attraverso la sua [[densità di probabilità]]:
:<math>\mathbb{E}[x]=\int_X yf(y) dy\ </math>
:<math>\sigma^2(x)=\int_X (y-\mathbb{E}[x])^2f(y) dy\ </math>
 
== Statistica ==
In statistica viene utilizzata più spesso della varianza la sua [[radice quadrata]], vale a dire lo [[scarto quadratico medio]] <math>\sigma=\sqrt{\sigma^2(x)}</math> anche detto [[deviazione standard]]. Con riferimento a questa notazione la varianza si trova quindi anche indicata come <math>\sigma^2</math>.
 
=== Stimatori ===
In [[statistica]] si utilizzano solitamente due [[stimatore|stimatori]] per la varianza su un campione di cardinalità ''n'':
:<math>S^2_n=\frac{\sum_{i=1}^n(x_i-\bar{x})^2}{n}\quad</math> e <math>\quad S^2_{n-1}=\frac{\sum_{i=1}^n(x_i-\bar{x})^2}{n-1}</math>,
 
(anche chiamati ''varianza campionaria'') dove <math>\textstyle \bar{x}=\frac{x_1+\ldots+x_n}{n}</math> è lo stimatore per la [[media (statistica)|media]].
 
Lo stimatore ''S<sub>n-1</sub>'' è privo di [[Bias_(statistica)|bias]], ovvero il suo [[valore atteso]] è proprio la varianza <math>\mathbb{E}[S^2_{n-1}]=\sigma^2(x)</math>.</br>
Al contrario, lo stimatore ''S<sub>n</sub>'' ha un valore atteso diverso dalla varianza, <math>\mathbb{E}[S^2_n]=\textstyle \frac{n-1}{n}\sigma^2(x)</math>.
 
Una giustificazione del termine ''n''-1 è data dalla necessità di stimare anche la media.
Se la media μ è nota, lo stimatore ''S<sub>n</sub>'' diventa corretto. Questa è detta "Correzione di Bessel".
 
 
:<math>
\begin{align}
\operatorname{\mathbb{E}}[S_{n-1}^2] & = \operatorname{\mathbb{E}}\left[\frac{1}{n-1} \sum_{i=1}^n x_i^2 ~ - ~ \frac{n}{n-1} \overline{x}^2 \right] \\[8pt]
& = \frac{1}{n-1}\left( \sum \operatorname{\mathbb{E}}[x_i^2] ~ - ~ n \operatorname{\mathbb{E}}[\overline{x}^2] \right) \\[8pt]
& = \frac{1}{n-1}\left( n \operatorname{\mathbb{E}}[x^2] ~ - ~ n \operatorname{\mathbb{E}}[\overline{x}^2] \right) \\[8pt]
& = \frac{n}{n-1}\left( \sigma^2(x) + \operatorname{\mathbb{E}}[x]^2 ~ - ~ \sigma^2(\overline{x}) - \operatorname{\mathbb{E}}[\overline{x}]^2 \right) \\[8pt]
& = \frac{n}{n-1}\left( \sigma^2(x) + \mu^2 ~ - ~ \frac{1}{n}\sigma^2(x) - \mu^2 \right) \\[8pt]
& = \frac{n}{n-1}\left( \frac{n-1}{n} ~ \sigma^2(x) \right) \\[8pt]
& = \sigma^2.
\end{align}
</math>
 
In contrasto con,
:<math>\operatorname{\mathbb{E}}[S_n^2] = \frac{n-1}{n} \sigma^2.</math>
 
 
Se le ''x<sub>i</sub>'' seguono la [[variabile casuale normale|legge normale]] ''N''(μ,σ), lo stimatore ''S<sup>2</sup><sub>n-1</sub>'' segue una [[variabile casuale chi quadro|legge del χ<sup>2</sup>]]
:<math></math>
 
=== Varianza osservata ===
Come per gli stimatori, esistono due diverse varianze osservate sui dati di un campione <math>x_1,\ldots,x_n</math> di media osservata <math>\textstyle \bar{x}=\frac{\sum_i x_i}{n}</math>,
:<math>s^2_n=\frac{\sum_i(x_i-\bar{x})^2}{n}\quad</math> e <math>\quad s^2_{n-1}=\frac{\sum_i(x_i-\bar{x})^2}{n-1}</math>.
In particolare, <math>s_n</math> è la [[media quadratica]] delle distanze dei valori dalla loro media.
 
== Esempi ==
Una variabile aleatoria ''x'' di [[variabile casuale di Bernoulli|legge di Bernoulli]] ''B(p)'', ovvero che ha probabilità ''p'' di fornire "1" e probabilità ''q''=1-''p'' di fornire "0", ha valore medio
:<math>\mathbb{E}[x]=0P(x=0)+1P(x=1)=P(x=1)=p</math>;
la sua varianza può essere calcolata come
:<math>\sigma^2(x)=\mathbb{E}[(x-\mathbb{E}[x])^2]=\mathbb{E}[(x-p)^2]=p^2P(x=0)+q^2P(x=1)=pq(p+q)=pq\ </math>
oppure come
:<math>\sigma^2(x)=\mathbb{E}[x^2]-\mathbb{E}[x]^2=P(x=1)-p^2=p(1-p)=pq\ </math>.
 
 
Il campione {-4, -1, 1, 2, 7} ha media aritmetica
:<math>\mu=\frac{-4-1+1+2+7}{5}=1</math>
e le varianze aritmetiche osservate sono
:<math>\sigma^2_n=\frac{(-4-1)^2+(-1-1)^2+(1-1)^2+(2-1)^2+(7-1)^2}{5}=\frac{25+4+0+1+36}{5}=\frac{66}{5}=13,2</math>
e
:<math>\sigma^2_{n-1}=\frac{66}{5-1}=16,5</math>.
 
== Voci correlate ==
* [[Covarianza]]
* [[Legge della varianza totale]]
* [[Scarto quadratico medio]]
* [[Valore atteso]]
* [[Variabili indipendenti]]
 
== Collegamenti esterni ==
* {{Thesaurus BNCF}}
 
{{Statistica}}