In statistica e in teoria della probabilità la varianza di una variabile statistica o di una variabile aleatoria
X
{\displaystyle X}
è una funzione , indicata con
σ
X
2
{\displaystyle \sigma _{X}^{2}}
o con
V
a
r
(
X
)
{\displaystyle \mathrm {Var} (X)}
(o semplicemente con
σ
2
{\displaystyle \sigma ^{2}}
se la variabile è sottintesa), che fornisce una misura della variabilità dei valori assunti dalla variabile stessa; nello specifico, la misura di quanto essi si discostino quadraticamente rispettivamente dalla media aritmetica o dal valore atteso
E
[
X
]
{\displaystyle \mathbb {E} [X]}
. La varianza è una misura di dispersione , ossia una misura di quanto un dato insieme di numeri si discosta dal suo valore medio. Se
X
{\displaystyle X}
assume valori lontani dalla sua media, la sua varianza sarà conseguentemente grande. Al contrario, se la variabile aleatoria rimane costante, la sua varianza sarà nulla. Essa rappresenta il momento centrato del second'ordine della variabile
X
{\displaystyle X}
, se esiste finito, e la covarianza tra la variabile aleatoria e sé stessa.
Esempio di campioni da due popolazioni con la stessa media ma diversa varianza. La popolazione rossa ha media 100 e varianza 100 (SD=10), invece la popolazione blu ha media 100 e varianza 2500 (SD=50).
Il termine di "varianza" venne introdotto nel 1918 da Ronald Fisher [ 1] e sostituì nel tempo la denominazione di "deviazione standard quadratica" utilizzata da Karl Pearson .
La varianza della variabile aleatoria
X
{\displaystyle X}
è definita come il valore atteso del quadrato della variabile aleatoria centrata
X
−
E
[
X
]
{\displaystyle X-\mathbb {E} [X]}
σ
X
2
=
E
[
(
X
−
E
[
X
]
)
2
]
.
{\displaystyle \sigma _{X}^{2}=\mathbb {E} {\Big [}{\big (}X-\mathbb {E} [X]{\big )}^{2}{\Big ]}.}
Un esempio di "misura" dello scostamento di una variabile aleatoria dalla media è dato dalla disuguaglianza di Čebyšëv che controlla questo scostamento in termini dello scarto tipo:
P
(
|
X
−
E
[
X
]
|
⩾
λ
σ
X
)
⩽
1
λ
2
,
{\displaystyle P{\Big (}{\big |}X-\mathbb {E} [X]{\big |}\geqslant \lambda \sigma _{X}{\Big )}\leqslant {\frac {1}{\lambda ^{2}}},}
dove
σ
X
=
σ
X
2
{\displaystyle \sigma _{X}={\sqrt {\sigma _{X}^{2}}}}
La varianza di una variabile aleatoria non è mai negativa, ed è zero solamente quando la variabile assume quasi certamente un solo valore
x
0
{\displaystyle x_{0}}
, cioè se
P
(
X
=
x
0
)
=
1
{\displaystyle P(X=x_{0})=1}
.
Massimo e minimo della varianza fissati i valori estremi della distribuzione
modifica
Dato un insieme di
n
{\displaystyle n}
unità statistiche, dove
m
i
n
{\displaystyle \mathrm {min} }
e
m
a
x
{\displaystyle \mathrm {max} }
sono i valori minimo e massimo tra le unità, il massimo valore che può assumere la varianza è uguale a
σ
m
a
x
2
=
(
m
a
x
−
m
i
n
)
2
4
.
{\displaystyle \sigma _{\mathrm {max} }^{2}={\frac {(\mathrm {max} -\mathrm {min} )^{2}}{4}}.}
Se dalle osservazioni si conosce soltanto la media
μ
{\displaystyle \mu }
, il valore è uguale a
σ
m
a
x
2
=
μ
2
(
n
−
1
)
.
{\displaystyle \sigma _{\mathrm {max} }^{2}=\mu ^{2}(n-1).}
Espressione della varianza come differenza tra il momento di ordine 2 e il quadrato del valore atteso
modifica
Una formula alternativa per la varianza è
σ
X
2
=
E
[
X
2
]
−
E
[
X
]
2
.
{\displaystyle \sigma _{X}^{2}=\mathbb {E} [X^{2}]-\mathbb {E} [X]^{2}.}
Questa formula è più pratica per calcolare la varianza.
Dimostrazione
La varianza di
X
{\displaystyle X}
è per definizione uguale al valore atteso di
(
X
−
E
[
X
]
)
2
=
X
2
−
2
X
E
[
X
]
+
E
[
X
]
2
{\displaystyle (X-\mathbb {E} [X])^{2}=X^{2}-2X\mathbb {E} [X]+\mathbb {E} [X]^{2}}
:
per la linearità del valore atteso si ottiene
σ
X
2
=
E
[
X
2
−
2
X
E
[
X
]
+
E
[
X
]
2
]
=
E
[
X
2
]
−
2
E
[
X
]
E
[
X
]
+
E
[
X
]
2
=
E
[
X
2
]
−
E
[
X
]
2
.
{\displaystyle \sigma _{X}^{2}=\mathbb {E} [X^{2}-2X\mathbb {E} [X]+\mathbb {E} [X]^{2}]=\mathbb {E} [X^{2}]-2\mathbb {E} [X]\mathbb {E} [X]+\mathbb {E} [X]^{2}=\mathbb {E} [X^{2}]-\mathbb {E} [X]^{2}.}
La varianza è invariante per traslazione , che lascia fisse le distanze dalla media, e cambia quadraticamente per riscalamento :
σ
a
X
+
b
2
=
a
2
σ
X
2
{\displaystyle \sigma _{aX+b}^{2}=a^{2}\sigma _{X}^{2}}
Dimostrazione
Sfruttando la linearità del valore atteso si trova
(
a
X
+
b
)
−
E
[
a
X
+
b
]
=
a
X
+
b
−
a
E
[
X
]
−
b
=
a
(
X
−
E
[
X
]
)
,
{\displaystyle (aX+b)-\mathbb {E} [aX+b]=aX+b-a\mathbb {E} [X]-b=a(X-\mathbb {E} [X]),}
quindi
σ
a
X
+
b
2
=
E
[
a
2
(
X
−
E
[
X
]
)
2
]
=
a
2
σ
X
2
.
{\displaystyle \sigma _{aX+b}^{2}=\mathbb {E} [a^{2}(X-\mathbb {E} [X])^{2}]=a^{2}\sigma _{X}^{2}.}
Varianza della somma di due variabili indipendenti
modifica
La varianza della somma di due variabili indipendenti o anche solo incorrelate è pari alla somma delle loro varianze
σ
X
+
Y
2
=
σ
X
2
+
σ
Y
2
.
{\displaystyle \sigma _{X+Y}^{2}=\sigma _{X}^{2}+\sigma _{Y}^{2}.}
Varianza della differenza di due variabili indipendenti
modifica
Usando le due precedenti affermazioni, possiamo dire che la varianza della differenza di due variabili indipendenti è pari alla somma delle loro varianze
σ
X
−
Y
2
=
σ
X
+
(
−
Y
)
2
=
σ
X
2
+
σ
−
Y
2
=
σ
X
2
+
σ
Y
2
.
{\displaystyle \sigma _{X-Y}^{2}=\sigma _{X+(-Y)}^{2}=\sigma _{X}^{2}+\sigma _{-Y}^{2}=\sigma _{X}^{2}+\sigma _{Y}^{2}.}
Varianza della somma di due variabili non indipendenti
modifica
Se
X
{\displaystyle X}
e
Y
{\displaystyle Y}
non sono indipendenti, la formula viene corretta dalla loro covarianza ,
σ
X
+
Y
2
=
σ
X
2
+
σ
Y
2
+
2
σ
X
,
Y
,
{\displaystyle \sigma _{X+Y}^{2}=\sigma _{X}^{2}+\sigma _{Y}^{2}+2\sigma _{X,Y},}
dove
σ
X
,
Y
=
E
[
X
Y
]
−
E
[
X
]
E
[
Y
]
.
{\displaystyle \sigma _{X,Y}=\mathbb {E} [XY]-\mathbb {E} [X]\mathbb {E} [Y].}
In particolare, la media aritmetica
X
¯
=
X
1
+
…
+
X
n
n
{\displaystyle \textstyle {\bar {X}}={\frac {X_{1}+\ldots +X_{n}}{n}}}
di
n
{\displaystyle n}
variabili aleatorie indipendenti aventi la medesima distribuzione, ha varianza aritmetica
σ
X
¯
2
=
1
n
2
σ
X
1
+
…
+
X
n
2
=
1
n
σ
X
1
2
.
{\displaystyle \sigma _{\bar {X}}^{2}={\frac {1}{n^{2}}}\sigma _{X_{1}+\ldots +X_{n}}^{2}={\frac {1}{n}}\sigma _{X_{1}}^{2}.}
Variabili aleatorie discrete e continue
modifica
La varianza di una variabile aleatoria discreta
X
{\displaystyle X}
a valori in un insieme
A
{\displaystyle A}
si calcola attraverso la sua funzione di probabilità :
E
[
X
]
=
∑
x
∈
A
x
P
(
X
=
x
)
{\displaystyle \mathbb {E} [X]=\sum _{x\in A}xP(X=x)}
σ
X
2
=
∑
x
∈
A
(
x
−
E
[
X
]
)
2
P
(
X
=
x
)
.
{\displaystyle \sigma _{X}^{2}=\sum _{x\in A}(x-\mathbb {E} [X])^{2}P(X=x).}
La varianza di una variabile aleatoria continua
X
{\displaystyle X}
a valori in un insieme
A
{\displaystyle A}
si calcola attraverso la sua densità di probabilità :
E
[
X
]
=
∫
A
x
f
(
x
)
d
x
{\displaystyle \mathbb {E} [X]=\int _{A}xf(x)dx}
σ
X
2
=
∫
A
(
x
−
E
[
X
]
)
2
f
(
x
)
d
x
.
{\displaystyle \sigma _{X}^{2}=\int _{A}(x-\mathbb {E} [X])^{2}f(x)dx.}
Una variabile aleatoria di Bernoulli
X
{\displaystyle X}
, cioè che ha probabilità
p
{\displaystyle p}
di fornire "1" e probabilità
q
=
1
−
p
{\displaystyle q=1-p}
di fornire "0", ha valore atteso
E
[
X
]
=
0
⋅
P
(
X
=
0
)
+
1
⋅
P
(
X
=
1
)
=
P
(
X
=
1
)
=
p
,
{\displaystyle \mathbb {E} [X]=0\cdot P(X=0)+1\cdot P(X=1)=P(X=1)=p,}
e la sua varianza può essere calcolata come
σ
X
2
=
E
[
(
X
−
E
[
X
]
)
2
]
=
E
[
(
X
−
p
)
2
]
=
p
2
P
(
X
=
0
)
+
q
2
P
(
X
=
1
)
=
p
q
(
p
+
q
)
=
p
q
,
{\displaystyle \sigma _{X}^{2}=\mathbb {E} [(X-\mathbb {E} [X])^{2}]=\mathbb {E} [(X-p)^{2}]=p^{2}P(X=0)+q^{2}P(X=1)=pq(p+q)=pq,}
oppure come
σ
X
2
=
E
[
X
2
]
−
E
[
X
]
2
=
P
(
X
=
1
)
−
p
2
=
p
(
1
−
p
)
=
p
q
.
{\displaystyle \sigma _{X}^{2}=\mathbb {E} [X^{2}]-\mathbb {E} [X]^{2}=P(X=1)-p^{2}=p(1-p)=pq.}
In statistica la varianza è un indice di variabilità . Data una distribuzione di un carattere quantitativo
X
{\displaystyle X}
su una popolazione di
n
{\displaystyle n}
elementi, la varianza è la media aritmetica del quadrato delle distanze dei valori dalla loro media
σ
X
2
=
∑
i
(
x
i
−
μ
X
)
2
n
,
{\displaystyle \sigma _{X}^{2}={\frac {\sum _{i}(x_{i}-\mu _{X})^{2}}{n}},}
dove
μ
X
=
∑
i
x
i
n
{\displaystyle \textstyle \mu _{X}={\frac {\sum _{i}x_{i}}{n}}}
è la media aritmetica di
X
{\displaystyle X}
.
Nel caso si disponga della distribuzione di frequenze di un carattere , è possibile calcolare più facilmente la varianza attraverso la seguente formula:
σ
X
2
=
1
n
∑
j
=
1
K
(
x
j
−
μ
X
)
2
n
j
{\displaystyle \sigma _{X}^{2}={\frac {1}{n}}\sum _{j=1}^{K}(x_{j}-\mu _{X})^{2}n_{j}}
dove
K
{\displaystyle K}
rappresenta il numero di modalità in cui si presenta il carattere
X
{\displaystyle X}
, mentre
x
j
{\displaystyle x_{j}}
e
n
j
{\displaystyle n_{j}}
sono rispettivamente la
j
{\displaystyle j}
-esima modalità di
X
{\displaystyle X}
e la relativa frequenza assoluta .
A partire dalla precedente formula, ricordando che
n
j
/
n
=
f
j
{\displaystyle n_{j}/n=f_{j}}
, si ricava anche:
σ
X
2
=
∑
j
=
1
K
(
x
j
−
μ
X
)
2
f
j
{\displaystyle \sigma _{X}^{2}=\sum _{j=1}^{K}(x_{j}-\mu _{X})^{2}f_{j}}
dove
f
j
{\displaystyle f_{j}}
è la frequenza relativa della
j
{\displaystyle j}
-esima modalità.
Esiste, infine, una formula semplificata per il calcolo della varianza:
σ
X
2
=
(
1
n
∑
i
=
1
n
x
i
2
)
−
μ
X
2
.
{\displaystyle \sigma _{X}^{2}=\left({\frac {1}{n}}\sum _{i=1}^{n}x_{i}^{2}\right)-\mu _{X}^{2}.}
Le formule corrispondenti alla precedente che fanno uso della frequenza assoluta e di quella relativa sono:
σ
X
2
=
1
n
∑
j
=
1
K
x
j
2
n
j
−
μ
X
2
{\displaystyle \sigma _{X}^{2}={\frac {1}{n}}\sum _{j=1}^{K}x_{j}^{2}n_{j}-\mu _{X}^{2}}
σ
X
2
=
∑
j
=
1
K
x
j
2
f
j
−
μ
X
2
.
{\displaystyle \sigma _{X}^{2}=\sum _{j=1}^{K}x_{j}^{2}f_{j}-\mu _{X}^{2}.}
Un difetto della varianza è quello di non avere la stessa unità di misura dei valori analizzati (se, per esempio, questi sono in cm, la varianza sarà in cm2 ), perciò in statistica viene molto spesso utilizzata anche la radice quadrata della varianza, vale a dire lo scarto quadratico medio (o deviazione standard o scarto tipo )
σ
X
=
σ
X
2
{\displaystyle \sigma _{X}={\sqrt {\sigma _{X}^{2}}}}
. Con riferimento a questa notazione la varianza si trova quindi anche indicata come
σ
2
{\displaystyle \sigma ^{2}}
.
In statistica si utilizzano solitamente due stimatori per la varianza su un campione di cardinalità
n
{\displaystyle n}
:
S
n
2
=
∑
i
=
1
n
(
x
i
−
x
¯
)
2
n
{\displaystyle S_{n}^{2}={\frac {\sum _{i=1}^{n}(x_{i}-{\bar {x}})^{2}}{n}}\quad }
e
S
n
−
1
2
=
∑
i
=
1
n
(
x
i
−
x
¯
)
2
n
−
1
,
{\displaystyle \quad S_{n-1}^{2}={\frac {\sum _{i=1}^{n}(x_{i}-{\bar {x}})^{2}}{n-1}},}
dove
x
¯
=
x
1
+
…
+
x
n
n
{\displaystyle \textstyle {\bar {x}}={\frac {x_{1}+\ldots +x_{n}}{n}}}
è la media campionaria. Il primo è detto varianza campionaria , mentre il secondo è detto varianza campionaria corretta a causa della sua proprietà di correttezza . Infatti lo stimatore
S
n
−
1
2
{\displaystyle S_{n-1}^{2}}
è privo di distorsione , cioè il suo valore atteso è proprio la varianza:
E
[
S
n
−
1
2
]
=
σ
2
(
X
)
.
{\displaystyle \mathbb {E} [S_{n-1}^{2}]=\sigma ^{2}(X).}
Dimostrazione
E
[
S
n
−
1
2
]
=
E
[
1
n
−
1
∑
i
=
1
n
(
x
i
−
x
¯
)
2
]
=
E
[
1
n
−
1
∑
i
=
1
n
(
x
i
2
−
2
x
i
x
¯
+
x
¯
2
)
]
=
E
[
1
n
−
1
(
∑
i
=
1
n
x
i
2
−
2
x
¯
∑
i
=
1
n
x
i
+
n
x
¯
2
)
]
=
E
[
1
n
−
1
(
∑
i
=
1
n
x
i
2
−
2
n
x
¯
2
+
n
x
¯
2
)
]
=
E
[
1
n
−
1
(
∑
i
=
1
n
x
i
2
−
n
x
¯
2
)
]
=
E
[
1
n
−
1
∑
i
=
1
n
x
i
2
−
n
n
−
1
x
¯
2
]
=
1
n
−
1
(
∑
E
[
x
i
2
]
−
n
E
[
x
¯
2
]
)
=
1
n
−
1
(
n
E
[
x
2
]
−
n
E
[
x
¯
2
]
)
=
n
n
−
1
(
σ
2
(
x
)
+
E
[
x
]
2
−
σ
2
(
x
¯
)
−
E
[
x
¯
]
2
)
=
n
n
−
1
(
σ
2
(
x
)
+
μ
2
−
1
n
σ
2
(
x
)
−
μ
2
)
=
n
n
−
1
(
n
−
1
n
σ
2
(
x
)
)
=
σ
2
.
{\displaystyle {\begin{aligned}\operatorname {\mathbb {E} } [S_{n-1}^{2}]&=\operatorname {\mathbb {E} } \left[{\frac {1}{n-1}}\sum _{i=1}^{n}(x_{i}~-~{\overline {x}})^{2}\right]\\[8pt]&=\operatorname {\mathbb {E} } \left[{\frac {1}{n-1}}\sum _{i=1}^{n}(x_{i}^{2}~-~2x_{i}{\overline {x}}+{\overline {x}}^{2})\right]\\[8pt]&=\operatorname {\mathbb {E} } \left[{\frac {1}{n-1}}\left(\sum _{i=1}^{n}x_{i}^{2}~-~2{\overline {x}}\sum _{i=1}^{n}x_{i}+n{\overline {x}}^{2}\right)\right]\\[8pt]&=\operatorname {\mathbb {E} } \left[{\frac {1}{n-1}}\left(\sum _{i=1}^{n}x_{i}^{2}~-~2n{\overline {x}}^{2}+n{\overline {x}}^{2}\right)\right]\\[8pt]&=\operatorname {\mathbb {E} } \left[{\frac {1}{n-1}}\left(\sum _{i=1}^{n}x_{i}^{2}~-~n{\overline {x}}^{2}\right)\right]\\[8pt]&=\operatorname {\mathbb {E} } \left[{\frac {1}{n-1}}\sum _{i=1}^{n}x_{i}^{2}~-~{\frac {n}{n-1}}{\overline {x}}^{2}\right]\\[8pt]&={\frac {1}{n-1}}\left(\sum \operatorname {\mathbb {E} } [x_{i}^{2}]~-~n\operatorname {\mathbb {E} } [{\overline {x}}^{2}]\right)\\[8pt]&={\frac {1}{n-1}}\left(n\operatorname {\mathbb {E} } [x^{2}]~-~n\operatorname {\mathbb {E} } [{\overline {x}}^{2}]\right)\\[8pt]&={\frac {n}{n-1}}\left(\sigma ^{2}(x)+\operatorname {\mathbb {E} } [x]^{2}~-~\sigma ^{2}({\overline {x}})-\operatorname {\mathbb {E} } [{\overline {x}}]^{2}\right)\\[8pt]&={\frac {n}{n-1}}\left(\sigma ^{2}(x)+\mu ^{2}~-~{\frac {1}{n}}\sigma ^{2}(x)-\mu ^{2}\right)\\[8pt]&={\frac {n}{n-1}}\left({\frac {n-1}{n}}~\sigma ^{2}(x)\right)\\[8pt]&=\sigma ^{2}.\end{aligned}}}
Al contrario, lo stimatore
S
n
2
{\displaystyle S_{n}^{2}}
ha un valore atteso diverso dalla varianza,
E
[
S
n
2
]
=
n
−
1
n
σ
2
(
X
)
{\displaystyle \mathbb {E} [S_{n}^{2}]=\textstyle {\frac {n-1}{n}}\sigma ^{2}(X)}
.
Una spiegazione del termine
n
−
1
{\displaystyle n-1}
è data dalla necessità di stimare anche la media che per il teorema del limite centrale ha varianza 1/n. Se la media è nota, lo stimatore
S
n
2
{\displaystyle S_{n}^{2}}
diventa corretto. Questa è detta "correzione di Bessel".
Se le
X
i
{\displaystyle X_{i}}
sono variabili aleatorie normali
N
(
μ
,
σ
)
{\displaystyle N(\mu ,\sigma )}
, lo stimatore
S
n
−
1
2
{\displaystyle S_{n-1}^{2}}
è una variabile aleatoria con distribuzione
χ
2
{\displaystyle \chi ^{2}}
.
Il campione di
n
=
5
{\displaystyle n=5}
elementi
{
−
4
,
−
1
,
1
,
2
,
7
}
{\displaystyle \{-4,-1,1,2,7\}}
ha media campionaria pari a:
x
¯
=
−
4
−
1
+
1
+
2
+
7
5
=
1
{\displaystyle {\bar {x}}={\frac {-4-1+1+2+7}{5}}=1}
e gli stimatori della varianza valgono rispettivamente
S
n
2
=
(
−
4
−
1
)
2
+
(
−
1
−
1
)
2
+
(
1
−
1
)
2
+
(
2
−
1
)
2
+
(
7
−
1
)
2
5
=
25
+
4
+
0
+
1
+
36
5
=
66
5
=
13
,
2
{\displaystyle S_{n}^{2}={\frac {(-4-1)^{2}+(-1-1)^{2}+(1-1)^{2}+(2-1)^{2}+(7-1)^{2}}{5}}={\frac {25+4+0+1+36}{5}}={\frac {66}{5}}=13,2}
e
S
n
−
1
2
=
66
5
−
1
=
16
,
5.
{\displaystyle S_{n-1}^{2}={\frac {66}{5-1}}=16,5.}