Covarianza (probabilità): differenze tra le versioni

annullate la modifica: notazioni utilizzate nel calcolo delle probabilità (la notazione speciale per la statistica era già indicata)
Nessun oggetto della modifica
(annullate la modifica: notazioni utilizzate nel calcolo delle probabilità (la notazione speciale per la statistica era già indicata))
{{nota disambigua|il concetto fisico|[[covarianza (fisica)]]}}
In [[teoria della probabilità]] la '''covarianza''' [[sigma (lettera)|σ]] di due [[variabile aleatoria|variabili aleatorie]] è un numero σCov(''xX'',''yY'') che fornisce una misura di quanto le due varino assieme, ovvero della loro [[variabili indipendenti|dipendenza]].
 
== Definizione ==
La covarianza di due variabili aleatorie ''xX'' e ''yY'' è il [[valore atteso]] dei prodotti delle loro distanze dalla media:
:<math>\sigmatext{cov}(xX,yY)=\mathbb{E}\Big[\big(xX-\mathbb{E}[xX]\big)(yY-\mathbb{E}[yY]\big)\Big]</math>.
 
La covarianza di ''xX'' e ''yY'' può anche essere espressa come la differenza tra il [[valore atteso]] del loro prodotto e il prodotto dei loro valori attesi:
:<math>\sigmatext{cov}(xX,yY)=\mathbb{E}[xyXY]-\mathbb{E}[xX]\mathbb{E}[yY]\ </math>.
Infatti per la [[trasformazione lineare|linearità]] del valore atteso risulta
:<math>\mathbb{E}\Big[xyXY-x\mathbb{E}XE[yY]-\mathbb{E}[xX]yY+\mathbb{E}[xX]\mathbb{E}[yY]\Big]=\mathbb{E}[xyXY]-\mathbb{E}[xX]\mathbb{E}[yY]-\mathbb{E}[xX]\mathbb{E}[yY]+\mathbb{E}[xX]\mathbb{E}[yY]=\mathbb{E}[xyXY]-\mathbb{E}[xX]\mathbb{E}[yY]\ </math>.
 
== Proprietà ==
La covarianza rispetta le seguenti proprietà, per variabili aleatorie ''xX'', ''yY'' e ''zZ'', e costanti ''a'' e ''b'':
* <math>\sigmatext{cov}(xX,yY)=\sigmatext{cov}(yY,xX)\ </math>
* <math>\sigmatext{cov}(axaX+b,yY)=a\sigmatext{cov}(xX,yY)\ </math>
* <math>\sigmatext{cov}(xX+yY,zZ)=\sigmatext{cov}(xX,zZ)+\sigmatext{cov}(yY,zZ)\ </math>
 
Due variabili aleatorie [[variabili indipendenti|indipendenti]] hanno covarianza nulla, poiché dalla loro indipendenza segue
:<math>\mathbb{E}[xyXY]=\mathbb{E}[xX]\mathbb{E}[yY]\ </math>
Due variabili aleatorie che hanno covarianza nulla sono [[correlazione (statistica)|non correlate]].
 
Due variabili aleatorie dipendenti possono essere non correlate.
Ad esempio, se ''xX'' è una variabile aleatoria di [[variabile casuale uniforme continua|legge uniforme]] sull'intervallo [-1,1] e ''yY=xX<sup>2</sup>'', allora
:<math>\textstyle \sigmatext{cov}(xX,yY)=\sigmatext{cov}(xX,xX^2)=\mathbb{E}[xX^3]-\mathbb{E}[xX]\mathbb{E}[xX^2]=0.5\int_{-1}^1x^3dx-0.5\int_{-1} E[X^1xdx\int_{-1}^1x^2dx2]=0</math>.
 
=== Varianza ===
La covarianza può essere considerata una generalizzazione della [[varianza]]
:<math>\sigma^2text{Var}(xX)=\sigmatext{cov}(xX,xX)\ </math>
e compare come termine di ''correzione'' nella relazione
:<math>\sigma^2text{Var}(xX+yY)=\sigma^2text{Var}(xX)+\sigma^2text{Var}(yY)+2\sigmatext{cov}(xX,yY)\ </math>
 
Più in generale, per variabili aleatorie <math>x_1X_1,...,x_nX_n</math> e <math>y_1Y_1,...,y_mY_m</math> vale
:<math>\textstyle \sigma^2text{Var}(\sum_ix_isum_iX_i)=\sigmatext{cov}(\sum_ix_isum_iX_i,\sum_jx_jsum_jX_j)=\sum_{i,j}\sigmatext{cov}(x_iX_i,x_jX_j)=\sum_i\sigma^2text{Var}(x_iX_i)+2\sum_{i>j}\sigmatext{cov}(x_iX_i,x_jX_j)</math>
come caso particolare di
:<math>\textstyle \sigmatext{cov}\left(\sum_i x_iX_i, \sum_j y_jY_j\right)=\sum_{i,j}\sigmatext{cov}(x_iX_i,y_jY_j)</math>.
 
== Statistica ==
In [[statistica]] la covarianza è anche indicata come
:<math>\sigma_{X,Y}=\text{cov}(X,Y)\ </math>.
 
Su un campione di ''n'' osservazioni congiunte (''x<sub>i</sub>,y<sub>i</sub>''), di rispettive medie osservate <math>\bar{x}</math> e <math>\bar{y}</math>, la covarianza osservata è
:<math>\textstyle \sigma_{xX,yY}=\frac{1}{n}\sum_i(x_i-\bar{x})(y_i-\bar{y})=\frac{1}{n}\sum_ix_iy_i-\frac{1}{n^2}(\sum_ix_i)(\sum_iy_i)</math>.
Uno [[stimatore]] della covarianza per ''N'' osservazioni congiunte (''xX<sub>i</sub>,yY<sub>i</sub>'') è
:<math>S_{xX,yY}=\frac{\sum_ix_iy_isum_iX_iY_i}{N}-\frac{\sum_ix_isum_iX_i}{N}\frac{\sum_iy_isum_iY_i}{N}</math>
 
La [[varianza]] e la covarianza intervengono per definire l'[[indice di correlazione di Pearson]]
L'[[indice di correlazione di Pearson]] è il rapporto tra la covarianza e le radici delle [[Varianza|varianze]]:
:<math>\rho_{xX,yY}=\frac{\sigmasum_i(x,yX_i-\bar{X})(Y_i-\bar{Y_i})}{\sigmasqrt{\sum_{i,j}(x)X_i-\sigmabar{X})(yY_i-\bar{Y})}}</math>,
ovvero uno [[stimatore]] del [[coefficiente di correlazione lineare]]
:<math>\text{Corr}(X,Y)=\frac{\text{cov}(X,Y)}{\sqrt{\text{Var}(X)\text{Var}(Y)}}</math>
 
== Voci correlate ==
Utente anonimo