Covarianza (probabilità): differenze tra le versioni

nessun oggetto della modifica
Nessun oggetto della modifica
In [[matematicastatistica]], in particolaree in [[teoria della probabilità]], la '''covarianza''' di due [[Variabile (statistica)|variabili statistiche]] o [[variabile aleatoria|variabili aleatorie]] è un numero Cov(''X'',''Y'') che fornisce una misura di quanto le due varino assieme, ovvero della loro [[variabili indipendenti|dipendenza]].
 
== DefinizioneProbabilità ==
=== Definizione ===
La covarianza di due variabili aleatorie ''<math>X''</math> e ''<math>Y''</math> è il [[valore atteso]] dei prodotti delle loro distanze dalla media:
 
:<math>\mathrm{Cov}(X,Y)=\mathbb{E}\Big[\big(X-\mathbb{E}[X]\big)(Y-\mathbb{E}[Y]\big)\Big].</math>
 
La covarianza di ''<math>X''</math> e ''<math>Y''</math> può anche essere espressa come la differenza tra il [[valore atteso]] del loro prodotto e il prodotto dei loro valori attesi:
 
:<math>\mathrm{Cov}(X,Y)=\mathbb{E}[XY]-\mathbb{E}[X]\mathbb{E}[Y].</math>
:<math>\mathbb{E}\Big[XY-X\mathbb{E}[Y]-\mathbb{E}[X]Y+\mathbb{E}[X]\mathbb{E}[Y]\Big]=\mathbb{E}[XY]-\mathbb{E}[X]\mathbb{E}[Y]-\mathbb{E}[X]\mathbb{E}[Y]+\mathbb{E}[X]\mathbb{E}[Y]=\mathbb{E}[XY]-\mathbb{E}[X]\mathbb{E}[Y]. </math>
 
=== Proprietà ===
La covarianza rispetta le seguenti proprietà, per variabili aleatorie ''<math>X''</math>, ''<math>Y''</math> e ''<math>Z''</math>, e costanti ''<math>a''</math> e ''<math>b''</math>:
* <math>\text{Cov}(X,Y)=\text{Cov}(Y,X)\ </math>
* <math>\text{Cov}(aX+b,Y)=a\text{Cov}(X,Y)\ </math>
 
Due variabili aleatorie [[variabili indipendenti|indipendenti]] hanno covarianza nulla, poiché dalla loro indipendenza segue
:<math>\mathbb{E}[XY]=\mathbb{E}[X]\mathbb{E}[Y]\ </math>
Due variabili aleatorie che hanno covarianza nulla sono [[correlazione (statistica)|non correlate]].
 
:<math>\mathbb{E}[XY]=\mathbb{E}[X]\mathbb{E}[Y]\ .</math>
Due variabili aleatorie dipendenti possono essere non correlate.
 
Ad esempio, se ''X'' è una variabile aleatoria di [[variabile casuale uniforme continua|legge uniforme]] sull'intervallo [-1,1] e ''Y=X<sup>2</sup>'', allora
Due variabili aleatorie che hanno covarianza nulla sono [[correlazioneCorrelazione (statistica)|non correlateincorrelate]].
:<math>\textstyle \text{Cov}(X,Y)=\text{Cov}(X,X^2)=\mathbb{E}[X^3]-\mathbb{E}[X]\mathbb{E}[X^2]=0-0 \mathbb{E}[X^2]=0</math>.
 
Due variabili aleatorie dipendenti possono essere incorrelate. Ad esempio, se ''<math>X''</math> è una variabile aleatoria di [[variabile casuale uniforme continua|legge uniforme]] sull'intervallo <math>[-1,1]</math> e ''<math>Y=X<sup>^2</supmath>'', allora
 
:<math>\textstyle \text{Cov}(X,Y)=\text{Cov}(X,X^2)=\mathbb{E}[X^3]-\mathbb{E}[X]\mathbb{E}[X^2]=0-0 \mathbb{E}[X^2]=0.</math>.
 
=== Varianza ===
La covarianza può essere considerata una generalizzazione della [[varianza]]
 
:<math>\text{Var}(X)=\text{Cov}(X,X)\ </math>
 
e compare come termine di ''correzione'' nella relazione
:<math>\text{Var}(X+Y)=\text{Var}(X)+\text{Var}(Y)+2\text{Cov}(X,Y)\ </math>
 
:<math>\text{Var}(X+Y)=\text{Var}(X)+\text{Var}(Y)+2\text{Cov}(X,Y)\ .</math>
Più in generale, per variabili aleatorie <math>X_1,...,X_n</math> e <math>Y_1,...,Y_m</math> vale
 
:<math>\textstyle \text{Var}(\sum_iX_i)=\text{Cov}(\sum_iX_i,\sum_jX_j)=\sum_{i,j}\text{Cov}(X_i,X_j)=\sum_i\text{Var}(X_i)+2\sum_{i>j}\text{Cov}(X_i,X_j)</math>
Più in generale, per variabili aleatorie <math>X_1,...\ldots,X_n</math> e <math>Y_1,...\ldots,Y_m</math> vale
 
:<math>\textstyle \text{Var}(\sum_iX_i)=\text{Cov}(\sum_iX_i,\sum_jX_j)=\sum_{i,j}\text{Cov}(X_i,X_j)=\sum_i\text{Var}(X_i)+2\sum_{i>j}\text{Cov}(X_i,X_j),</math>
 
come caso particolare di
 
:<math>\textstyle \text{Cov}\left(\sum_i X_i, \sum_j Y_j\right)=\sum_{i,j}\text{Cov}(X_i,Y_j).</math>.
 
== Statistica ==
In [[statistica]] la covarianza di due [[variabileVariabile (statistica)|variabili statistiche]] <math> X</math> e <math>Y</math>, indicata come <math>\textstyle \sigma_{X,Y}=\text{Cov}(X,Y)\ </math>, è un [[Indice (statistica)|indice]] di variabilità congiunta.
{{D|Covarianza (statistica)}}
In [[statistica]] la covarianza di due [[variabile (statistica)|variabili statistiche]] <math> X</math> e <math>Y</math>, indicata come <math>\textstyle \sigma_{X,Y}=\text{Cov}(X,Y)\ </math>, è un [[Indice (statistica)|indice]] di variabilità congiunta.
 
Su una [[Popolazione (statistica)|popolazione]] di <math>N</math> osservazioni congiunte <math>(x_i,y_i)</math>, di rispettive [[Media (statistica)|medie]] <math>\bar{x}</math> e <math>\bar{y}</math>, la covarianza osservata è
 
:<math> \sigma_{X,Y}=\frac{1}{N}\sum_{i=1}^N(x_i-\bar{x})(y_i-\bar{y})=\frac{1}{N}\sum_{i=1}^N x_iy_i-\left(\frac{1}{N}\sum_{i=1}^N x_i\right)\left(\frac{1}{N}\sum_{i=1}^N y_i\right).</math>.
 
Uno [[stimatore]] della covarianza su un [[Campione (statistica)|campione]] di <math>n</math> osservazioni congiunte <math>(x_i,y_i)</math> è
 
:<math>S_s_{X,Y}=\frac{\sum_{i=1}^n x_i y_i}{n-1}-\frac{\sum_{i=1}^n x_i}{n-1}\frac{\sum_{i=1}^n y_i}{n}.</math>
 
La [[varianza]] e la covarianza intervengono per definire l'[[indice di correlazione di Pearson]]
 
:<math>\rho_{X,Y}=\frac{\sum_i(x_i-\bar{x})(y_i-\bar{y})}{\sqrt{\sum_j(x_j-\bar{x})^2 \sum_k(y_k-\bar{y})^2}} =\frac{\text{Cov}(X,Y)}{\sqrt{\text{Var}(X)\text{Var}(Y)}}</math>