Indice di correlazione di Pearson: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Gabriele85 (discussione | contributi)
Riga 11:
:<math>\ \sigma_x , \sigma_y</math> , sono le due [[deviazione standard|deviazioni standard]]
 
Il coefficiente assume sempre valori compresi tra -1 e 1:
 
:<math>\ -1 >\leq \rho_{xy} >\leq -1 </math>.
 
Se:
Riga 20:
*:<math>\ \rho_{xy} < 0</math>, le variabili <math>x</math> e <math>y</math> si dicono ''inversamente correlate'', oppure ''correlate negativamente''.
 
Per la correlazione diretta si dividedistingue ininoltre:
*:<math>\ 0,3 >< \rho_{xy} >< 0,3 </math>,: ''correlazione debole'';
*:<math>\ 0,73 >< \rho_{xy} >< 0,37 </math>,: ''correlazione moderata'';
*:<math>\ \rho_{xy} > 0,7 </math>,: ''correlazione forte''.
 
Nel casoL'indice di indipendenzacorrelazione ilvale coefficiente0 assumese valorele zero,due mentrevariabili nonsono indipendenti. Non vale la conclusione opposta: in altri termini, la scorrelazione è condizione ''necessaria'' ma non ''sufficiente'' per l'indipendenza. L'ipotesi di assenza di [[autocorrelazione]] è più restrittiva ed implica quella di indipendenza fra due variabili.
 
ValoriL'indice positividi vengonocorrelazione vale + misurati1 in presenza di correlazione lineare positiva (p.es.: y = a +bx b x, dove b>0), mentre valori negativi vengonovale misurati-1 in presenza di correlazione lineare negativa (p.es.: y = a + b x, con b<0).
L'ipotesi di assenza di [[autocorrelazione]] è più restrittiva ed implica quella di indipendenza fra due variabili.
 
Valori prossimi a +1 (o -1) possono essere misurati anche in presenza di relazioni non lineari. P.es.Per esempio, la seguente relazione quadratica: (<math>\ y_iy = x_ix^2 </math>)
{| {{Prettytable}}
|- align="center"
Riga 41:
produce un coefficiente pari a 0,9844.
 
Gli indici di Pearson di ''n'' variabili, possono essere presentati in una [[matrice]] di correlazione. Si tratta di una tabella a doppia entrata, che è una [[matrice quadrata]] di dimensione <math>[n,n]</math> avente nelle righe e colonne le variabili oggetto di studio. La matrice è [[matrice diagonalesimmetrica|diagonalesimmetrica]] poiché<math>(\rho_{ji} l'indice= di\rho_{{ij}})</math> correlazionee dii unacoefficienti variabilesulla condiagonale valgono stessa è unitario1, edin è [[matrice simmetrica|simmetrica]]. Infatti, vale che:quanto
Valori positivi vengono misurati in presenza di correlazione lineare positiva (p.es.: y=a+bx, dove b>0), mentre valori negativi vengono misurati in presenza di correlazione lineare negativa (p.es.: y = a + b x, con b<0).
:<math>\ \rho_{yxii} = \rho_frac{\sigma_{xyii}}{\sigma_i^2}</math>.
 
Gli indici di Pearson di n variabili, possono essere presentati in una [[matrice]] di correlazione. Si tratta di una tabella a doppia entrata, che è una [[matrice quadrata]] di dimensione [n,n] avente nelle righe e colonne le variabili oggetto di studio. La matrice è [[matrice diagonale|diagonale]] poiché l'indice di correlazione di una variabile con sé stessa è unitario, ed è [[matrice simmetrica|simmetrica]]. Infatti, vale che:
:<math>\ \rho_{xx} = 1</math>,
 
e che
 
:<math>\ \rho_{yx} = \rho_{{xy}}</math>.
 
== Voci correlate ==