Scomposizione della devianza: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
FrescoBot (discussione | contributi)
m Bot: parametri del template Cita web e modifiche minori
Riga 24:
*<math>SSM = \sum_{i=1}^n (\hat y_i - \bar y)^2</math>.
 
Il rapporto tra SSMSSR e devianza totale di <math>y</math> SST dà luogo al [[coefficiente di determinazione]] <math>R^2</math>, il quale è anche il quadrato del [[coefficiente di correlazione di Pearson]] <math>R</math>. Come si può notare dalle equazioni, <math>R^2</math> è tanto maggiore quando i valori di <math>y</math> risultano vicini a quelli previsti del modello, mentre diminuisce quando il modello prevede valori molto vicini tra loro nella scala della <math>y</math>.
 
Chiaramente, questo metodo è facilmente estendibile a un numero maggiore di variabili <math>x</math> utilizzando una regressione multivariata, in tal caso il coefficiente <math>R^2</math> perde il suo valore di indice di associazione tra variabili e si volge ad indicare la capacità del modello lineare di determinare appunto il valore di ciascuna <math>y</math> osservata, o, in altre parole, la capacità del modello di "spiegare" appunto la variabilità di <math>y</math>; si definisce invece "residua" la devianza (e la rispettiva varianza) di <math>y</math> che il modello non riesce a spiegare per mezzo dei predittori <math>x</math>.