Propagazione degli errori: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Stains (discussione | contributi)
Stains (discussione | contributi)
Ordinato la tabella degli esempi, applicato <math> e non il corsivo per le formule, cercato di uniformare la notazione. Non ho toccato la sezione Applicazioni
Riga 1:
In [[fisica]], per '''propagazione degli errori''' si intende l'effetto dell'[[errore statistico|errore]] (o [[variabilità]]) di un vettore di [[variabile casuale|variabili aleatorie]] sull'errore associato ad una [[funzione (matematica)|funzione]] di esso. Tali variabili, quando oggetto di rilevazione sperimentale, sono inoltre soggette a [[variabilità]] osservazionale dovuta a limitazioni nella misura (dovuta ad esempio alla precisione degli [[strumento di misura|strumenti di misura]]), che si propaga alla funzione delle osservazioni.
 
Ad una variabile ''<math>X''</math> è possibile associare un [[errore statistico|errore aleatorio]] Δ''<math>\Delta X''</math> detto [[errore assoluto]], che esprime il grado di incertezza nella misura del valore di ''<math>X''</math>, anche se più spesso tale errore è espresso tramite la [[deviazione standard]] <math>\sigma</math> o, in caso di analisi chimiche, l''σ''incertezza composta <math>u_c(x)</math>. Una misura frequentemente usata è l'[[errore relativo]] σ<math>\frac {\Delta X}{X}</xmath>, esprimibile anche in via percentuale, o più in generale il [[coefficiente di variazione]], espresso mediante il rapporto σ/<math>\frac{\Delta X}{|μ \mu |}</math>, dove con μ<math>\mu</math> s'intende il [[valore atteso]] ([[valore atteso|media]], o ancora [[valore vero]]) di <math>X</math>.
 
Se si conosce o si può ipotizzare la [[variabile casuale#Distribuzione di probabilità|distribuzione di probabilità]] della variabile oggetto di misura, è possibile inoltre probabilizzare intervalli di valori in cui possa essere inclusa la variabile. Spesso si assume [[distribuzione normale|normalità in distribuzione]] per tale quantità, con media nulla in assenza di errori sistematici ([[bias (statistica)|bias]]) e con [[deviazione standard]] pari proprio all'[[errore assoluto]]. Sotto tale ipotesi, l'intervallo di ampiezza <math>2 \sigma</math> <math>['' X''−Δ''-\Delta X'', ''X''+Δ''\Delta X'']</math> ha associata una probabilità approssimativamente 0.68, mentre l'intervallo <math>[''X''−2-2\Delta Δ''X'', ''X''+2\Delta Δ''X'']</math> una probabilità approssimativamente pari a 0.95.
 
==Formula generale==
Si forniscono dunque alcune [[formula|formule]] per casi particolari.
[[Immagine:Propagazione.jpg|thumb|Andamento grafico della formula di propagazione degli errori]]
Sia <math>f(x_1,x_2,...,x_n)</math> una [[funzione (matematica)|funzione]] dipendente da <math>n</math> [[variabile (matematica)|variabili]] del tipo <math>x_1,x_2,...,x_n</math>; l'incertezza di ciascuna variabile è data da <math>\Delta x_jx_i</math>:
 
:<math>x_jx_i \pm \Delta x_jx_i\, .</math>
 
Se le variabili non sono [[correlazione|correlate]], si può calcolare l'errore Δ''<math>\Delta f''</math> di ''<math>f''</math> partendo dalle incertezze delle singole variabili:
 
:<math>\Delta f = \Delta f \left(x_1, x_2, ..., x_n, \Delta x_1, \Delta x_2, ..., \Delta x_n \right) = \left(\sum_{i=1}^n \left(\frac{\partial f}{\partial x_i}\Delta x_i \right)^2 \right)^{1/2} \, ,</math>
 
dove <math>\frac{\partial f}{\partial x_jx_i}</math> è la [[derivata parziale]] di
<math>f</math> per la <math>ji</math>-esima variabile.
 
Se le variabili sono invece [[correlazione|correlate]], si inserisce la [[covarianza]] tra coppie di variabili ''C<submath>C_{i,k</sub>''} := cov(''x<sub>i</sub>''x_i,''x<sub>k x_k)</submath>'') come una doppia somma tra ogni coppia <math>(''i'',''k'')</math>:
 
:<math>\Delta f = \left( \sum_{i=1}^n \sum_{k=1}^n \left(\frac{\partial f}{\partial x_i}\frac{\partial f}{\partial x_k}C_{i,k} \right) \right)^{1/2}\, .</math>
 
Dopo aver calcolato <math>\Delta f</math>, si può quindi affermare che il valore della funzione con la sua incertezza è pari a:
 
<math>f \pm \Delta f \, .</math>
 
Non è certo un risultato sorprendente: le incertezze sulle ''<math>x''</math> influiscono sulla variabile ''<math>y''</math> a seconda di come le variabili siano tra loro correlate. Sviluppando mediante un [[polinomio di Taylor]] la funzione ''<math>f''(x)</math> fino al primo ordine (nell'ipotesi che tutti i termini di ordine superiore al primo siano trascurabili), le derivate del primo ordine descrivono ''bene''<ref>{{Cita libro|titolo = An Introduction to Error Analysis|autore = John R. Taylor,|editore = University Science Books|anno = 1997|isbn = 978-0-935702-75-0|pagine=64-65}}</ref> l'andamento stesso della funzione.
 
Si forniscono dunque alcune [[formula|formule]] per il calcolo dell'incertezza di funzioni particolari assumento sempre la presenza di [[covarianza]] tra le variabili come <math>C_{i,k}</math>, dove <math>i</math> e <math>k</math> sono due generiche variabili, espressa negli esempi come <math>A</math>, <math>B</math> o <math>C</math>.
 
==Esempi==
Line 12 ⟶ 35:
Incertezza
|-
| <math>X = A \pm B </math> || <math>(\Delta X)^2 = (\Delta A)^2 + (\Delta B)^2 + 2\cdot C_{A,B}</math>
| <math>X = A \pm B </math> || Attenzione! Sono qui ripotati i valori in incertezza assoluti, per la deviazione standard è necessaria la propagazione con la radice della somma dei quadrati. Cfr colonna a destra o sezione [[Propagazione degli_errori#Formula_generale|Formula generale]]
<math>\Delta X = \Delta A + \Delta B</math>
 
|| <math>\sigma_X^2= \sigma_A^2 + \sigma_B^2 </math><br />se non sono indipendenti: <math>\sigma_X^2= \sigma_A^2 + \sigma_B^2+2\cdot cov(A,B)</math> dove <math>cov(A,B)</math> è la [[Covarianza]].
|-
| <math>X = cA </math> || <math>\Delta X = c \cdot \Delta A</math> || <math>\sigma_X = c \cdot \sigma_A </math>
|-
| <math>X = A \cdot B \, </math> || <math>(\Delta X)^2 = B^2(\Delta A)^2 + A^2(\Delta B)^2+AB\cdot 2\cdot C_{A,B}</math>
|| <math>\frac{\Delta X}{X} = \frac{\Delta A}{A} + \frac{\Delta B}{B} + \frac{\Delta A\cdot \Delta B}{A\cdot B}</math><br /><math>\frac{\Delta X}{X} = \frac{\Delta A}{A} + \frac{\Delta B}{B}</math> || <math>\left( \frac{\sigma_X}{X} \right)^2 = \left( \frac{\sigma_A}{A} \right)^2 + \left( \frac{\sigma_B}{B} \right)^2 + \left ( \frac{\sigma_A\cdot \sigma_B}{A\cdot B} \right )^2 </math><br />se non sono indipendenti: <math>\sigma_X^2 = B^2\sigma_A^2 + A^2\sigma_B^2 + 2A\cdot B\cdot E_{1 1} + 2A\cdot E_{1 2} + 2B\cdot E_{2 1} + E_{2 2} - E_{1 1}^2</math> dove <math>E_{ij}=E((\Delta A)^i\cdot (\Delta B)^j)</math> e <math>\Delta A = a-A</math>
|-
| <math>X = A\cdot B\cdot C </math>|| <math>(\Delta X)^2 = (BC)^2(\Delta A)^2 + (AC)^2(\Delta B)^2+ (AB)^2(\Delta C)^2 + 2\cdot BC\cdot AC\cdot C_{A,B} + 2\cdot BC\cdot AB\cdot C_{A,C} +2\cdot AC\cdot AB\cdot C_{B,C}</math>
| <math>X = A\cdot B\cdot C </math>
|| <math>\frac{\Delta X}{X}=\frac{\Delta A}{A}+\frac{\Delta B}{B}+\frac{\Delta C}{C}+\frac{\Delta A\cdot\Delta B}{A\cdot B}+\frac{\Delta A\cdot\Delta C}{A\cdot C}+\frac{\Delta B\cdot\Delta C}{B\cdot C}+\frac{\Delta A\cdot\Delta B\cdot\Delta C}{A\cdot B\cdot C}</math> || <math>\left (\frac{\sigma_X}{X}\right )^2=\left (\frac{\sigma_A}{A}\right )^2+\left (\frac{\sigma_B}{B}\right )^2+\left (\frac{\sigma_C}{C}\right )^2+\left (\frac{\sigma_A\cdot\sigma_B}{A\cdot B}\right )^2+\left (\frac{\sigma_A\cdot\sigma_C}{A\cdot C}\right )^2+\left (\frac{\sigma_B\cdot\sigma_C}{B\cdot C}\right )^2+\left (\frac{\sigma_A\cdot\sigma_B\cdot\sigma_C}{A\cdot B\cdot C}\right )^2</math>
|-
| <math>X = A^i\cdot B^j</math> || <math>\frac{(\Delta X})^2 = iA^{X}=|i|\frac{\Delta A-1}B^{A2j}+|j|\frac{(\Delta B}{B}</math>A)^2 ||+ <math>\left (\fracjA^{\sigma_X2i}B^{Xj-1}(\rightDelta B)^2 =+ 2\leftcdot (iA^{i\frac{\sigma_A}{A-1}\rightcdot )jB^2+{j-1}\leftcdot (j\frac{\sigma_B}C_{A,B}\right )^2</math>
|-
| <math>X = \frac{A}{B} </math> || (caso prec. con i = 1 e j = - 1) <math>\frac{(\Delta X}{X})^2= \frac{(\Delta A)^2}{AB^2}+ \frac{A^2}{B^4}\cdot(\Delta B)^2-2\cdot\frac{A}{B^2}\cdot\frac{1}{B}\cdot C_{A,B}</math>
</math>
 
propagazione incertezza (non assoluta) <math>\frac{\Delta X}{X}= \sqrt((\frac{\Delta A}{A})^2+ (\frac{\Delta B}{B})^2)
</math>
 
||<math>\sigma_X^2=\frac{\sigma_A^2}{B^2}+\frac{A^2}{B^4}\cdot\sigma^2_B</math>
se non sono indipendenti: <math>\sigma_X^2=\frac{\sigma_A^2}{B^2}+\frac{A^2}{B^4}\cdot\sigma^2_B-2\cdot\frac{A}{B^2}\cdot\frac{1}{B}\cdot cov(A,B)</math>
|-
| <math>X = \ln (A) </math> || <math>\Delta X=\frac{\Delta A}{A}</math> || <math>\sigma_X = \frac{\sigma_A}{A}</math>
|-
| <math>X = e^A </math> || <math>\Delta X=e^A\cdot \Delta A</math> || <math> \frac{\sigma_X}{X} = \sigma_A </math>
|}
 
==Formula generale==
[[Immagine:Propagazione.jpg|thumb|Andamento grafico della formula di propagazione degli errori]]
Sia <math>f(x_1,x_2,...,x_n)</math> una [[funzione (matematica)|funzione]] dipendente da <math>n</math> [[variabile (matematica)|variabili]] del tipo <math>x_1,x_2,...,x_n</math>; l'incertezza di ciascuna variabile è data da <math>\Delta x_j</math>:
 
:<math>x_j \pm \Delta x_j\, .</math>
 
Se le variabili non sono [[correlazione|correlate]], si può calcolare l'errore Δ''f'' di ''f'' partendo dalle incertezze delle singole variabili:
 
:<math>\Delta f = \Delta f \left(x_1, x_2, ..., x_n, \Delta x_1, \Delta x_2, ..., \Delta x_n \right) = \left(\sum_{i=1}^n \left(\frac{\partial f}{\partial x_i}\Delta x_i \right)^2 \right)^{1/2} \, ,</math>
 
dove <math>\frac{\partial f}{\partial x_j}</math> è la [[derivata parziale]] di
<math>f</math> per la <math>j</math>-esima variabile.
 
Se le variabili sono invece [[correlazione|correlate]], si inserisce la [[covarianza]] tra coppie di variabili ''C<sub>i,k</sub>'' := cov(''x<sub>i</sub>'',''x<sub>k</sub>'') come una doppia somma tra ogni coppia (''i'',''k''):
 
:<math>\Delta f = \left( \sum_{i=1}^n \sum_{k=1}^n \left(\frac{\partial f}{\partial x_i}\frac{\partial f}{\partial x_k}C_{i,k} \right) \right)^{1/2}\, .</math>
 
Dopo aver calcolato <math>\Delta f</math>, si può quindi affermare che il valore della funzione con la sua incertezza è pari a:
 
<math>f \pm \Delta f \, .</math>
 
Non è certo un risultato sorprendente: le incertezze sulle ''x'' influiscono sulla variabile ''y'' a seconda di come le variabili siano tra loro correlate. Sviluppando mediante un [[polinomio di Taylor]] la funzione ''f''(x) fino al primo ordine (nell'ipotesi che tutti i termini di ordine superiore al primo siano trascurabili), le derivate del primo ordine descrivono ''bene''<ref>{{Cita libro|titolo = An Introduction to Error Analysis|autore = John R. Taylor,|editore = University Science Books|anno = 1997|isbn = 978-0-935702-75-0|pagine=64-65}}</ref> l'andamento stesso della funzione.
 
==Applicazioni==