Metodo delle tangenti: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Botcrux (discussione | contributi)
m Bot: Fix dimensionamento immagini (v. richiesta)
mNessun oggetto della modifica
Riga 1:
In [[matematica]], e in particolare in [[analisi numerica]], il '''metodo delle tangenti''', chiamato anche '''metodo di Newton''' o '''metodo di Newton-Raphson''', è uno dei metodi per il calcolo approssimato di una soluzione di un'equazione della forma <math>\,f(x)=0</math>. Esso si applica dopo avere determinato un intervallo <math>\,[a,b]</math> che contiene una sola [[Radice (matematica)|radice]].
 
[[Immagine:Metodo delle tangenti.png|thumb|upright=1.4|Esempio di applicazione del metodo delle tangenti]]
 
Il metodo consiste nel sostituire alla curva <math>\,y=f(x)</math> la tangente alla curva stessa, partendo da un qualsiasi punto; per semplicità si può iniziare da uno dei due punti che hanno come ascissa gli estremi dell'intervallo <math>\,[a,b]</math> e assumere, come valore approssimato della radice, l'ascissa <math>\,x_t</math> del punto in cui la tangente interseca l'asse delle <math>x</math> internamente all'intervallo <math>\,[a,b]</math>.
 
Supponiamo che nell'intervallo <math>\,[a,b]</math> la funzione e le sue derivate prima e seconda esistano e siano continue e che la derivata prima e seconda siano diverse da zero.
 
Conviene tracciare la tangente nell'estremo dell'intervallo in cui la funzione e la sua derivata seconda hanno lo stesso segno; nell'esempio della figura nel punto di ascissa ''<math>a''</math>.
 
L'equazione della tangente nel punto di ascissa ''<math>a''</math> risulta <math>\,y-f(a)=f'(a)(x-a)</math> quindi ponendo ''<math>y''{{sp}}={{sp}}0</math>
 
:<math>x_0=a-\frac{f(a)}{f'(a)}.</math>
 
Abbiamo determinato il nuovo intervallo <math>\,[x_0,b]</math> contenente la radice che stiamo cercando. Ripetendo il procedimento per <math>x_0</math> otteniamo una nuova approssimazione della radice (intersezione della seconda tangente con l'asse delle <math>x</math>)
Ripetendo il procedimento per <math>\,x_0</math> otteniamo una nuova approssimazione della radice (intersezione della seconda tangente con l'asse delle x)
 
<math>x_1 = x_0-\frac{f(x_0)}{f'(x_0)}.</math> .
 
Procedendo in modo iterativo si ottiene la [[relazione di ricorrenza]]
 
<math>x_{n+1}=x_n-\frac{f(x_n)}{f'(x_n)},</math>
 
che permette di determinare successive approssimazioni della radice dell'equazione <math>\,y=f(x)=0</math>. Con le ipotesi poste, si dimostra che la successione delle <math>\,x_n</math> converge alla radice piuttosto rapidamente.
 
Più in dettaglio, si dimostra che se
 
<math>f \in C^2(I)</math> dove ''<math>I''</math> è un opportuno intorno della radice <math>\,\alpha</math> con <math>f'(\alpha) \neq 0</math> e se <math>x_0 \in I,</math>
 
allora
 
<math>\lim_{n \to +\infty} \frac{\alpha - x_{n+1}}{(\alpha - x_n)^2} = - \frac{f''(\alpha)}{2 f'(\alpha)},</math>
 
cioè la convergenza è ''quadratica'' (il numero di cifre significative approssimativamente raddoppia ad ogni iterazione; mentre col metodo di bisezione cresce linearmente), benché ''locale'' (cioè non vale per ogni ''<math>I''</math>). Se invece la radice è multipla, cioè <math>\,f'(\alpha) = 0</math> allora la convergenza è ''lineare'' (più lenta).
Nella pratica, fissata la tolleranza di approssimazione consentita <math>\tau</math>, il procedimento iterativo si fa terminare quando <math>\left| x_{n+1}-x_n \right| < \tau \cdot |x_{n+1}|</math> .
 
Il problema di questo metodo è che la convergenza non è garantita, in particolare quando <math>f'(x) </math> varia notevolmente in prossimità dello zero. Inoltre, il metodo assume che <math>f'(x) </math> sia disponibile direttamente per un dato '<math>x'</math>. Nei casi in cui questo non si verifica e risulterebbe necessario calcolare la derivata attraverso una differenza finita, è consigliabile usare il [[metodo della secante]].
 
== Voci correlate ==