Metodo delle potenze inverse

Nell'analisi numerica, il metodo delle potenze inverse è un algoritmo iterativo per il calcolo degli autovettori di una matrice. L'algoritmo permette di stimare un autovettore quando è già conosciuta una approssimazione dell'autovalore corrispondente. Questo metodo è concettualmente simile al metodo delle potenze e nacque per calcolare le frequenze di risonanza nel campo della meccanica strutturale. [1]

Il metodo delle potenze inverse inizia con una approssimazione per l'autovalore corrispondente all'autovettore desiderato e un vettore , scelto sia casualmente oppure da un'approssimazione dell'autovettore. L'algoritmo è descritto dall'iterazione

dove sono qualche costanti di solito scelte come . Poiché gli autovettori sono definiti a meno di uno scalare moltiplicativo, la scelta di può essere arbitraria nella teoria; aspetti pratici della scelta di sono discussi sotto.

Ad ogni iterazione, il vettore è moltiplicato per l'inversa della matrice e normalizzata. È esattamente la stessa formula del metodo delle potenze, eccetto la sostituzione di con . Più l'approssimazione è scelta vicino all'autovalore, più velocemente l'algoritmo converge; tuttavia, scelte sbagliate di possono portare a una convergenza lenta oppure a un altro autovettore rispetto a quello desiderato. Nella pratica, questo metodo è utilizzato quando si conosce una buona approssimazione dell'autovalore, e quindi servono solo poche (molto spesso anche solo una) iterazioni.

Teoria e convergenza del metodoModifica

L'idea base del metodo delle potenze è scegliere un vettore iniziale   (l'autovettore approssimato o un vettore casuale) e iterativamente calcolare  . eccetto per un insieme di misura nulla, per ogni vettore iniziale, il risultato convergerà a un autovettore corrispondente all'autovalore dominante.

Il metodo delle potenze inverse fa lo stesso con la matrice  , perciò converge all'autovettore corrispondente all'autovalore dominante della matrice  . Gli autovalori di questa matrice sono  , , , dove   sono gli autovalori di  . Il più grande di questi valori corrisponde al più piccolo di  , , . Gli autovettori di   e di   sono i soliti, poiché

 

Conclusione: Il metodo converge all'autovettore della matrice   corrispondente all'autovalore più vicino a  .

In particolare, prendendo   si osserva che   converge all'autovettore corrispondente all'autovalore di   con il valore assoluto più piccolo.

Velocità di convergenzaModifica

Si analizzi la velocità di convergenza del metodo.

Il metodo delle potenze converge linearmente al limite, più precisamente:

 

quindi per il metodo delle potenze inverse si hanno risultati simili:

 

Questa è la formula chiave per comprendere la convergenza dell'algoritmo. Si osserva che se   è scelto abbastanza vicino a un qualche autovalore  , per esempio  , ogni iterazione migliorerà la precisione di   volte. (Si è usato che per   abbastanza piccoli, "più vicino a  " e "più vicino a  " sono la stessa cosa.) Per   abbastanza piccoli, è approssimativamente uguale a  . Dunque se si è in grado di trovare   tale che   sarà abbastanza piccolo, allora saranno sufficienti poche interazioni.

ComplessitàModifica

L'algoritmo richiede di risolvere un sistema lineare o di calcolare l'inversa di una matrice. Per matrici non strutturate (non sparse, di Toeplitz,...) questo richiede   operazioni.

Opzioni per l'implementazioneModifica

Il metodo è definito dalla formula:

 

Ci sono, tuttavia, multiple opzioni per la sua implementazione.

Calcolare l'inversa della matrice o risolvere un sistema lineareModifica

Si può riscrivere la formula nella seguente maniera:

 

sottolineando che per trovare la successiva approssimazione   si può risolvere un sistema di equazioni lineari. Ci sono due opzioni: si può scegliere un algoritmo che risolve un sistema lineare, oppure si può calcolare l'inversa   e dopo applicarla al vettore. Entrambe le soluzioni hanno complessità  , il numero esatto dipende dal metodo scelto.

La scelta dipende anche dal numero di iterazioni. Ingenuamente, se a ogni iterazione si risolve un sistema lineare, la complessità sarà  , dove   è il numero di iterazioni; similmente, calcolare la matrice inversa e applicarla ad ogni iterazione ha complessità  . Si osserva, tuttavia, che se la stima dell'autovalore   rimane costante, per entrambi i metodi si può ridurre la complessità a  . Calcolare l'inversa una volta memorizzandola per applicarla ad ogni iterazione è di complessità  . Immagazzinare una decomposizione di   e usare il metodo di sostituzione per risolvere il sistema di equazioni è ancora di complessità  .

Invertire la matrice ha tipicamente un maggiore costo iniziale, ma minore ad ogni iterazione. Al contrario, risolvere il sistema di equazioni lineari ha un costo iniziale minore, ma richiede più operazioni a ogni iterazione.

Tridiagonalizzazione, Forma di HessenbergModifica

Se è necessario effettuare molte iterazioni (opoche, ma per molti autovettori), allora può essere saggio portare la matrice prima nella forma di Hessenberg superiore (per matrice simmetriche è la forma tridiagonale), che costa   operazioni aritmetiche usando una tecnica basata sulla trasformazione di Householder, con una sequenza finita di similitudini ortogonali, come fosse una decomposizione QR da entrambi i lati.[2][3] (Per decomposizioni QR, le rotazioni di Householder sono moltiplicate solo a sinistra, ma nel caso della forma di Hessenberg si moltiplica sia a destra che a sinistra). Usando sempre questa tecnica, per le matrici simmetriche questa procedura costa   operazioni.[2][3]

Per le matrici tridiagonali, La soluzione al sistema lineare per le matrici costa   operazioni, quindi la complessità cresce come  , dove   è il numero di applicazioni, che è migliore dell'inversione diretta. Tuttavia, per poche iterazioni una tale trasformazione è poco pratica.

Inoltre trasformazioni nella forma di Hessenberg coinvolge radici quadrate e divisioni, che non sono universalmente supportate dall'hardware.

Scelta della costante di normalizzazioneCkModifica

Nei processori General purpose (per esempio prodotti da Intel), il tempo di esecuzione di addizione, moltiplicazione e divisione è circa lo stesso. Tuttavia su hardware integrati e/o a basso consumo (DSP, FPGA, ASIC), la divisione può non essere supportata così dovrebbe essere evitata. La scelta  ,permette divisioni veloci senza supporti hardware espliciti, dal momento che la divisione per una potenza di due può essere implementata sia come uno spostamento bit a bit (per l'aritmetica in virgola fissa) sia con sottrazione di   dall'esponente (per l'aritmetica in virgola mobile).

Quando viene implementato l'algoritmo con la rappresentazione in virgola fissa, la scelta della costate   è particolarmente importante. Piccoli valori porteranno ad una crescita veloce della norma di   e quindi all'overflow; grandi valori di   causerà l'avvicinarsi di   a zero.

ApplicazioniModifica

La principale applicazione del metodo è la situazione in cui si possiede un'approssimazione di un autovalore e si deve trovare la stima del corrispondente autovettore. In tale situazione il metodo delle potenze inverse è il principale algoritmo da usare.

Metodi per trovare autovalori approssimatiModifica

Tipicamente questo metodo è usato in combinazione con altri per approssimare autovalori: l'esempio standard è l'algoritmo di bisezione per gli autovalori; un altro esempio è il metodo del quoziete di Rayleigh, che è in realtà è il metodo delle potenze inverse con l'utilizzo del quoziente di Rayleigh del vettore precedente come approssimazione dell'autovalore.

Ci sono alcune situazioni in cui si possono usare solo determinati metodi, tuttavia sono alquanto marginali.

Norma della matrice come approssimazione dell'autovalore dominanteModifica

Si può stimare facilmente l'autovalore dominante per ogni matrice. Per ogni norma indotta, è vero che   per ogni autovalore  . Perciò prendendo la norma della matrice come approssimazione dell'autovalore, si può vedere che il metodo converge all'autovettore dominante.

Stime statisticheModifica

In alcune applicazioni in tempo reale, si ha bisogno di trovare autovettori con una velocità di milioni di matrici al secondo. In tali applicazioni, tipicamente la statistica delle matrici è conosciuta a priori e si può prendere come autovalore approssimato il valore medio di quest'ultimo per qualche grande matrice campione. Ancora meglio, si può calcolare la media dei rapporti tra gli autovalori e la traccia o la norma della matrice e stimare l'autovalore medio grazie al valore medio di questo rapporto. Chiaramente questo metodo può essere usato solo con discrezione e solo quando non è cruciale una altissima precisione. Questo approccio di determinare un autovalore medio può essere combinato con uno degli altri metodi per evitare errori eccessivamente grandi.

NoteModifica

  1. ^ Ernst Pohlhausen, Berechnung der Eigenschwingungen statisch-bestimmter Fachwerke, ZAMM - Zeitschrift für Angewandte Mathematik und Mechanik 1, 28-42 (1921).
  2. ^ a b James W. Demmel, Applied Numerical Linear Algebra, Philadelphia, PA, Society for Industrial and Applied Mathematics, 1997, ISBN 0-89871-389-7, MR 1463942.
  3. ^ a b Lloyd N. Trefethen and David Bau, Numerical Linear Algebra (SIAM, 1997).

Voci correlateModifica

Collegamenti esterniModifica

  Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica