Autovettore e autovalore: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
→‎Voci correlate: Tolgo wikicollegamento rosso
Botcrux (discussione | contributi)
m Bot: rimuovo template {{categorie qualità}} obsoleto (v. discussione)
Riga 1:
[[File:Mona_Lisa_with_eigenvectorMona Lisa with eigenvector.png|thumb|upright=1.2|In questa trasformazione lineare della [[Gioconda]] l'immagine è modificata ma l'asse centrale verticale rimane fisso. Il vettore blu ha cambiato lievemente direzione, mentre quello rosso no. Quindi il vettore rosso è un autovettore della trasformazione e quello blu no. Inoltre, poiché il vettore rosso non è stato né allungato, né compresso, né ribaltato, il suo autovalore è 1. Tutti i vettori sull'asse verticale sono multipli scalari del vettore rosso, e sono tutti autovettori: assieme all'origine formano l'autospazio relativo all'autovalore 1.]]
In [[matematica]], in particolare in [[algebra lineare]], un '''autovettore''' di una funzione tra [[spazio vettoriale|spazi vettoriali]] è un [[Vettore (matematica)|vettore]] non [[vettore nullo|nullo]] la cui [[Immagine (matematica)|immagine]] è il vettore stesso moltiplicato per un numero (reale o complesso) detto '''autovalore'''.<ref name=def>{{Cita|S. Lang|Pag. 220|lang}}</ref> Se la funzione è [[trasformazione lineare|lineare]], gli autovettori aventi in comune lo stesso autovalore, insieme con il vettore nullo, formano uno [[spazio vettoriale]], detto '''autospazio'''.<ref name=autospazio>{{Cita|S. Lang|Pag. 221|lang}}</ref> La nozione di autovettore viene generalizzata dal concetto di [[vettore radicale]] o ''autovettore generalizzato''.
 
Riga 8:
== Introduzione informale ==
[[File:Rotation illustration2.svg|right|thumb|<center>Esempio di trasformazione lineare: rotazione di una figura piana intorno a un punto O</center>.]]
Il [[piano cartesiano]] e lo [[spazio euclideo]] sono esempi particolari di [[spazio vettoriale|spazi vettoriali]]: ogni punto dello spazio può essere descritto tramite un [[Vettore (matematica)|vettore]], rappresentato graficamente da un segmento che collega l'origine al punto. In uno spazio vettoriale è possibile effettuare [[trasformazione lineare|trasformazioni lineari]] sui vettori che lo costituiscono: esempi di trasformazioni lineari sono le [[rotazione (matematica)|rotazioni]], le [[omotetia|omotetie]] (che consentono a un vettore di essere amplificato o contratto) e le [[riflessione (geometria)|riflessioni]] (che consentono a un vettore di essere trasformato nel suo speculare rispetto a un punto, retta o piano assegnati).
 
Un autovettore per la trasformazione lineare <math>L</math> è un vettore <math>\mathbf v \ne 0</math> che a seguito dell'applicazione di <math>L</math> non cambia la sua direzione, limitandosi ad essere moltiplicato per uno scalare <math>\lambda</math>, il rispettivo autovalore. Il vettore può quindi soltanto cambiare modulo (venendo amplificato o contratto) e verso (venendo ribaltato):
Riga 38:
 
===Descrizione matriciale e autovettore sinistro===
Nel caso in cui <math>V</math> sia di dimensione [[insieme finito|finita]], per ogni scelta di [[base (algebra lineare)|basi]] a <math>T</math> è associata univocamente una [[matrice (matematica)|matrice]], detta [[matrice di trasformazione]].<ref>{{Cita|S. Lang|Pag. 104|lang}}</ref> Si può pertanto parlare di una funzione lineare sia in termini di funzione (trasformazione) che di matrice, ed il formalismo matriciale viene spesso utilizzato per la ricerca di autovettori e autovalori.
 
Sia <math>\mathbf {x} </math> il vettore delle coordinate di <math>\mathbf v </math> rispetto a una base e sia <math>A</math> la matrice di trasformazione rappresentante <math> T </math> rispetto alla medesima base. Si ha che <math>\mathbf {x}</math> è detto autovettore di <math> A </math> se esiste uno scalare <math>\lambda</math> detto autovalore tale che:<ref>{{Cita|S. Lang|Pag. 105|lang}}</ref>
Riga 44:
:<math>A \mathbf {x} = \lambda \mathbf {x} </math>
 
In particolare, gli autovalori di <math>A</math> non dipendono dalla base scelta.
 
Il vettore <math>\mathbf {x}</math> è detto ''autovettore destro'', in quanto un vettore non nullo <math>\mathbf x_L</math> è detto ''autovettore sinistro'' se esiste <math>\lambda</math> tale che:<ref>[http://web.stanford.edu/class/cme335/lecture4sup.pdf Jim Lambers - The Unsymmetric Eigenvalue Problem]</ref>
Riga 115:
===Il teorema spettrale===
{{vedi anche|Teorema spettrale}}
Nel caso complesso finito-dimensionale il [[teorema spettrale]] afferma che l'endomorfismo <math>T</math> è [[operatore normale|normale]] se e solo se esiste una [[base ortonormale]] di <math>V</math> fatta di suoi [[autovettore|autovettori]].<ref>{{Cita|S. Lang|Pag. 251|lang}}</ref> In tal caso la matrice <math>P</math> è [[matrice unitaria|unitaria]]. Questo fondamentale risultato fornisce le condizioni per cui sia possibile diagonalizzare un [[operatore lineare continuo|operatore lineare]] rispetto a una base ortonormale: nel caso finito-dimensionale, quando questo risulta possibile succede che ad autovalori distinti corrispondono autovettori mutuamente ortogonali, e pertanto gli [[autospazio|autospazi]] sono in [[somma diretta]].
 
La decomposizione spettrale è un caso particolare della [[decomposizione di Schur]]. È anche un caso particolare della [[decomposizione ai valori singolari]]. Un operatore normale può, di conseguenza, essere scritto come una combinazione lineare di proiettori ortogonali sugli autospazi, i cui coefficienti sono gli autovalori relativi a ogni autospazio.
 
Nel caso infinito-dimensionale la normalità, e in particolare l'[[Operatore autoaggiunto|autoaggiuntezza]], non garantisce la diagonalizzabilità. In generale un operatore normale non può essere più scritto come combinazione lineare di proiettori ortogonali. Tuttavia, attraverso una [[misura a valori di proiettore]] è possibile ottenere una scrittura integrale che permette di descrivere l'operatore in termini del suo [[Spettro (matematica)|spettro]].
Riga 129:
:<math>R_\lambda (T) = (\lambda I - T)^{-1} \ </math>
 
Lo spettro di <math>T</math> è l'insieme <math>\sigma(T)</math> dei numeri complessi <math>\lambda</math> che non appartengono all'insieme risolvente, ovvero tali per cui l'operatore <math>\lambda I - T</math> non è invertibile.<ref>{{Cita|Reed, Simon|Pag. 188|reed}}</ref>
 
Dal momento che <math>\lambda I - T</math> è un [[operatore lineare continuo|operatore lineare]], se il suo inverso esiste esso è lineare. Inoltre, per il [[teorema del grafico chiuso]] l'inverso di un [[operatore limitato|operatore lineare limitato]] è limitato. Segue che l'insieme risolvente è l'insieme dei valori che rendono <math>\lambda I - T</math> bigettivo.
Riga 169:
:<math>H \left | \psi_E \right \rangle = E \left | \psi_E \right \rangle </math>
 
Una tale rappresentazione matriciale dell'[[equazione di Schrödinger]] indipendente dal tempo è possibile se, come spesso accade (ad esempio studiando gli stati legati), <math>\psi_E</math> è una [[funzione quadrato sommabile]]: tali funzioni formano uno [[spazio di Hilbert]] infinito-dimensionale con [[forma sesquilineare|prodotto interno]] <math>\left \langle | \right \rangle</math>.
 
L'operazione che tramite l'applicazione di <math>H</math> restituisce uno degli autovalori è detta ''misura'', e fa "collassare" o "precipitare" lo stato dell'oggetto in un autostato dell'osservabile che si sta misurando. La misura altera irrimediabilmente lo stato del sistema, che viene a trovarsi in un autostato ben preciso. L'insieme dei valori (autovalori) possibili per la misura di una grandezza osservabile è lo [[Spettro (matematica)|spettro]] dell'operatore ad essa associato. Dovendo quantificare una grandezza fisica, è inoltre necessario che <math>H</math> sia un [[Operatore autoaggiunto|operatore hermitiano]]: in questo modo gli autovalori sono tutti [[numero reale|reali]], e i suoi autostati (normalizzati) formano una [[base ortonormale]] dello spazio. Grazie al prodotto interno <math>\left \langle | \right \rangle</math> è possibile [[proiezione (geometria)|proiettare]] l'autostato <math> \left | \psi_E \right \rangle</math> sulla una base di autostati di un altro operatore, come la base di autovettori <math>\left \langle x \right |</math> dell'[[operatore posizione]]. La proiezione:
Riga 209:
=== Esempi nel piano ===
Fra le trasformazioni del [[piano cartesiano]] <math>\R^2</math> si possono distinguere i seguenti casi speciali:
* [[rotazione (matematica)|Rotazione]] antioraria di angolo <math>\theta</math>. Se <math>\theta</math> non è un multiplo intero di <math>\pi</math> non esiste alcun autovettore, infatti ogni vettore viene ruotato e cambia di direzione. Se invece <math>\theta = k \pi</math>, con <math>k</math> intero dispari, ogni vettore viene trasformato nel suo opposto, quindi ogni vettore non nullo è autovettore della rotazione con autovalore <math>-1</math>. Se invece <math>k</math> è pari la trasformazione non è altro che l'identità, per cui ogni vettore non nullo è autovettore con autovalore <math>+1</math>.
 
:La rotazione può essere [[matrice di trasformazione|rappresentata]] dalla seguente matrice:
Riga 256:
Non tutte le trasformazioni del piano e dello spazio ricadono in una delle 4 tipologie viste negli esempi del piano sopra riportate.
 
In generale, un [[endomorfismo]] di <math>\R^n</math> (cioè una [[trasformazione lineare]] di <math>\R^n</math> in sé) è rappresentabile tramite una [[matrice quadrata]] con ''n'' righe. Si consideri per esempio l'endomorfismo di <math>\R^3</math> indotto dalla matrice:
 
:<math>A =
Riga 264:
-1 & 0 & \; 1
\end{bmatrix}
</math>
 
Se si considera il vettore <math>v_1</math>:
Riga 270:
:<math> v_1= \begin{bmatrix} \; 1 \\ \; 1 \\ -1 \end{bmatrix} </math>
 
e si esegue la [[prodotto fra matrici|moltiplicazione fra matrice e vettore]], si vede che:
 
:<math>
Riga 276:
= \begin{bmatrix} \; 2 \\ \; 2 \\ -2 \end{bmatrix}
= 2 \begin{bmatrix} \; 1 \\ \; 1 \\ -1 \end{bmatrix}
</math>
 
Quindi l'endomorfismo rappresentato da <math>A</math> ha un autovettore dato da <math>v_1</math> con autovalore 2. Per trovarne tutti gli autovalori si deve scrivere il polinomio caratteristico di <math>A</math>. Poiché la trasformazione è già scritta in forma di matrice, si procede con il calcolarne il polinomio caratteristico:
Riga 292:
Per quanto detto prima, la trasformazione assume una forma molto semplice rispetto a questa base: ogni vettore <math>x</math> in <math>\R^3</math> può essere scritto in modo unico come:
 
:<math>x = x_1 v_1 + x_2 v_2 + x_3 v_3 </math>
 
e dunque si ha:
Riga 397:
[[Categoria:Algebra]]
[[Categoria:Teoria degli operatori]]
 
{{Categorie qualità}}