Autovettore e autovalore: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
m Correggo sintassi in formula matematica secondo mw:Extension:Math/Roadmap
FrescoBot (discussione | contributi)
Riga 1:
[[File:Mona Lisa with eigenvector.png|thumb|upright=1.2|In questa trasformazione lineare della [[Gioconda]] l'immagine è modificata ma l'asse centrale verticale rimane fisso. Il vettore blu ha cambiato lievemente direzione, mentre quello rosso no. Quindi il vettore rosso è un autovettore della trasformazione e quello blu no. Inoltre, poiché il vettore rosso non è stato né allungato, né compresso, né ribaltato, il suo autovalore è 1. Tutti i vettori sull'asse verticale sono multipli scalari del vettore rosso, e sono tutti autovettori: assieme all'origine formano l'autospazio relativo all'autovalore 1.]]
In [[matematica]], in particolare in [[algebra lineare]], un '''autovettore''' di una funzione tra [[spazio vettoriale|spazi vettoriali]] è un [[Vettore (matematica)|vettore]] non [[vettore nullo|nullo]] la cui [[Immagine (matematica)|immagine]] è il vettore stesso moltiplicato per un numero (reale o complesso) detto '''autovalore'''.<ref name=def>{{Cita|S. Lang|Pag. 220|lang}}.</ref> Se la funzione è [[trasformazione lineare|lineare]], gli autovettori aventi in comune lo stesso autovalore, insieme con il vettore nullo, formano uno [[spazio vettoriale]], detto '''autospazio'''.<ref name=autospazio>{{Cita|S. Lang|Pag. 221|lang}}.</ref> La nozione di autovettore viene generalizzata dal concetto di [[vettore radicale]] o ''autovettore generalizzato''.
 
I concetti di autovettore e autovalore sono utilizzati in molti settori della matematica e della [[fisica]]; il problema della ricerca degli autovalori di una funzione lineare corrisponde alla sua [[diagonalizzabilità|diagonalizzazione]]. Se un autovettore è una funzione si parla di [[autofunzione]]; per esempio in [[meccanica classica]] è molto comune considerare la [[funzione esponenziale]] <math>f_\lambda(x)=e^{\lambda x}</math> come autofunzione della [[derivata]]. Formalismi di questo tipo consentono di descrivere molti problemi relativi ad un sistema fisico, ad esempio i [[oscillatore armonico|modi di vibrazione]] di un corpo rigido o i [[Matrice di Fock|livelli energetici]] degli [[orbitale atomico|orbitali atomici]] e [[orbitale molecolare|molecolari]] sono associati ad autovettori ([[autostato|autostati]]) di funzioni ([[osservabile|osservabili]]) che ne determinano la dinamica.
Riga 38:
 
===Descrizione matriciale e autovettore sinistro===
Nel caso in cui <math>V</math> sia di dimensione [[insieme finito|finita]], per ogni scelta di [[base (algebra lineare)|basi]] a <math>T</math> è associata univocamente una [[matrice (matematica)|matrice]], detta [[matrice di trasformazione]].<ref>{{Cita|S. Lang|Pag. 104|lang}}.</ref> Si può pertanto parlare di una funzione lineare sia in termini di funzione (trasformazione) che di matrice, ed il formalismo matriciale viene spesso utilizzato per la ricerca di autovettori e autovalori.
 
Sia <math>\mathbf {x} </math> il vettore delle coordinate di <math>\mathbf v </math> rispetto a una base e sia <math>A</math> la matrice di trasformazione rappresentante <math> T </math> rispetto alla medesima base. Si ha che <math>\mathbf {x}</math> è detto autovettore di <math> A </math> se esiste uno scalare <math>\lambda</math> detto autovalore tale che:<ref>{{Cita|S. Lang|Pag. 105|lang}}.</ref>
 
:<math>A \mathbf {x} = \lambda \mathbf {x} </math>
Riga 70:
== Polinomio caratteristico ==
{{Vedi anche|Polinomio caratteristico}}
Si definisce [[polinomio]] caratteristico <math>p(\lambda)</math> nella variabile <math>\lambda</math> associato a una matrice quadrata <math>A</math> il [[determinante]]:<ref>{{Cita|S. Lang|Pag. 227|lang}}.</ref>
 
:<math> p(\lambda) = \det(A - \lambda I) </math>
 
dove <math>I</math> è la [[matrice identità]] con lo stesso numero di righe di <math>A</math>. Le radici del polinomio caratteristico sono tutti gli autovalori di <math>T</math>.<ref>{{Cita|S. Lang|Pag. 228|lang}}.</ref>
 
Due matrici che rappresentano un [[endomorfismo]] <math>T</math> di uno spazio vettoriale <math>V</math> a [[dimensione (spazio vettoriale)|dimensione]] finita sono [[Similitudine fra matrici|simili]], e in particolare hanno il medesimo polinomio caratteristico, e dunque gli stessi autovalori. Si tratta di uno strumento di grande importanza, che ha permesso di sviluppare un metodo generale per l'individuazione di autovalori e autovettori di un endomorfismo nel caso in cui lo spazio vettoriale <math>V</math> abbia [[dimensione]] finita.<ref>Nella pratica gli autovalori di grandi matrici non vengono calcolati usando il polinomio caratteristico, esistendo metodi [[analisi numerica|numerici]] più veloci e sufficientemente stabili.</ref>
Riga 80:
Il polinomio permette inoltre di stabilire l'esistenza di autovalori e autovettori per un'applicazione lineare:
* Il polinomio caratteristico di <math>T</math> ha grado <math>n</math>, e quindi ha al più <math>n</math> radici: segue che <math>T</math> ha al più <math>n</math> autovalori distinti.
* Se <math>K</math> è [[campo algebricamente chiuso|algebricamente chiuso]] allora il polinomio caratteristico ha sempre almeno una radice: segue che <math>T</math> ha almeno un autovalore, e quindi anche almeno un autovettore.<ref>{{Cita|S. Lang|Pag. 223|lang}}.</ref> Nel caso reale questo non succede sempre, ad esempio si possono trovare autovalori complessi.
* Se la dimensione <math>n</math> di <math>V</math> è dispari e <math>K = \R</math> è il campo dei [[numeri reali]], il polinomio caratteristico ha grado dispari, e quindi ha sempre almeno una radice reale. Ad esempio, ogni endomorfismo di <math>\R^3</math> ha almeno un autovettore.
* Inoltre se il polinomio caratteristico di <math>T</math> è completamente fattorizzabile allora <math>T</math> è triangolabile, ossia esiste base di <math>V</math> tale per cui la matrice associata è una matrice triangolare.
Riga 86:
== Diagonalizzabilità ==
{{Vedi anche|Diagonalizzabilità}}
Sia <math>T</math> un [[endomorfismo]] di uno [[spazio vettoriale]] <math>V</math>, cioè una [[trasformazione lineare]] <math>T: V \to V</math>. Si dice che <math>T</math> è diagonalizzabile se esiste una [[base (algebra lineare)|base]] di <math>V</math> rispetto alla quale la matrice che [[Matrice di trasformazione|rappresenta]] <math>T</math> è [[Matrice diagonale|diagonale]].<ref>{{Cita|S. Lang|Pag. 114|lang}}.</ref> In particolare, la base che diagonalizza <math>T</math> è composta da suoi autovettori.
 
In modo equivalente, una [[matrice quadrata]] è diagonalizzabile se è [[Similitudine fra matrici|simile]] a una [[matrice diagonale]].<ref>{{Cita|S. Lang|Pag. 115|lang}}.</ref> La matrice <math>T</math> è quindi diagonalizzabile nel campo di appartenenza se esiste una matrice invertibile <math>P</math> tale che:
 
:<math>P^{-1}TP=\begin{pmatrix}\lambda_{1}\\
Riga 115:
===Il teorema spettrale===
{{vedi anche|Teorema spettrale}}
Nel caso complesso finito-dimensionale il [[teorema spettrale]] afferma che l'endomorfismo <math>T</math> è [[operatore normale|normale]] se e solo se esiste una [[base ortonormale]] di <math>V</math> fatta di suoi [[autovettore|autovettori]].<ref>{{Cita|S. Lang|Pag. 251|lang}}.</ref> In tal caso la matrice <math>P</math> è [[matrice unitaria|unitaria]]. Questo fondamentale risultato fornisce le condizioni per cui sia possibile diagonalizzare un [[operatore lineare continuo|operatore lineare]] rispetto a una base ortonormale: nel caso finito-dimensionale, quando questo risulta possibile succede che ad autovalori distinti corrispondono autovettori mutuamente ortogonali, e pertanto gli [[autospazio|autospazi]] sono in [[somma diretta]].
 
La decomposizione spettrale è un caso particolare della [[decomposizione di Schur]]. È anche un caso particolare della [[decomposizione ai valori singolari]]. Un operatore normale può, di conseguenza, essere scritto come una combinazione lineare di proiettori ortogonali sugli autospazi, i cui coefficienti sono gli autovalori relativi a ogni autospazio.
Riga 129:
:<math>R_\lambda (T) = (\lambda I - T)^{-1} \ </math>
 
Lo spettro di <math>T</math> è l'insieme <math>\sigma(T)</math> dei numeri complessi <math>\lambda</math> che non appartengono all'insieme risolvente, ovvero tali per cui l'operatore <math>\lambda I - T</math> non è invertibile.<ref>{{Cita|Reed, Simon|Pag. 188|reed}}.</ref>
 
Dal momento che <math>\lambda I - T</math> è un [[operatore lineare continuo|operatore lineare]], se il suo inverso esiste esso è lineare. Inoltre, per il [[teorema del grafico chiuso]] l'inverso di un [[operatore limitato|operatore lineare limitato]] è limitato. Segue che l'insieme risolvente è l'insieme dei valori che rendono <math>\lambda I - T</math> bigettivo.
Riga 150:
:<math>\sigma(T^*) = \{\lambda : \bar \lambda \in \sigma(T) \} </math>
 
Inoltre, se <math>\lambda</math> appartiene allo spettro residuo di <math>T</math>, allora <math>\lambda</math> appartiene allo spettro puntuale dell'aggiunto <math>T'</math>. Se invece <math>\lambda</math> appartiene allo spettro puntuale di <math>T</math>, allora esso appartiene sia allo spettro puntuale e sia allo spettro residuo di <math>T'</math>.<ref>{{Cita|Reed, Simon|Pag. 194|reed}}.</ref>
 
Se <math>T</math> è autoaggiunto su uno spazio di Hilbert, si ha inoltre: