Apri il menu principale

DefinizioneModifica

Data una matrice invertibile  , indicando con   la sua trasposta si definisce   ortogonale se:

 

ovvero la trasposta è l'inversa.

In modo equivalente, una matrice ortogonale è una matrice che rappresenta una isometria dello spazio euclideo, oppure è una matrice di cambiamento di base fra due basi ortonormali.

Si può facilmente ricavare che il numero di parametri indipendenti in una matrice ortogonale di dimensione   è  .

ProprietàModifica

Basi ortonormaliModifica

Una matrice quadrata è ortogonale se e solo se le sue colonne formano una base ortonormale dello spazio euclideo   con l'ordinario prodotto scalare. In effetti questa proprietà è semplicemente la rilettura della relazione  .

Rileggendo similmente la relazione  , si ricava l'enunciato duale del precedente: una matrice quadrata reale è ortogonale se e solo se le sue righe formano una base ortonormale di  .

IsometrieModifica

Geometricamente, le matrici ortogonali descrivono le trasformazioni lineari di   che sono anche isometrie. Queste preservano il prodotto scalare dello spazio, e quindi gli angoli e le lunghezze. Ad esempio, le rotazioni e le riflessioni sono isometrie.

Viceversa, se   è un qualsiasi spazio vettoriale di dimensione finita dotato di un prodotto scalare definito positivo, e   è un'applicazione lineare con:

 

per tutti gli elementi  ,   di  , allora   è una isometria ed è rappresentata in ogni base ortonormale di   da una matrice ortogonale.

In uno spazio euclideo di dimensione 2 e 3, ogni matrice ortogonale esprime una rotazione intorno ad un punto o un asse, o una riflessione, o una composizione di queste due trasformazioni.

Gruppo ortogonaleModifica

 Lo stesso argomento in dettaglio: Gruppo ortogonale.

Dalla definizione segue subito che l'inversa di ogni matrice ortogonale, cioè la sua trasposta, è anch'essa ortogonale.

Analogamente, il prodotto di due matrici ortogonali è una matrice ortogonale. Infatti:

 

Questo dimostra che l'insieme delle matrici ortogonali   forma un gruppo, il gruppo ortogonale, che è un gruppo di Lie e viene indicato con  .

La sua dimensione è  . Intuitivamente, la dimensione è calcolata nel modo seguente: gli   numeri di una matrice ortogonale sono vincolati dalle   uguaglianze della definizione, ciascuna delle quali è caratterizzata da una coppia di indici   che vanno da 1 a  , ma l'equazione relativa a   con   equivale a quella relativa a   e quindi ci sono solo   equazioni indipendenti, e quindi   gradi di libertà.

Matrice ortogonale specialeModifica

Il determinante di ogni matrice ortogonale è   o  . Questo si può dimostrare come segue:

 

Una matrice ortogonale con determinante positivo si dice matrice ortogonale speciale.

L'insieme di tutte le matrici ortogonali speciali formano un sottogruppo di   di indice 2, chiamato gruppo ortogonale speciale e denotato  .

Autovalori e decomposizioniModifica

AutovaloriModifica

Tutti gli autovalori di una matrice ortogonale, anche quelli complessi, hanno valore assoluto  . Autospazi relativi a differenti autovalori sono ortogonali tra loro.

Decomposizioni lungo pianiModifica

Data una matrice ortogonale  , esiste una matrice ortogonale  , tale che:

 

dove   denotano matrici di rotazione  . Intuitivamente, questo risultato dice che ogni matrice ortogonale descrive una combinazione di rotazioni e riflessioni su piani ortogonali. Le matrici   corrispondono alle coppie di autovalori complessi coniugati di  .

Decomposizione QRModifica

 Lo stesso argomento in dettaglio: Decomposizione QR.

Se   è una arbitraria matrice di tipo   di rango   (cioè  ), si può sempre scrivere:

 

dove   è una matrice ortogonale di tipo   e   è una matrice triangolare superiore di tipo   con valori positivi sulla diagonale principale. La decomposizione QR può essere dimostrata applicando l'ortogonalizzazione di Gram-Schmidt alle colonne di  .

Questa decomposizione risulta utile per risolvere numericamente i sistemi di equazioni lineari e i problemi di minimi quadrati.

Matrici ortogonali e rappresentazione delle algebre di CliffordModifica

 Lo stesso argomento in dettaglio: Algebra di Clifford.

Alle matrici ortogonali si può attribuire un secondo significato geometrico che si collega alle rappresentazione matriciale delle algebre di Clifford. Ad esempio, i vettori della base canonica di   sono   e   e un generico vettore   di questo piano cartesiano si può scrivere:

 

La matrice ortogonale:

 

rappresenta la riflessione rispetto alla bisettrice  , poiché scambia le due componenti di ogni vettore piano:

 

La matrice ortogonale:

 

rappresenta invece la riflessione rispetto all'asse  , poiché il punto   ha come immagine  :

 

Per i due prodotti di queste matrici si trova:

 
 

Si tratta delle due rotazioni nel piano di   e di  , rotazioni opposte: quindi le due matrici   anticommutano. In formule:

 

Si considerino ora   ed   come vettori di base del piano bidimensionale delle loro combinazioni lineari:

 

sfruttando la composizione:

 

si trova:

 

Per il quadrato di una di queste entità in particolare:

 

Si può quindi definire come prodotto interno di   e   la precedente composizione, a meno della matrice unità  . Questo è lecito in quanto chiaramente si tratta di una forma bilineare simmetrica positiva. Il prodotto interno di una entità matriciale e vettoriale con sé stessa fornisce il quadrato della sua norma.

Dato che le entità base anticommutano si vede che:

 

Le entità   ed   sono ortogonali secondo entrambe le loro interpretazioni: sono matrici ortogonali e rappresentano vettori di base ortogonali in quanto matrici anticommutative.

Matrici ortogonali trigonometricheModifica

Matrice ortogonale 2×2Modifica

 

Matrice ortogonale 3×3Modifica

 

Queste matrici sono anche matrici di rotazione di coordinate. Utilizzando le equazioni di rotazione di uno spazio n-dimensionale si possono costruire matrici ortogonali trigonometriche di dimensione  .

BibliografiaModifica

  • (EN) A.I. Mal'tsev, Foundations of linear algebra , Freeman (1963) (Translated from Russian)
  • (EN) W. Noll, Finite dimensional spaces , M. Nijhoff (1987) pp. Sect. 43
  • (EN) H.W. Turnball, A.C. Aitken, An introduction to the theory of canonical matrices , Blackie & Son (1932)
  • (EN) Persi Diaconis, Mehrdad Shahshahani. The subgroup algorithm for generating uniform random variables. Prob. in Eng. and Info. Sci., vol. 1, 15–32, 1987. ISSN 0269-9648.
  • (EN) Augustin A. Dubrulle. Frobenius Iteration for the Matrix Polar Decomposition. HP Labs Technical Report HPL-94-117. December 16, 1994. [1]
  • (EN) Gene H. Golub, Charles F. Van Loan. Matrix Computations, 3/e. Johns Hopkins University Press, Baltimore, 1996. ISBN 978-0-8018-5414-9.
  • (EN) Nicholas Higham. Computing the Polar Decomposition—with Applications. SIAM Journal on Scientific and Statistical Computing, 7(4):1160–1174, 1986. ISSN 0196-5204. [2] Archiviato il 7 ottobre 2007 in Internet Archive.

Voci correlateModifica

Collegamenti esterniModifica

  Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica