Matrice invertibile
In matematica, in particolare in algebra lineare, una matrice quadrata è detta invertibile, o regolare, se esiste un'altra matrice tale che il prodotto matriciale tra le due restituisce la matrice identità.
L'insieme delle matrici invertibili di dimensioni è un gruppo moltiplicativo rispetto all'ordinaria operazione di prodotto matriciale; tale struttura algebrica è detta Gruppo generale lineare ed è indicata con il simbolo .
DefinizioneModifica
Una matrice quadrata è detta invertibile se esiste una matrice tale che:[1]
dove denota la matrice identità e la moltiplicazione usata è l'ordinaria moltiplicazione di matrici.
Se è questo il caso, allora la matrice è univocamente determinata da ed è chiamata l'inversa di , indicata con .
Nella definizione, le matrici e hanno valori in un anello con unità.
Definizioni equivalentiModifica
Una matrice è singolare se ha determinante uguale a zero. Tra le affermazioni elencate sotto, la più importante dice che se ha valori in un campo, come ad esempio quello dei numeri reali o complessi, la matrice è invertibile se e solo se non è singolare.
Sia una matrice quadrata con valori in un campo (ad esempio, il campo dei numeri reali o complessi).
Le seguenti affermazioni sono equivalenti e caratterizzano una matrice invertibile:
- Esiste una matrice tale che .
- Il determinante non è nullo: .
- Il rango di è .
- La trasposta è una matrice invertibile.
- L'equazione (con e vettori colonna in ) ha solamente la soluzione banale .
- L'equazione ha esattamente una soluzione per ogni in .
- Le colonne di sono linearmente indipendenti.
- Le righe di sono linearmente indipendenti.
- Le colonne di generano .
- Le colonne di formano una base di .
- L'applicazione lineare da in data da: è biiettiva.
- Il numero 0 non è un autovalore di .
- è trasformabile nella matrice identità tramite l'algoritmo di Gauss-Jordan.
- è trasformabile mediante algoritmo di Gauss-Jordan in una matrice a scalini con pivot.
ProprietàModifica
- L'inversa di una matrice invertibile è essa stessa invertibile, e si ha:[2]
- Il prodotto di due matrici invertibili e è ancora invertibile, con inversa data da:
Come conseguenza delle proprietà precedenti, l'insieme delle matrici invertibili costituisce un gruppo con la moltiplicazione, noto come il gruppo generale lineare .
Poiché le matrici invertibili formano un gruppo, possono in molti casi essere manipolate come se fossero dei numeri reali. Ad esempio:
- Se e sono invertibili, l'equazione ha una sola soluzione, data da . Analogamente ha come unica soluzione .
Matrici realiModifica
Sul campo dei numeri reali l'insieme di tutte le matrici è uno spazio vettoriale isomorfo a , e il sottoinsieme delle matrici non invertibili è un insieme nullo, cioè ha misura di Lebesgue zero, essendo l'insieme degli zeri della funzione determinante, che è un polinomio. Intuitivamente, questo vuol dire che la probabilità che una matrice quadrata casuale a valori reali sia non-invertibile è zero. Parlando in modo approssimativo, si dice che "quasi tutte" le matrici sono invertibili.
Matrice invertibile in un anelloModifica
Il teorema della matrice invertibile generalmente non vale in un anello commutativo. In questo caso, la matrice è invertibile se e solo se il suo determinante è una unità, ossia è invertibile, in questo anello.
Sistemi lineariModifica
Se è invertibile, l'equazione ha una sola soluzione, data da . Analogamente ha come unica soluzione .
Nel caso particolare in cui e abbiano dimensioni , ovvero siano vettori colonna, l'equazione rappresenta un sistema lineare, dove è la matrice dei coefficienti.[3]
è invertibile se il sistema ha una soluzione unica o, in modo equivalente, se il sistema omogeneo associato ha come unica soluzione il vettore nullo.[4]
Calcolo della matrice inversaModifica
Esistono vari metodi per il calcolo dell'inversa di una matrice quadrata invertibile .
Matrici di ordine 2Modifica
La matrice inversa di una matrice 2 per 2 invertibile:
è la seguente:
Metodo della matrice dei cofattoriModifica
Il metodo della matrice dei cofattori risulta particolarmente rapido quando non interessa calcolare tutti gli elementi della matrice inversa, e quando la matrice è di dimensione contenuta. Inoltre, la presenza di variabili letterali tra gli elementi non aumenta di molto la complessità del calcolo.
Data una matrice quadrata e invertibile:
la sua inversa è la seguente:
dove è il determinante di , la matrice è la matrice dei cofattori (o dei complementi algebrici) e l'esponente indica l'operazione di trasposizione di matrici.
Uno schema mnemonico per la variazione del segno è il seguente:
Algoritmo di Gauss-JordanModifica
L'algoritmo di Gauss-Jordan, può essere usato per trovare (quando esiste) l'inversa di una matrice. Funziona nel modo seguente: sia una matrice invertibile. Si costruisce la matrice con righe e colonne affiancando e la matrice identità . A questo punto si applica l'algoritmo di Gauss-Jordan alla nuova . Questo algoritmo trasforma la matrice in una matrice a scalini, che sarà del tipo . La matrice così trovata è proprio l'inversa di .
L'esempio seguente mostra che l'inversa di:
è la matrice:
Infatti:
Nel primo passaggio si è moltiplicata la prima riga per , nel secondo si è sommata alla seconda riga la prima, nel terzo si è moltiplicata la seconda riga per , nel quarto passaggio si è sommata alla prima riga la seconda e infine nell'ultimo passaggio si è divisa la prima riga per e la seconda per . In questo modo si è partiti da una matrice di e si è arrivati a . Si ha che è l'inversa di .
Inversa di una matrice partizionataModifica
Data una matrice partizionata a blocchi:
in cui le sottomatrici sulla diagonale e sono quadrate e non singolari, si può dimostrare che l'inversa di risulta uguale a:
dove è una matrice identità di ordine appropriato e:
ovvero:
con:
NoteModifica
- ^ S. Lang, Pag. 68.
- ^ Hoffman, Kunze, Pag. 22.
- ^ Un ragionamento analogo vale anche per , ma qui e devono essere vettori riga.
- ^ Hoffman, Kunze, Pag. 23.
BibliografiaModifica
- Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992, ISBN 88-339-5035-2.
- (EN) Kenneth Hoffman, Ray Kunze, Linear Algebra, 2ª ed., Englewood Cliffs, New Jersey, Prentice - Hall, inc., 1971, ISBN 0-13-536821-9.
- (EN) Roger A. Horn e Charles R. Johnson, Matrix Analysis, Cambridge University Press, 1985, p. 14, ISBN 978-0-521-38632-6.
- (EN) Gilbert Strang, Introduction to linear algebra, 3rd, SIAM, 2003, p. 71, ISBN 0-9614088-9-8., Chapter 2, page 71
- (EN) Dennis Bernstein, Matrix Mathematics, Princeton University Press, 2005, pp. 44, ISBN 0-691-11802-7.
Voci correlateModifica
Collegamenti esterniModifica
- (EN) Kh.D. Ikramov, Inversion of a matrix, in Encyclopaedia of Mathematics, Springer e European Mathematical Society, 2002.
- (EN) Eric W. Weisstein, Nonsingular Matrix, in MathWorld, Wolfram Research.
- (EN) Matrix Mathematics: Theory, Facts, and Formulas at Google books
- (EN) Equations Solver Online, su solvingequations.net. URL consultato il 24 aprile 2019 (archiviato dall'url originale il 18 marzo 2016).
- (EN) Lecture on Inverse Matrices by Khan Academy, su khanacademy.org (archiviato dall'url originale il 3 novembre 2011).
- (EN) Linear Algebra Lecture on Inverse Matrices by MIT, su ocw.mit.edu.
- (EN) LAPACK is a collection of FORTRAN subroutines for solving dense linear algebra problems
- Programma che calcola l'inversa di una matrice, su evinive.altervista.org.
- Programma parallelo in MPI per calcolare l'inversa di una matrice, su parallelknoppix.info. URL consultato il 10 aprile 2011 (archiviato dall'url originale il 13 gennaio 2012).