Algebra lineare

branca della matematica
Alcuni oggetti studiati in algebra lineare

Vettori

Spazi vettoriali


Trasformazioni lineari

Sistemi di equazioni lineari

Matrici

Autovettori e autovalori

Quadriche

Tensori

L'algebra lineare è la branca della matematica che si occupa dello studio dei vettori, spazi vettoriali (o spazi lineari), trasformazioni lineari e sistemi di equazioni lineari. Gli spazi vettoriali sono un tema centrale nella matematica moderna; l'algebra lineare è usata ampiamente nell'algebra astratta, nella geometria e nell'analisi funzionale. L'algebra lineare ha inoltre una rappresentazione concreta nella geometria analitica.

Con l'algebra lineare si studiano completamente tutti i fenomeni fisici "lineari", cioè quelli in cui intuitivamente non entrano in gioco distorsioni, turbolenze e fenomeni caotici in generale. Anche fenomeni più complessi, non solo della fisica ma anche delle scienze naturali e sociali, possono essere studiati e ricondotti con le dovute approssimazioni a un modello lineare.

Storia modifica

La storia dell'algebra lineare moderna inizia fra il 1843 e il 1844. Nel 1843 William Rowan Hamilton (che ha introdotto il termine vettore) inventò i quaternioni. Nel 1844 Hermann Grassmann pubblicò il suo libro Die lineale Ausdehnungslehre. Arthur Cayley introdusse le matrici (2×2), una delle idee fondamentali dell'algebra lineare, nel 1857.

Introduzione elementare modifica

 
Uno spazio vettoriale è una collezione di oggetti, chiamati "vettori", che possono essere sommati e riscalati.

L'algebra lineare ha le sue origini nello studio dei vettori negli spazi cartesiani a due e a tre dimensioni. Un vettore, in questo caso, è un segmento orientato, caratterizzato da lunghezza (o magnitudine), direzione e verso. I vettori possono essere usati per rappresentare determinate entità fisiche come le forze, e possono essere sommati fra loro e moltiplicati per uno scalare, formando quindi il primo esempio di spazio vettoriale sui reali.

L'algebra lineare moderna è stata estesa per comprendere spazi di dimensione arbitraria o infinita. Uno spazio vettoriale di dimensione n è chiamato n-spazio. Molti dei risultati utili nel 2-spazio e nel 3-spazio possono essere estesi agli spazi di dimensione maggiore. Anche se molte persone non sanno visualizzare facilmente i vettori negli n-spazi, questi vettori o n-uple sono utili per rappresentare dati. Poiché i vettori, come n-uple, sono liste ordinate di n componenti, molte persone comprendono e manipolano i dati efficientemente in questa struttura. Ad esempio, in economia, si può creare e usare vettori 8-dimensionali (ottuple) per rappresentare il Prodotto Interno Lordo di 8 stati. Si può decidere di visualizzare il PIL di 8 stati per un particolare anno, ad esempio (Italia, Stati Uniti, Gran Bretagna, Francia, Germania, Spagna, Giappone, Australia), usando un vettore (v1, v2, v3, v4, v5, v6, v7, v8) dove il PIL di ogni stato è nella sua rispettiva posizione.

Uno spazio vettoriale è definito sopra un campo, come il campo dei numeri reali o il campo dei numeri complessi. Gli operatori lineari mappano elementi da uno spazio vettoriale su un altro (o su sé stesso), in modo che sia mantenuta la compatibilità con l'addizione e la moltiplicazione scalare definiti negli spazi vettoriali. L'insieme di tutte queste trasformazioni è anch'esso uno spazio vettoriale. Se è fissata una base per uno spazio vettoriale, ogni trasformazione lineare può essere rappresentata da una tabella chiamata matrice. Nell'algebra lineare si studiano quindi le proprietà delle matrici, e gli algoritmi per calcolare delle quantità importanti che le caratterizzano, quali il rango, il determinante e l'insieme dei suoi autovalori.

Uno spazio vettoriale (o spazio lineare), come concetto puramente astratto sul quale si provano teoremi, è parte dell'algebra astratta, e ben integrato in questo campo: alcuni oggetti algebrici correlati ad esempio sono l'anello delle mappe lineari da uno spazio vettoriale in sé, o il gruppo delle mappe lineari (o matrici) invertibili. L'algebra lineare gioca anche un ruolo importante in analisi, specialmente nella descrizione delle derivate di ordine superiore nell'analisi vettoriale e nella risoluzione delle equazioni differenziali.

Concludendo, si può dire semplicemente che i problemi lineari della matematica - quelli che esibiscono "linearità" nel loro comportamento - sono quelli più facili da risolvere, e che i problemi "non lineari" vengono spesso studiati approssimandoli con situazioni lineari. Ad esempio nell'analisi, la derivata è un primo tentativo di approssimazione lineare di una funzione. La differenza rispetto ai problemi non lineari è molto importante in pratica: il metodo generale di trovare una formulazione lineare di un problema, in termini di algebra lineare, e risolverlo, se necessario con calcoli matriciali, è uno dei metodi più generali applicabili in matematica.

Nozioni di base modifica

Spazio vettoriale modifica

  Lo stesso argomento in dettaglio: Spazio vettoriale.
 
Un vettore   può essere riscalato, cioè moltiplicato per un numero. Qui sono mostrati i vettori   e  , ottenuti moltiplicando   rispettivamente per 2 e -1.

La nozione più importante in algebra lineare è quella di spazio vettoriale. Uno spazio vettoriale è un insieme   di elementi, detti vettori, aventi delle proprietà che li rendono simili ai vettori applicati in un punto fissato (l'origine) del piano o dello spazio.

Più precisamente, sono definite su   un paio di operazioni binarie:[1]

  • due vettori   e   possono essere sommati, dando così luogo ad un nuovo vettore  . Le proprietà della somma vettoriale sono associatività, commutatività, esistenza dell'elemento neutro, esistenza dell'elemento inverso;
  • un vettore   può essere riscalato, cioè moltiplicato per uno scalare, cioè un numero  , dando così luogo ad un nuovo vettore  . le proprietà della moltiplicazione per scalare sono associatività, esistenza di un neutro;
  • la somma vettoriale è distributiva rispetto al prodotto, mentre il prodotto è distributivo rispetto alla somma.
 
Due vettori   e   possono essere sommati usando la regola del parallelogramma.

Il numero   (detto scalare) appartiene ad un campo che viene fissato fin dall'inizio: questo può essere ad esempio il campo   dei numeri reali o il campo   dei numeri complessi.

Il piano cartesiano è l'esempio fondamentale di spazio vettoriale. Ogni punto del piano è in realtà identificato univocamente come una coppia   di numeri reali. L'origine è il punto  . Il punto   può essere interpretato alternativamente come punto del piano o come vettore applicato nell'origine che parte da   e arriva in  .

Analogamente lo spazio cartesiano è formato da triple di punti  . Più in generale, le ennuple di   numeri reali

 

formano uno spazio vettoriale che viene indicato con  . Ancora più in generale, si può sostituire   con un altro campo   e ottenere quindi lo spazio vettoriale  .

Applicazioni lineari modifica

  Lo stesso argomento in dettaglio: Trasformazione lineare.
 
Una rotazione del piano cartesiano centrata nell'origine (0,0) è una trasformazione lineare.

Un'applicazione lineare è una funzione fra due spazi vettoriali

 

che sia compatibile con le operazioni definite su entrambi. Devono cioè valere le proprietà seguenti:

 
 

per ogni coppia di vettori   in   e ogni scalare  . I termini "applicazione", "funzione", "trasformazione", "mappa" e "omomorfismo" sono in questo contesto tutti sinonimi. Il termine "lineare" sta a indicare la compatibilità con le operazioni. Un'applicazione lineare manda necessariamente l'origine (di  ) nell'origine (di  ):

 
 
Una trasformazione lineare può distorcere gli oggetti.

Gli spazi   e   possono coincidere. In questo caso l'applicazione è più propriamente una trasformazione di  , ovvero una funzione che sposta i punti di  , chiamata anche endomorfismo. Una trasformazione di   deve necessariamente tenere fissa l'origine O.

Molte trasformazioni del piano cartesiano o dello spazio che tengono fissa l'origine O sono lineari: tra queste, le rotazioni (intorno a O), le riflessioni rispetto ad una retta o un piano (passante per O), le omotetie (centrate in O) e le proiezioni (su una retta o piano passante per O).

 
Una trasformazione lineare può allargare un oggetto orizzontalmente e comprimerlo verticalmente.

Le applicazioni lineari compaiono in contesti molto differenti. Ad esempio, il funzionale

 

che associa ad una funzione   il suo integrale è un'applicazione lineare

 

dallo spazio   delle funzioni continue a valori reali in  .

Basi e dimensione modifica

  Lo stesso argomento in dettaglio: Base (algebra lineare) e Dimensione (spazio vettoriale).
 
I vettori   e   formano la base canonica del piano cartesiano  . Ogni altro vettore si scrive (in modo univoco) come combinazione lineare di questi due vettori. Ad esempio, il vettore   si scrive come  .

Un punto ha dimensione zero, una retta ha dimensione uno, un piano ha dimensione due e uno spazio ha dimensione tre. L'algebra lineare permette di definire e trattare in modo rigoroso spazi di dimensione superiore alla terza. Lo spazio fondamentale di dimensione   è lo spazio vettoriale delle ennuple, indicato con  . Per  , questo è l'usuale piano cartesiano.

Ogni spazio vettoriale   ha una dimensione. Questa è definita in modo algebrico, come il numero di elementi in una base per  : una base è un insieme di vettori che funge da sistema di riferimento per  . Rigorosamente, una base è una successione

 

di vettori indipendenti che generano lo spazio  . Uno spazio vettoriale può avere anche dimensione infinita: gli spazi vettoriali di dimensione infinita sono spesso più complicati, e molti teoremi di algebra lineare richiedono come ipotesi che   abbia dimensione finita.

Le nozioni di base e dimensione si applicano a   (che ha dimensione  ) e ai sottospazi ivi contenuti. Essendo però definite in modo puramente algebrico, si applicano anche in contesti molto differenti: ad esempio, le matrici   formano uno spazio vettoriale di dimensione  . I polinomi in una variabile formano uno spazio vettoriale di dimensione infinita: restringendo però il grado dei polinomi ad un certo valore massimo   si ottiene uno spazio vettoriale di dimensione  .

Prodotto scalare modifica

  Lo stesso argomento in dettaglio: Prodotto scalare.
 
Il prodotto scalare euclideo nel piano fra due vettori   e   è definito come il prodotto delle lunghezze di   e della proiezione di   su  . Esistono però molti altri modi utili di definire un prodotto scalare, in spazi di dimensione arbitraria.

Due vettori   e   di uno spazio vettoriale possono essere sommati: il risultato è un vettore  . Inoltre un vettore   e uno scalare   possono essere moltiplicati: il risultato è un vettore  . Nella definizione di spazio vettoriale non è però prevista un'operazione di prodotto fra due vettori.

In alcuni contesti è però utile aggiungere un'ulteriore operazione binaria fra vettori, che si comporti come un prodotto. Il risultato di questo prodotto può essere a sua volta un vettore o uno scalare. Nel primo caso, questa operazione si chiama prodotto vettoriale, e nel secondo prodotto scalare. L'operazione di prodotto vettoriale risulta però interessante solo in dimensione tre, mentre i prodotti scalari esistono (e sono utili) in tutte le dimensioni: per questo motivo questi ultimi sono molto più studiati.

Nella definizione di spazio vettoriale non è inoltre neppure prevista una nozione di lunghezza (equivalentemente, norma) per i vettori, né di angolo fra due di questi. Entrambe le nozioni di lunghezza e angolo risultano però definite se è fissato un opportuno prodotto scalare.[2]

Applicazioni modifica

Sistemi lineari modifica

  Lo stesso argomento in dettaglio: Sistema di equazioni lineari.

Un sistema di equazioni lineari è il dato di un certo numero   di equazioni lineari in alcune variabili  . Usando le matrici e la moltiplicazione riga per colonne, un sistema può essere scritto in modo stringato nel modo seguente:

 

In questa espressione   è una matrice  ,   è il vettore delle variabili  , ...,   e   è un altro vettore formato da costanti.

L'algebra lineare fornisce molti algoritmi per determinare le soluzioni di un sistema lineare. Il legame fra i sistemi di equazioni e l'algebra lineare sta nel fatto che la matrice   può essere interpretata come applicazione lineare da   in  : secondo questa interpretazione, le soluzioni   sono esattamente le controimmagini di  .

Il teorema di Rouché-Capelli fornisce un metodo per contare le soluzioni, senza necessariamente determinarle completamente.[3] Nel caso in cui il sistema sia quadrato e abbia una sola soluzione, questa può essere scritta esplicitamente usando la regola di Cramer. Però tale soluzione teorica è praticamente utilizzabile solo per risolvere sistemi molto piccoli.[4] Mentre i metodi di eliminazione (es. Gauss) e quelli iterativi (es. Gauss-Seidel) consentono di calcolare effettivamente le soluzioni di un sistema lineare, anche di grandi dimensioni.

Geometria analitica modifica

 
Una retta nel piano cartesiano è descritta da un'equazione lineare del tipo  . Due rette distinte sono parallele se il sistema formato dalle loro due equazioni non ha soluzione.
 
Tre piani nello spazio possono avere varie configurazioni differenti: in questo caso si intersecano in un punto. Ciascun piano è descritto da un'equazione. Il punto di intersezione è ottenuto come soluzione di un sistema con 3 equazioni e 3 variabili.

In geometria analitica una retta o un piano sono descritti da sistemi di equazioni lineari: come si è appena visto, questi possono essere agevolmente studiati con gli strumenti dell'algebra lineare. Si possono quindi affrontare problemi quali le posizioni reciproche di due rette (o piani) nello spazio (che possono essere incidenti, paralleli o sghembi), e come queste variano per trasformazioni lineari.

Le coniche nel piano come ellisse, parabola e iperbole sono determinate da equazioni di secondo grado. Queste equazioni sono più complicate di quelle lineari, che sono di primo grado. Nonostante ciò, la classificazione delle coniche è realizzata in modo efficace con gli strumenti dell'algebra lineare, grazie a teoremi non banali quali il teorema spettrale e il teorema di Sylvester. Con gli stessi strumenti si classificano le quadriche nello spazio.

Calcolo differenziale modifica

L'analisi matematica delle funzioni in una variabile non fa uso dell'algebra lineare. L'analisi delle funzioni in più variabili invece dipende fortemente da questo settore. La nozione di derivata è infatti estesa in più variabili a quella di differenziale: mentre la derivata è un semplice numero reale che indica la pendenza di una funzione in un punto, il differenziale è un'applicazione lineare, che indica sempre la "pendenza" di una funzione (a più variabili) in un punto.

Anche la nozione di derivata seconda si estende a più variabili: il risultato è una matrice detta matrice hessiana. Se questa matrice è simmetrica, ad esempio quando valgono le ipotesi del teorema di Schwarz, può essere agevolmente rappresentata come diagonale grazie al teorema spettrale.

Analisi funzionale modifica

Molti problemi dell'analisi funzionale, quali la ricerca di una soluzione per un'equazione differenziale, vengono affrontati analizzando un particolare spazio di funzioni. Uno spazio di funzioni è uno spazio vettoriale i cui elementi sono funzioni di un certo tipo (ad esempio continue, integrabili, derivabili... definite su un dominio fissato). Spazi di questo tipo sono generalmente di dimensione infinita, e sono dotati di alcune strutture aggiuntive, quali ad esempio un prodotto scalare (negli spazi di Hilbert), una norma (negli spazi di Banach) o una più generale topologia (negli spazi vettoriali topologici).

Esempi di spazi di funzioni includono gli spazi Lp e gli spazi di Sobolev.

Meccanica quantistica modifica

 
Le funzioni d'onda associate agli stati di un elettrone in un atomo di idrogeno sono gli autovettori di alcuni particolari operatori autoaggiunti usati in meccanica quantistica.

La meccanica quantistica fa ampio uso dei teoremi più avanzati dell'algebra lineare. Il modello matematico usato in questo settore della fisica (formalizzato principalmente da Paul Dirac e John Von Neumann) descrive i possibili stati di un sistema quantistico come elementi di un particolare spazio di Hilbert e le grandezze osservabili (quali posizione, velocità, etc.) come operatori autoaggiunti. I valori che possono assumere queste grandezze quando vengono effettivamente misurate sono gli autovalori dell'operatore.

L'introduzione e l'uso di questi concetti matematici non banali nella fisica quantistica è stato uno dei maggiori stimoli allo sviluppo dell'algebra lineare nel XX secolo.

Strumenti modifica

Matrici modifica

  Lo stesso argomento in dettaglio: Matrice.

Una matrice è una tabella di numeri, come ad esempio:

 

Le matrici sono utili in algebra lineare per rappresentare le applicazioni lineari. Questo viene fatto tramite la moltiplicazione riga per colonna. Ad esempio, la matrice descritta   rappresenta una trasformazione del piano cartesiano   in sé. Questa trasformazione manda il punto   nel punto

 

Questa trasformazione non è nient'altro che una rotazione antioraria di 90º con centro l'origine.

La relazione fra matrici e applicazioni lineari è molto forte. Ogni applicazione lineare fra spazi vettoriali di dimensione   e   è descrivibile tramite una matrice associata di tipo  , purché in entrambi gli spazi vettoriali siano fissate delle basi. L'effetto di un cambiamento di base è codificato dalla matrice di cambiamento di base e la composizione di funzioni si traduce in una moltiplicazione fra matrici.

Eliminazione di Gauss modifica

  Lo stesso argomento in dettaglio: Eliminazione di Gauss.

L'eliminazione di Gauss è un algoritmo che consente di ridurre una matrice in una forma più semplice tramite opportune mosse sulle righe. Questo algoritmo è usato principalmente per determinare le soluzioni di un sistema di equazioni lineari, ma ha anche applicazioni più interne all'algebra lineare: con l'eliminazione di Gauss si può determinare il rango, il determinante o l'inversa di una matrice, si può estrarre una base da un insieme di generatori.

Determinante modifica

  Lo stesso argomento in dettaglio: Determinante (algebra).
 
Una trasformazione lineare del piano cartesiano descritta da una matrice quadrata  . Il determinante della matrice fornisce delle informazioni sulla trasformazione: il valore assoluto descrive il cambiamento di area, mentre il segno descrive il cambiamento di orientazione. Nell'esempio qui riportato, la matrice ha determinante -1: quindi la trasformazione preserva le aree (un quadrato di area 1 si trasforma in un parallelogramma di area 1) ma inverte l'orientazione del piano (cambia il verso della freccia circolare).

Il determinante è un numero associato ad una matrice quadrata  , generalmente indicato come  . Da un punto di vista algebrico, il determinante è importante perché vale zero precisamente quando la matrice non è invertibile; quando non è zero, fornisce inoltre un metodo per descrivere la matrice inversa tramite la regola di Cramer.

Da un punto di vista geometrico, il determinante fornisce molte informazioni sulla trasformazione associata ad  : il suo segno (sui numeri reali) indica se la trasformazione mantiene l'orientazione dello spazio, ed il suo valore assoluto indica come cambiano le aree degli oggetti dopo la trasformazione.

Autovalori e autovettori modifica

  Lo stesso argomento in dettaglio: Autovettore e autovalore.
 
In questa trasformazione lineare della Gioconda, l'immagine è modificata ma l'asse centrale verticale rimane fisso. Il vettore blu ha cambiato lievemente direzione, mentre quello rosso no. Quindi il vettore rosso è un autovettore della trasformazione e quello blu no.

Per caratterizzare un endomorfismo è utile studiare alcuni vettori, chiamati autovettori. Geometricamente, un autovettore è un vettore che non cambia direzione. Da un punto di vista algebrico, si tratta di un vettore   tale che

 

per qualche scalare  , detto autovalore. L'endomorfismo è particolarmente semplice da descrivere se è diagonalizzabile: geometricamente, questo vuol dire che esiste una base di autovettori; algebricamente, vuol dire che l'endomorfismo può essere rappresentato tramite una matrice diagonale, come ad esempio

 

Gli autovalori possono essere trovati agevolmente calcolando il polinomio caratteristico della matrice associata, definito come

 

Gli autovalori di   sono precisamente le radici di questo polinomio. Gli autovettori si organizzano in sottospazi vettoriali chiamati autospazi. Quando lo spazio vettoriale è uno spazio di funzioni, l'autovalore è una particolare funzione, chiamata autofunzione.

Forma canonica di Jordan modifica

  Lo stesso argomento in dettaglio: Forma canonica di Jordan.

Un endomorfismo diagonalizzabile è rappresentabile in modo agevole tramite una matrice diagonale. Non tutti gli endomorfismi sono però diagonalizzabili: ad esempio, una rotazione antioraria del piano cartesiano   di angolo   è rappresentata dalla matrice

 

che (per   diverso da 0 e  ) non ha autovalori né autovettori, e quindi a maggior ragione non può essere diagonalizzabile. Un altro esempio di matrice non diagonalizzabile è la seguente

 

Se il campo considerato è però il campo   dei numeri complessi, è comunque possibile rappresentare l'endomorfismo tramite una matrice che assomiglia il più possibile ad una matrice diagonale, come nel secondo esempio mostrato. Questa rappresentazione, detta forma canonica di Jordan, caratterizza completamente gli endomorfismi. Esiste un'analoga rappresentazione nel campo reale, leggermente più complicata.

Ortogonalizzazione modifica

  Lo stesso argomento in dettaglio: Ortogonalizzazione di Gram-Schmidt e Algoritmo di Lagrange.

Similmente ad un endomorfismo, anche un prodotto scalare può essere rappresentato da una matrice quadrata. Anche in questo contesto, la forma più semplice da trattare è quella in cui la matrice risulta essere diagonale, e questo accade precisamente quando si fissa una base ortogonale.

A differenza degli endomorfismi, in questo contesto è sempre possibile trovare una matrice diagonale. In altre parole, per qualsiasi prodotto scalare è possibile trovare basi ortogonali. Se il prodotto scalare è definito positivo, un algoritmo efficiente a questo scopo è l'ortogonalizzazione di Gram-Schmidt. Per prodotti scalari più generali si può usare l'algoritmo di Lagrange.

Teoremi modifica

Teorema della dimensione modifica

  Lo stesso argomento in dettaglio: Teorema della dimensione.

Il teorema della dimensione (o del rango) è un teorema che mette in relazione le dimensioni del nucleo e dell'immagine di un'applicazione lineare  , secondo la formula:

 

Qui Im e Ker denotano immagine e nucleo, mentre   è la dimensione del dominio di  . Questo risultato è anche chiamato teorema del rango, perché tradotto nel linguaggio delle matrici assume la forma seguente:

 

Qui rk e null indicano rispettivamente il rango e l'indice di nullità di una matrice   del tipo  .

Teorema di Rouché-Capelli modifica

  Lo stesso argomento in dettaglio: Teorema di Rouché-Capelli.

Il teorema di Rouché-Capelli dà alcune informazioni sull'insieme delle soluzioni di un generico sistema lineare:

 

Il teorema afferma due cose:

  • il sistema ha soluzione se e solo se le matrici   e   hanno lo stesso rango  ;
  • se ci sono soluzioni, queste formano un sottospazio affine di dimensione  , dove   è il numero di incognite (cioè il numero di colonne di  ).

In particolare, il numero di soluzioni può essere solo zero, uno o infinito (se le equazioni sono a coefficienti reali o complessi).

Il teorema è generalmente usato per determinare rapidamente se un sistema ammette una o più soluzioni: non può però essere usato per determinarle esplicitamente. Uno strumento per questo scopo è il metodo di eliminazione di Gauss.

Relazione di Grassmann modifica

  Lo stesso argomento in dettaglio: Formula di Grassmann.

La formula di Grassmann mette in relazione le dimensioni di vari sottospazi, definiti a partire da due sottospazi   e   entrambi contenuti uno spazio fissato  . La formula è la seguente:

 

Nell'espressione compaiono i sottospazi ottenuti come somma e intersezione di   e  .

Teorema spettrale modifica

  Lo stesso argomento in dettaglio: Teorema spettrale.

Il teorema spettrale fornisce una condizione forte di diagonalizzabilità per alcuni endomorfismi, detti simmetrici o autoaggiunti (a volte il termine operatore è usato come sinonimo di endomorfismo). La nozione di endomorfismo simmetrico (o operatore autoaggiunto) dipende dalla presenza di un fissato prodotto scalare definito positivo (o hermitiano se si usano spazi vettoriali complessi). Il teorema spettrale asserisce che un tale endomorfismo ha una base ortonormale formata da autovettori.

Generalizzazione e argomenti correlati modifica

I metodi dell'algebra lineare sono stati estesi ad altre branche della matematica, grazie al loro successo. Nella teoria dei moduli si sostituisce il campo degli scalari con un anello. L'algebra multilineare si occupa dei problemi che mappano linearmente 'molte variabili' in un numero differente di variabili, portando inevitabilmente al concetto di tensore. Nella teoria spettrale degli operatori si riescono a gestire matrici di dimensione infinita applicando l'analisi matematica in una teoria non puramente algebrica. In tutti questi casi le difficoltà tecniche sono maggiori. Inoltre, l'algebra lineare viene a essere fondamentale per ambiti riguardanti l'ottimizzazione, in particolare la ricerca operativa.

Note modifica

  1. ^ Gatto, Letterio., Lezioni di algebra lineare e geometria per l'ingegneria : i veri appunti del corso, CLUT, 2013, ISBN 9788879923439, OCLC 956082822. URL consultato il 19 marzo 2019.
  2. ^ Più precisamente, questo accade per uno spazio vettoriale reale dotato di un prodotto scalare definito positivo.
  3. ^ Lo spazio delle soluzioni di un sistema è uno spazio affine, ed il teorema di Rouché-Capelli fornisce un metodo per calcolarne la dimensione. Il numero di soluzioni può essere solo 0, 1 o infinito.
  4. ^ Problemi computazionali che limitano l'uso della Regola di Cramer

Bibliografia modifica

Voci correlate modifica

Altri progetti modifica

Collegamenti esterni modifica

Controllo di autoritàThesaurus BNCF 17729 · LCCN (ENsh85003441 · GND (DE4035811-2 · BNE (ESXX527736 (data) · BNF (FRcb11937509n (data) · J9U (ENHE987007293931805171 · NDL (ENJA00570681
  Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica