La matrice esponenziale definisce una funzione:
exp
:
M
n
(
C
)
→
G
L
(
n
,
C
)
{\displaystyle \exp \colon M_{n}(\mathbb {C} )\to \mathrm {GL} (n,\mathbb {C} )}
dallo spazio delle matrici
n
×
n
{\displaystyle n\times n}
al gruppo generale lineare di grado
n
{\displaystyle n}
, ossia il gruppo delle matrici invertibili . Si tratta di una mappa suriettiva, infatti ogni matrice invertibile può essere scritta come l'esponenziale di qualche altra matrice (considerando il campo complesso).
Date due matrici
X
{\displaystyle X}
e
Y
{\displaystyle Y}
, si ha:
‖
e
X
+
Y
−
e
X
‖
≤
‖
Y
‖
e
‖
X
‖
e
‖
Y
‖
,
{\displaystyle \|e^{X+Y}-e^{X}\|\leq \|Y\|e^{\|X\|}e^{\|Y\|},}
con
‖
⋅
‖
{\displaystyle \|\cdot \|}
la norma matriciale . Segue che la matrice esponenziale è continua e lipschitziana su sottoinsiemi compatti di
M
n
(
C
)
{\displaystyle M_{n}(\mathbb {C} )}
.
Siano
X
{\displaystyle X}
e
Y
{\displaystyle Y}
due matrici complesse di dimensione
n
×
n
{\displaystyle n\times n}
e siano
a
{\displaystyle a}
e
b
{\displaystyle b}
due numeri complessi. Si indica la matrice identità con
I
{\displaystyle I}
e la matrice nulla con 0. La matrice esponenziale soddisfa le seguenti proprietà:
e
0
=
I
.
{\displaystyle e^{0}=I.}
e
a
X
e
b
X
=
e
(
a
+
b
)
X
.
{\displaystyle e^{aX}e^{bX}=e^{(a+b)X}.}
e
X
e
−
X
=
I
.
{\displaystyle e^{X}e^{-X}=I.}
Se
A
B
=
B
A
{\displaystyle AB=BA}
, allora
e
A
e
B
=
e
A
+
B
{\displaystyle e^{A}e^{B}=e^{A+B}}
.
Se
Y
{\displaystyle Y}
è invertibile allora
e
Y
X
Y
−
1
=
Y
e
X
Y
−
1
{\displaystyle e^{YXY^{-1}}=Ye^{X}Y^{-1}}
.
det
(
e
X
)
=
e
t
r
(
X
)
.
{\displaystyle \det(e^{X})=e^{\mathrm {tr} (X)}.}
e
X
T
=
(
e
X
)
T
{\displaystyle e^{X^{T}}=(e^{X})^{T}}
, dove
X
T
{\displaystyle X^{T}}
indica la matrice trasposta di
X
{\displaystyle X}
. Ne segue che se
X
{\displaystyle X}
è una matrice simmetrica allora
e
X
{\displaystyle e^{X}}
è simmetrica; inoltre se
X
{\displaystyle X}
è una matrice antisimmetrica allora
e
X
{\displaystyle e^{X}}
è una matrice ortogonale .
e
X
∗
=
(
e
X
)
∗
{\displaystyle e^{X^{*}}=(e^{X})^{*}}
, dove
X
∗
{\displaystyle X^{*}}
indica la matrice trasposta coniugata di
X
{\displaystyle X}
. Ne segue che se
X
{\displaystyle X}
è una matrice hermitiana allora
e
X
{\displaystyle e^{X}}
è una matrice hermitiana; inoltre se
X
{\displaystyle X}
è una matrice antihermitiana allora
e
X
{\displaystyle e^{X}}
è una matrice unitaria .
L'esponenziale di una matrice è sempre una matrice invertibile , in analogia con il fatto che l'esponenziale di un numero complesso non è mai nullo.
La funzione:
t
↦
e
t
X
t
∈
R
{\displaystyle t\mapsto e^{tX}\qquad t\in \mathbb {R} }
definisce una curva liscia nel gruppo generale lineare che passa per l'identità se
t
=
0
{\displaystyle t=0}
. La derivata in
t
{\displaystyle t}
è data da:
d
d
t
e
t
X
=
X
e
t
X
=
e
t
X
X
.
{\displaystyle {\frac {d}{dt}}e^{tX}=Xe^{tX}=e^{tX}X.}
Più in generale, per un esponente dipendente da
t
{\displaystyle t}
:
d
d
t
e
X
(
t
)
=
∫
0
1
e
α
X
(
t
)
d
X
(
t
)
d
t
e
(
1
−
α
)
X
(
t
)
d
α
.
{\displaystyle {\frac {d}{dt}}e^{X(t)}=\int _{0}^{1}e^{\alpha X(t)}{\frac {dX(t)}{dt}}e^{(1-\alpha )X(t)}\,d\alpha .}
Portando
e
X
(
t
)
{\displaystyle e^{X(t)}}
fuori dall'integrale, ed espandendo quest'ultimo tramite la formula di Baker-Campbell-Hausdorff , si ottiene l'espressione:
(
d
d
t
e
X
(
t
)
)
e
−
X
(
t
)
=
d
d
t
X
(
t
)
+
1
2
!
[
X
(
t
)
,
d
d
t
X
(
t
)
]
+
1
3
!
[
X
(
t
)
,
[
X
(
t
)
,
d
d
t
X
(
t
)
]
]
+
⋯
.
{\displaystyle \left({\frac {d}{dt}}e^{X(t)}\right)e^{-X(t)}={\frac {d}{dt}}X(t)+{\frac {1}{2!}}[X(t),{\frac {d}{dt}}X(t)]+{\frac {1}{3!}}[X(t),[X(t),{\frac {d}{dt}}X(t)]]+\cdots .}
Per ogni matrice quadrata sul campo dei numeri complessi si ha, grazie alla formula di Jacobi :
det
(
e
A
)
=
e
tr
(
A
)
.
{\displaystyle \det(e^{A})=e^{\operatorname {tr} (A)}.}
Tale formula mostra che una matrice esponenziale è sempre invertibile , dato che il termine a destra non è mai nullo e quindi il determinante non è mai nullo.
Nel campo dei numeri reali la mappa:
exp
:
M
n
(
R
)
→
G
L
(
n
,
R
)
{\displaystyle \exp \colon M_{n}(\mathbb {R} )\to \mathrm {GL} (n,\mathbb {R} )}
non è invece suriettiva.
Per il calcolo della matrice esponenziale
e
A
{\displaystyle e^{A}}
non viene utilizzata la serie di potenze dato che è costituita da una sommatoria di infiniti addendi. Utilizzando gli autovettori si ricava una serie con un numero finito di termini.
Considerando la diagonalizzabilità della matrice
A
{\displaystyle A}
si hanno due casi distinti.
Caso di matrice diagonalizzabile Modifica
Se la matrice
A
{\displaystyle A}
è diagonalizzabile significa che ha
n
{\displaystyle n}
autovettori linearmente indipendenti
t
1
,
t
2
,
…
,
t
n
{\displaystyle \mathbf {t} _{1},\mathbf {t} _{2},\dots ,\mathbf {t} _{n}}
. Si può quindi scrivere:
A
t
1
=
t
1
λ
1
A
t
2
=
t
2
λ
2
⋮
A
t
n
=
t
n
λ
n
,
{\displaystyle {\begin{matrix}A\mathbf {t} _{1}=\mathbf {t} _{1}\lambda _{1}\\A\mathbf {t} _{2}=\mathbf {t} _{2}\lambda _{2}\\\vdots \\A\mathbf {t} _{n}=\mathbf {t} _{n}\lambda _{n}\end{matrix}},}
con
t
i
{\displaystyle \mathbf {t} _{i}}
autovettore associato all'autovalore
λ
i
{\displaystyle \lambda _{i}}
. Si raggruppano tutti gli autovettori in un'unica matrice:
[
A
t
1
…
A
t
n
]
=
[
t
1
λ
1
…
t
n
λ
n
]
{\displaystyle [{\begin{matrix}A\mathbf {t} _{1}&\dots &A\mathbf {t} _{n}\end{matrix}}]=[{\begin{matrix}\mathbf {t} _{1}\lambda _{1}&\dots &\mathbf {t} _{n}\lambda _{n}\end{matrix}}]}
A
[
t
1
…
t
n
]
=
[
t
1
…
t
n
]
[
λ
1
0
0
0
…
0
λ
2
0
0
…
0
0
λ
3
0
…
⋮
⋮
⋮
⋱
⋮
0
0
0
…
λ
n
]
.
{\displaystyle A[{\begin{matrix}\mathbf {t} _{1}&\dots &\mathbf {t} _{n}\end{matrix}}]=[{\begin{matrix}\mathbf {t} _{1}&\dots &\mathbf {t} _{n}\end{matrix}}]{\begin{bmatrix}\lambda _{1}&0&0&0&\dots \\0&\lambda _{2}&0&0&\dots \\0&0&\lambda _{3}&0&\dots \\\vdots &\vdots &\vdots &\ddots &\vdots \\0&0&0&\dots &\lambda _{n}\\\end{bmatrix}}.}
Ponendo la matrice formata dagli autovettori pari a
T
{\displaystyle T}
e la matrice diagonale degli autovalori pari a
Λ
{\displaystyle \Lambda }
si ottiene:
A
T
=
T
Λ
.
{\displaystyle AT=T\Lambda .}
Introducendo la matrice
S
=
T
−
1
{\displaystyle S=T^{-1}}
, inversa di
T
{\displaystyle T}
, si ottengono le seguenti relazioni:
S
A
T
=
Λ
A
=
T
Λ
S
S
A
=
Λ
S
.
{\displaystyle SAT=\Lambda \qquad A=T\Lambda S\qquad SA=\Lambda S.}
Dalla seconda relazione si ricava:
A
k
=
(
T
Λ
S
)
k
=
T
⋅
Λ
⋅
S
⋅
T
⋅
Λ
⋅
S
⋯
=
T
Λ
k
S
.
{\displaystyle A^{k}=(T\Lambda S)^{k}=T\cdot \Lambda \cdot S\cdot T\cdot \Lambda \cdot S\dots =T\Lambda ^{k}S.}
Quindi:
e
A
=
∑
k
=
0
∞
A
k
k
!
=
T
[
∑
k
=
0
∞
Λ
k
k
!
]
S
=
T
e
Λ
S
.
{\displaystyle e^{A}=\sum _{k=0}^{\infty }{\frac {A^{k}}{k!}}=T\left[\sum _{k=0}^{\infty }{\frac {\Lambda ^{k}}{k!}}\right]S=Te^{\Lambda }S.}
Si calcola
e
Λ
{\displaystyle e^{\Lambda }}
:
e
Λ
=
∑
k
=
0
∞
Λ
k
k
!
=
I
+
[
λ
1
0
0
…
0
λ
2
0
…
⋮
⋮
⋱
⋮
0
0
…
λ
n
]
1
1
!
+
[
λ
1
2
0
0
…
0
λ
2
2
0
…
⋮
⋮
⋱
⋮
0
0
…
λ
n
2
]
1
2
!
+
⋯
=
{\displaystyle e^{\Lambda }=\sum _{k=0}^{\infty }{\frac {\Lambda ^{k}}{k!}}=I+{\begin{bmatrix}\lambda _{1}&0&0&\dots \\0&\lambda _{2}&0&\dots \\\vdots &\vdots &\ddots &\vdots \\0&0&\dots &\lambda _{n}\\\end{bmatrix}}{\frac {1}{1!}}+{\begin{bmatrix}\lambda _{1}^{2}&0&0&\dots \\0&\lambda _{2}^{2}&0&\dots \\\vdots &\vdots &\ddots &\vdots \\0&0&\dots &\lambda _{n}^{2}\\\end{bmatrix}}{\frac {1}{2!}}+\dots =}
=
[
1
+
λ
1
1
!
+
λ
1
2
2
!
+
…
0
0
…
0
1
+
λ
2
1
!
+
λ
2
2
2
!
+
…
0
…
⋮
⋮
⋱
⋮
0
0
…
1
+
λ
n
1
!
+
λ
n
2
2
!
+
…
]
=
[
e
λ
1
0
0
…
0
e
λ
2
0
…
⋮
⋮
⋱
⋮
0
0
…
e
λ
n
]
.
{\displaystyle ={\begin{bmatrix}1+{\frac {\lambda _{1}}{1!}}+{\frac {\lambda _{1}^{2}}{2!}}+\dots &0&0&\dots \\0&1+{\frac {\lambda _{2}}{1!}}+{\frac {\lambda _{2}^{2}}{2!}}+\dots &0&\dots \\\vdots &\vdots &\ddots &\vdots \\0&0&\dots &1+{\frac {\lambda _{n}}{1!}}+{\frac {\lambda _{n}^{2}}{2!}}+\dots \\\end{bmatrix}}={\begin{bmatrix}e^{\lambda _{1}}&0&0&\dots \\0&e^{\lambda _{2}}&0&\dots \\\vdots &\vdots &\ddots &\vdots \\0&0&\dots &e^{\lambda _{n}}\\\end{bmatrix}}.}
Si considera ora l'ultima relazione precedentemente ricavata e si applica la trasposta:
S
A
=
Λ
S
⇒
(
S
A
)
T
=
(
Λ
S
)
T
⇒
A
T
S
T
=
S
T
Λ
T
⇒
A
T
S
T
=
S
T
Λ
.
{\displaystyle SA=\Lambda S\Rightarrow (SA)^{T}=(\Lambda S)^{T}\Rightarrow A^{T}S^{T}=S^{T}\Lambda ^{T}\Rightarrow A^{T}S^{T}=S^{T}\Lambda .}
Si può quindi scrivere:
A
T
[
s
1
T
…
s
n
T
]
=
[
s
1
T
…
s
n
T
]
[
λ
1
0
0
0
…
0
λ
2
0
0
…
0
0
λ
3
0
…
⋮
⋮
⋮
⋱
⋮
0
0
0
…
λ
n
]
.
{\displaystyle A^{T}[{\begin{matrix}\mathbf {s} _{1}^{T}&\dots &\mathbf {s} _{n}^{T}\end{matrix}}]=[{\begin{matrix}\mathbf {s} _{1}^{T}&\dots &\mathbf {s} _{n}^{T}\end{matrix}}]{\begin{bmatrix}\lambda _{1}&0&0&0&\dots \\0&\lambda _{2}&0&0&\dots \\0&0&\lambda _{3}&0&\dots \\\vdots &\vdots &\vdots &\ddots &\vdots \\0&0&0&\dots &\lambda _{n}\\\end{bmatrix}}.}
Si nota quindi che gli
s
n
T
{\displaystyle \mathbf {s} _{n}^{T}}
sono autovettori sinistri di
A
{\displaystyle A}
. Si può quindi partizionare la matrice
S
{\displaystyle S}
per righe:
S
=
[
s
1
T
s
2
T
⋮
s
n
T
]
.
{\displaystyle S=\left[{\begin{matrix}\mathbf {s} _{1}^{T}\\\mathbf {s} _{2}^{T}\\\vdots \\\mathbf {s} _{n}^{T}\end{matrix}}\right].}
In questo modo si ottiene:
e
A
=
[
t
1
…
t
n
]
[
e
λ
1
0
…
⋮
⋱
⋮
0
…
e
λ
n
]
[
s
1
T
⋮
s
n
T
]
=
t
1
e
λ
1
s
1
T
+
t
2
e
λ
2
s
2
T
+
⋯
+
t
n
e
λ
n
s
n
T
.
{\displaystyle e^{A}=[{\begin{matrix}\mathbf {t} _{1}&\dots &\mathbf {t} _{n}\end{matrix}}]{\begin{bmatrix}e^{\lambda _{1}}&0&\dots \\\vdots &\ddots &\vdots \\0&\dots &e^{\lambda _{n}}\\\end{bmatrix}}\left[{\begin{matrix}\mathbf {s} _{1}^{T}\\\vdots \\\mathbf {s} _{n}^{T}\end{matrix}}\right]=\mathbf {t} _{1}e^{\lambda _{1}}\mathbf {s} _{1}^{T}+\mathbf {t} _{2}e^{\lambda _{2}}\mathbf {s} _{2}^{T}+\dots +\mathbf {t} _{n}e^{\lambda _{n}}\mathbf {s} _{n}^{T}.}
In conclusione, nel caso
A
{\displaystyle A}
sia diagonalizzabile, si ha:
e
A
=
∑
k
=
1
n
t
k
⋅
s
k
T
⋅
e
λ
k
,
{\displaystyle e^{A}=\sum _{k=1}^{n}\mathbf {t} _{k}\cdot \mathbf {s} _{k}^{T}\cdot e^{\lambda _{k}},}
con
t
k
{\displaystyle \mathbf {t} _{k}}
autovettore destro e
s
k
T
{\displaystyle \mathbf {s} _{k}^{T}}
autovettore sinistro, entrambi associati all'autovalore
λ
k
.
{\displaystyle \lambda _{k}.}
Il caso di A non diagonalizzabile Modifica
Se
A
{\displaystyle A}
non è diagonalizzabile si ricorre alla forma di Jordan . In questo caso si ha
A
=
T
J
S
{\displaystyle A=TJS}
, con
J
{\displaystyle J}
matrice diagonale a blocchi:
J
=
[
J
1
0
0
⋯
0
J
2
0
⋯
⋮
⋮
⋱
⋯
0
0
⋯
J
k
]
,
{\displaystyle J={\begin{bmatrix}J_{1}&0&0&\cdots \\0&J_{2}&0&\cdots \\\vdots &\vdots &\ddots &\cdots \\0&0&\cdots &J_{k}\end{bmatrix}},}
dove il
k
{\displaystyle k}
-esimo blocco è della forma:
J
k
=
[
λ
k
1
0
⋯
0
λ
k
1
⋯
⋮
⋮
⋱
1
0
0
⋯
λ
k
]
=
[
λ
k
0
0
⋯
0
λ
k
0
⋯
⋮
⋮
⋱
0
0
0
⋯
λ
k
]
+
[
0
1
0
⋯
0
0
1
⋯
⋮
⋮
⋱
1
0
0
⋯
0
]
=
Λ
k
+
J
k
0
.
{\displaystyle J_{k}={\begin{bmatrix}\lambda _{k}&1&0&\cdots \\0&\lambda _{k}&1&\cdots \\\vdots &\vdots &\ddots &1\\0&0&\cdots &\lambda _{k}\end{bmatrix}}={\begin{bmatrix}\lambda _{k}&0&0&\cdots \\0&\lambda _{k}&0&\cdots \\\vdots &\vdots &\ddots &0\\0&0&\cdots &\lambda _{k}\end{bmatrix}}+{\begin{bmatrix}0&1&0&\cdots \\0&0&1&\cdots \\\vdots &\vdots &\ddots &1\\0&0&\cdots &0\end{bmatrix}}=\Lambda _{k}+J_{k0}.}
Le matrici
J
k
{\displaystyle J_{k}}
vengono detti blocchi di Jordan . Utilizzando il procedimento seguito nel caso di
A
{\displaystyle A}
diagonalizzabile si ottiene:
e
A
=
T
e
J
S
,
{\displaystyle e^{A}=Te^{J}S,}
dove:
e
J
=
[
e
J
1
0
0
⋯
0
e
J
2
0
⋯
⋮
⋮
⋱
⋯
0
0
⋯
e
J
k
]
.
{\displaystyle e^{J}={\begin{bmatrix}e^{J_{1}}&0&0&\cdots \\0&e^{J_{2}}&0&\cdots \\\vdots &\vdots &\ddots &\cdots \\0&0&\cdots &e^{J_{k}}\end{bmatrix}}.}
Si nota che il prodotto delle matrici
Λ
k
{\displaystyle \Lambda _{k}}
e
J
k
0
{\displaystyle J_{k0}}
è commutativo. Si può quindi scrivere:
e
J
k
=
e
λ
k
I
e
J
k
0
.
{\displaystyle e^{J_{k}}=e^{\lambda _{k}I}e^{J_{k0}}.}
Si calcola ora
e
J
k
0
{\displaystyle e^{J_{k0}}}
:
e
J
k
0
=
∑
k
=
0
∞
J
k
0
k
k
!
.
{\displaystyle e^{J_{k0}}=\sum _{k=0}^{\infty }{\frac {J_{k0}^{k}}{k!}}.}
Si verifica facilmente che
J
k
0
k
{\displaystyle J_{k0}^{k}}
si calcola spostando in alto e a destra la diagonale formata dagli 1:
J
k
0
=
[
0
1
0
0
…
0
0
1
0
…
0
0
0
1
…
⋮
⋮
⋮
⋱
1
0
0
0
…
0
]
,
J
k
0
2
=
[
0
0
1
…
0
0
0
0
1
⋮
0
0
0
…
⋮
⋮
⋮
⋮
⋱
⋮
0
0
0
…
0
]
,
{\displaystyle J_{k0}={\begin{bmatrix}0&1&0&0&\dots \\0&0&1&0&\dots \\0&0&0&1&\dots \\\vdots &\vdots &\vdots &\ddots &1\\0&0&0&\dots &0\end{bmatrix}},\qquad J_{k0}^{2}={\begin{bmatrix}0&0&1&\dots &0\\0&0&0&1&\vdots \\0&0&0&\dots &\vdots \\\vdots &\vdots &\vdots &\ddots &\vdots \\0&0&0&\dots &0\end{bmatrix}},}
J
k
0
ν
k
−
1
=
[
0
0
0
…
1
0
0
0
…
0
0
0
0
…
0
⋮
⋮
⋮
⋱
⋮
0
0
0
…
0
]
,
J
k
0
ν
k
=
[
0
0
0
…
0
0
0
0
…
0
0
0
0
…
0
⋮
⋮
⋮
⋱
⋮
0
0
0
…
0
]
,
{\displaystyle J_{k0}^{\nu _{k}-1}={\begin{bmatrix}0&0&0&\dots &1\\0&0&0&\dots &0\\0&0&0&\dots &0\\\vdots &\vdots &\vdots &\ddots &\vdots \\0&0&0&\dots &0\end{bmatrix}},\qquad J_{k0}^{\nu _{k}}={\begin{bmatrix}0&0&0&\dots &0\\0&0&0&\dots &0\\0&0&0&\dots &0\\\vdots &\vdots &\vdots &\ddots &\vdots \\0&0&0&\dots &0\end{bmatrix}},}
dove
ν
k
{\displaystyle \nu _{k}}
è la dimensione di
J
k
0
{\displaystyle J_{k0}}
. Per potenze superiori a
ν
k
{\displaystyle \nu _{k}}
si ha la matrice nulla . Quindi:
e
J
k
0
=
∑
k
=
0
ν
k
−
1
J
k
0
k
k
!
.
{\displaystyle e^{J_{k0}}=\sum _{k=0}^{\nu _{k}-1}{\frac {J_{k0}^{k}}{k!}}.}
Inoltre:
e
λ
k
I
=
[
e
λ
k
0
0
0
…
0
e
λ
k
0
0
…
0
0
e
λ
k
0
…
⋮
⋮
⋮
⋱
⋮
0
0
0
…
e
λ
k
]
=
e
λ
k
I
.
{\displaystyle e^{\lambda _{k}I}={\begin{bmatrix}e^{\lambda _{k}}&0&0&0&\dots \\0&e^{\lambda _{k}}&0&0&\dots \\0&0&e^{\lambda _{k}}&0&\dots \\\vdots &\vdots &\vdots &\ddots &\vdots \\0&0&0&\dots &e^{\lambda _{k}}\end{bmatrix}}=e^{\lambda _{k}}I.}
Quindi il
k
{\displaystyle k}
-esimo blocco di
e
J
{\displaystyle e^{J}}
ha la seguente espressione:
e
J
k
=
e
λ
k
I
e
J
k
0
=
∑
k
=
0
ν
k
−
1
J
k
0
k
k
!
e
λ
k
.
{\displaystyle e^{J_{k}}=e^{\lambda _{k}I}e^{J_{k0}}=\sum _{k=0}^{\nu _{k}-1}{\frac {J_{k0}^{k}}{k!}}e^{\lambda _{k}}.}
La matrice esponenziale vale:
e
A
=
[
T
1
…
T
s
]
[
e
J
1
0
…
⋮
⋱
⋮
0
…
e
J
n
]
[
S
1
T
⋮
S
s
T
]
=
∑
k
=
1
s
[
T
k
e
J
k
S
k
T
]
=
∑
k
=
1
s
∑
i
=
1
ν
k
−
1
T
k
J
k
0
i
S
k
T
i
!
e
λ
k
,
{\displaystyle e^{A}=[{\begin{matrix}T_{1}&\dots &T_{s}\end{matrix}}]{\begin{bmatrix}e^{J_{1}}&0&\dots \\\vdots &\ddots &\vdots \\0&\dots &e^{J_{n}}\\\end{bmatrix}}\left[{\begin{matrix}S_{1}^{T}\\\vdots \\S_{s}^{T}\end{matrix}}\right]=\sum _{k=1}^{s}[T_{k}e^{J_{k}}S_{k}^{T}]=\sum _{k=1}^{s}\sum _{i=1}^{\nu _{k}-1}{\frac {T_{k}J_{k0}^{i}S_{k}^{T}}{i!}}e^{\lambda _{k}},}
dove
T
k
∈
R
n
×
ν
k
{\displaystyle T_{k}\in \mathbb {R} ^{n\times \nu _{k}}}
e
S
k
T
∈
R
ν
k
×
n
{\displaystyle S_{k}^{T}\in \mathbb {R} ^{\nu _{k}\times n}}
. La matrice
T
{\displaystyle T}
non è costituita dagli autovettori di
A
{\displaystyle A}
. Il calcolo della matrice di trasformazione
T
{\displaystyle T}
è più complesso rispetto al caso di
A
{\displaystyle A}
diagonalizzabile.
Caso di matrice 2x2 Modifica
Se la matrice
A
{\displaystyle A}
è
2
×
2
{\displaystyle 2\times 2}
, può essere decomposta rispetto alle matrici di Pauli
σ
1
=
(
0
1
1
0
)
,
{\displaystyle \sigma _{1}={\bigl (}{\begin{smallmatrix}0&1\\1&0\end{smallmatrix}}{\bigr )},}
σ
2
=
(
0
i
−
i
0
)
,
{\displaystyle \sigma _{2}={\bigl (}{\begin{smallmatrix}0&i\\-i&0\end{smallmatrix}}{\bigr )},}
σ
3
=
(
1
0
0
−
1
)
,
{\displaystyle \sigma _{3}={\bigl (}{\begin{smallmatrix}1&0\\0&-1\end{smallmatrix}}{\bigr )},}
attraverso opportuni coefficienti complessi
r
0
,
r
1
,
r
2
,
r
3
{\displaystyle r_{0},r_{1},r_{2},r_{3}}
nel modo seguente:
A
=
r
0
I
+
∑
i
=
1
3
r
i
σ
i
=
(
r
0
+
r
3
r
1
+
i
r
2
r
1
−
i
r
2
r
0
−
r
3
)
.
{\displaystyle A=r_{0}I+\sum _{i=1}^{3}r_{i}\sigma _{i}=\left({\begin{matrix}r_{0}+r_{3}&r_{1}+ir_{2}\\r_{1}-ir_{2}&r_{0}-r_{3}\end{matrix}}\right).}
Allora vale:
exp
(
A
)
=
e
r
0
(
cosh
r
+
r
^
⋅
σ
→
sinh
r
)
,
{\displaystyle \exp(A)=e^{r_{0}}\left(\cosh r+{\hat {r}}\cdot {\vec {\sigma }}\sinh r\right),}
dove:
r
=
r
1
2
+
r
2
2
+
r
3
2
,
r
^
=
1
r
(
r
1
,
r
2
,
r
3
)
,
σ
→
=
(
σ
1
,
σ
2
,
σ
3
)
,
r
^
⋅
σ
→
=
r
1
r
σ
1
+
r
2
r
σ
2
+
r
3
r
σ
3
.
{\displaystyle r={\sqrt {r_{1}^{2}+r_{2}^{2}+r_{3}^{2}}},\quad {\hat {r}}={\frac {1}{r}}(r_{1},r_{2},r_{3}),\quad {\vec {\sigma }}=(\sigma _{1},\sigma _{2},\sigma _{3}),\quad {\hat {r}}\cdot {\vec {\sigma }}={\frac {r_{1}}{r}}\sigma _{1}+{\frac {r_{2}}{r}}\sigma _{2}+{\frac {r_{3}}{r}}\sigma _{3}.}
Sia
r
→
=
(
r
1
,
r
2
,
r
3
)
.
{\displaystyle {\vec {r}}=(r_{1},r_{2},r_{3}).}
Utilizzando le proprietà delle matrici di Pauli
σ
i
2
=
I
{\displaystyle \sigma _{i}^{2}=I}
e
σ
i
σ
j
+
σ
j
σ
i
=
2
δ
i
j
,
{\displaystyle \sigma _{i}\sigma _{j}+\sigma _{j}\sigma _{i}=2\delta _{ij},}
dove
δ
i
j
{\displaystyle \delta _{ij}}
è la funzione delta di Kronecker , si ha:
(
r
→
⋅
σ
→
)
2
=
∑
i
=
1
3
r
i
2
σ
i
2
+
∑
i
=
1
3
∑
j
≠
i
r
i
r
j
σ
i
σ
j
=
∑
i
=
1
3
r
i
2
I
+
∑
i
=
1
3
∑
j
≠
i
r
i
r
j
1
2
(
σ
i
σ
j
+
σ
j
σ
i
)
=
r
2
I
+
0.
{\displaystyle ({\vec {r}}\cdot {\vec {\sigma }})^{2}=\sum _{i=1}^{3}r_{i}^{2}\sigma _{i}^{2}+\sum _{i=1}^{3}\sum _{j\not =i}r_{i}r_{j}\sigma _{i}\sigma _{j}=\sum _{i=1}^{3}r_{i}^{2}I+\sum _{i=1}^{3}\sum _{j\not =i}r_{i}r_{j}{\frac {1}{2}}(\sigma _{i}\sigma _{j}+\sigma _{j}\sigma _{i})=r^{2}I+0.}
Per cui:
exp
(
A
)
=
e
r
0
∑
n
=
0
∞
1
n
!
(
r
→
⋅
σ
→
)
n
=
e
r
0
[
∑
n
=
0
∞
r
2
n
(
2
n
)
!
I
+
r
→
⋅
σ
→
r
∑
n
=
0
∞
r
2
n
+
1
(
2
n
+
1
)
!
]
=
e
r
0
(
I
cosh
r
+
r
^
⋅
σ
→
sinh
r
)
.
{\displaystyle \exp(A)=e^{r_{0}}\sum _{n=0}^{\infty }{\frac {1}{n!}}({\vec {r}}\cdot {\vec {\sigma }})^{n}=e^{r_{0}}\,\left[\sum _{n=0}^{\infty }{\frac {r^{2n}}{(2n)!}}I+{\frac {{\vec {r}}\cdot {\vec {\sigma }}}{r}}\sum _{n=0}^{\infty }{\frac {r^{2n+1}}{(2n+1)!}}\right]=e^{r_{0}}(I\cosh r+{\hat {r}}\cdot {\vec {\sigma }}\sinh r).}