Anda di halaman 1dari 12

Spazi vettoriali hermitiani.

1. Prodotto hermitiano, lunghezza e ortogonalit`a in C


n
.
Consideriamo lo spazio vettoriale
C
n
= x =
_
_
x
1
.
.
.
x
n
_
_
, x
1
, . . . , x
n
C,
con la somma fra vettori e il prodotto di un vettore per uno scalare deniti rispettivamente da
x +y :=
_
_
_
x
1
+y
1
.
.
.
x
n
+y
n
_
_
_, x :=
_
_
x
1
.
.
.
x
n
_
_
, x =
_
_
x
1
.
.
.
x
n
_
_
, y =
_
_
_
y
1
.
.
.
y
n
_
_
_, C.
Denizione. (Prodotto hermitiano.) Dati due vettori x e y in C
n
, il prodotto hermitiano x y fra x e y
`e il numero complesso
x y :=
t
xy = x
1
y
1
+. . . +x
n
y
n
.
Esempio. Dati x =
_
_
1 +i
2i
2
_
_
e y =
_
_
2 3i
1 i
3 i
_
_
in C
3
, il prodotto hermitiano fra x e y `e dato da
x y = ( 1 +i 2i 2 )
_
_
2 + 3i
1 +i
3 +i
_
_
= (1 +i)(2 + 3i) + (2i)(1 +i) + 2(3 +i) = 7 + 5i.
Esempio. Se due vettori x, y C
n
hanno coordinate reali (ossia x = x e y = y), allora il prodotto
hermitiano x y coincide col prodotto scalare reale fra x e y.
Il prodotto hermitiano gode delle seguenti propriet`a
(i) (Propriet`a di Hermitianeit`a ) Per ogni x, y C
n
x y = y x;
(ii) (Propriet`a distributiva) Per ogni x, y, z C
n
(x +y) z = x z +y z, x (y +z) = x y +x z;
(iii) (Sesquilinearit`a) Per ogni x, y C
n
ed ogni C
(x) y = (x y) x (y) =

(x y);
(iv) (Positivit`a) Per ogni x C
n
x x 0,
x x = 0 se e soltanto se x = 0.
1
Dimostrazione. La dimostrazione segue immediatamente dalle denizioni. Il punto (i) segue da
x y = x
1
y
1
+. . . +x
n
y
n
= y
1
x
1
+. . . +y
n
x
n
= y x.
Il punto (ii) segue da
(x +y) z = (x
1
+y
1
)z
1
+. . . + (x
n
+y
n
)z
n
=
= x
1
z
1
+y
1
z
1
+. . . +x
n
z
n
+y
n
z
n
=
= x z +y z.
x (y +z) = x
1
(y
1
+z
1
) +. . . +x
n
(y
n
+z
n
) =
= x
1
y
1
+x
1
z
1
+. . . +x
n
y
n
+x
n
z
n
=
= x y +x z.
Confrontando le quantit`a
(x y) = (x
1
y
1
+. . . +x
n
y
n
) = x
1
y
1
+. . . +x
n
y
n
,
(x) y = (x
1
) y
1
+. . . + (x
n
) y
n
= x
1
y
1
+. . . +x
n
y
n
,
x (y) = x
1
(y
1
) +. . . +x
n
(y
n
) =

x
1
y
1
+. . . +

x
n
y
n
,

(x y) =

(x
1
y
1
+. . . +x
n
y
n
) =

x
1
y
1
+. . . +

x
n
y
n
otteniamo (iii). Per dimostrare (iv), osserviamo che
x x = [x
1
[
2
+. . . +[x
n
[
2
.
Poiche i moduli di numeri complessi sono sempre reali non negativi, si ha che x x 0. Se x = 0, chiaramente
x x = 0. Viceversa, se per un vettore x C
n
vale x x = 0, allora [x
1
[
2
+ . . . + [x
n
[
2
= 0. Ci`o `e possibile
solo se x
1
= . . . = x
n
= 0.
Mediante il prodotto hermitiano deniamo in C
n
nozioni di lunghezza, distanza e ortogonalit`a.
Denizione. La norma o lunghezza [[x[[ di un vettore x C
n
`e denita da
[[x[[ =

x x =
_
[x
1
[
2
+. . . +[x
n
[
2
.
Esempio. La norma del vettore x =
_
1 i
2 + 3i
_
C
2
`e data da
[[x[[ =
_
[1 i[
2
+[2 + 3i[
2
=
_
(1 + 1) + (4 + 9) =

15.
Denizione. La distanza fra i punti x e y in C
n
`e denita da
d(x, y) := [[x y[[.
In particolare, [[x[[ coincide con la distanza di x dallorigine.
La norma gode delle seguenti propriet`a:
(i) (Omogeneit`a) [[x[[ = [[[[x[[, per ogni C.
(ii) (Disuguaglianza di Cauchy-Schwarz) [x y[ [[x[[[[y[[, per ogni x, y C
n
.
2
(iii) (Disuguaglianza triangolare) [[x +y[[ [[x[[ +[[y[[, per ogni x, y C
n
.
Dimostrazione. Il punto (i) segue da
[[x[[ =
_
[[
2
[x
1
[
2
+. . . +[[
2
[x
n
[
2
= [[
_
[x
1
[
2
+. . . +[x
n
[
2
= [[[[x[[.
(ii) Se x = 0 oppure y = 0 la disuguaglianza `e chiaramente soddisfatta. Supponiamo adesso x ,= 0 e y ,= 0.
Consideriamo un vettore della forma z = x+y, con , C. Per le propriet`a (i)(ii)(iii)(iv) del prodotto
hermitiano, abbiamo che
z z = [[
2
[[x[[
2
+[[
2
[[y[[
2
+ 2Re(

x y) 0, , C.
In particolare, per = [[y[[
2
e = x y, troviamo
[[y[[
4
[[x[[
2
+[[y[[
2
[x y[
2
2[[y[[
2
[x y[
2
= [[y[[
4
[[x[[
2
[[y[[
2
[x y[
2
0.
Dividendo per [[y[[
2
,= 0, otteniamo
[x y[
2
[[x[[
2
[[y[[
2
che `e equivalente alla disuguaglianza cercata.
(iii) La disuguaglianza triangolare `e equivalente alla disuguaglianza
[[x +y[[
2
([[x[[ +[[y[[)
2
.
Direttamente dalle denizioni e dalla disuguaglianza di Cauchy-Schwarz abbiamo
[[x+y[[
2
= (x+y)(x+y) = [[x[[
2
+[[y[[
2
+2Re(xy) [[x[[
2
+[[y[[
2
+2[xy[ [[x[[
2
+[[y[[
2
+2[[x[[[[y[[ = ([[x[[+[[y[[)
2
,
come richiesto.
Denizione. Due vettori x, y C
n
si dicono ortogonali se x y = 0. Questo si indica con x y.
La proiezione ortogonale
y
(x) di un vettore x su un vettore y ,= 0 `e un vettore
y
(x) = cy multiplo di
y per uno scalare complesso c C, caratterizzato dalla propriet`a
(x
y
(x)) y = 0.
In altre parole, la proiezione ortogonale di un vettore x su un vettore y ,= 0 determina una scomposizione
del vettore x nella somma di un vettore parallelo a y e un vettore ortogonale a y
x = z +
y
(x), z = x
y
(x), z y. (2)
Risulta

y
(x) =
x y
y y
y.
Esempio. Siano x =
_
_
i
1 +i
0
_
_
e y =
_
_
i
i
1 + 3i
_
_
. Poiche x y = 2 +i e y y = 12, troviamo

y
(x) =
2 +i
12
_
_
i
i
1 + 3i
_
_
=
_
_
1 + 2i
1 2i
1 + 7i
_
_
.
3
2. Basi ortonormali. Procedimento di ortonormalizzazione di Gram-Schmidt.
Denizione. Un sottoinsieme x
1
, . . . , x
k
di C
n
si dice un insieme ortogonale se i suoi elementi sono a
due a due ortogonali fra loro.
Esercizio. Gli elementi di un insieme ortogonale sono linearmente indipendenti su C.
Denizione. Una base ortonormale di C
n
`e una base e
1
, . . . , e
n
i cui elementi hanno norma uno e sono
a due a due ortogonali:
|e
1
| = . . . = |e
n
| = 1, e
i
e
j
= 0, i ,= j.
Esempio. La base canonica di C
n

_
_
_
_
1
0
.
.
.
0
_
_
_
_
,
_
_
_
_
0
1
.
.
.
0
_
_
_
_
, . . . ,
_
_
_
_
0
0
.
.
.
1
_
_
_
_

`e una base ortonormale: ogni vettore z C


n
si scrive in modo unico come
z =
_
_
z
1
.
.
.
z
n
_
_
= z
1
_
_
_
_
1
0
.
.
.
0
_
_
_
_
+z
2
_
_
_
_
0
1
.
.
.
0
_
_
_
_
+. . . z
n
_
_
_
_
0
0
.
.
.
1
_
_
_
_
, z
1
, z
2
, . . . , z
n
C.
Inoltre si verica facilmente che tutti i vettori di tale base hanno norma 1 e sono a due a due ortogonali fra
loro.
Esempio. I vettori
_
1/

2
i/

2
_
,
_
i/

2
1/

2
_
formano una base ortonormale di C
2
.
Esempio. I vettori
_
_
cos
sin
0
_
_
,
_
_
sin
cos
0
_
_
,
_
_
0
0
i
_
_
formano una base ortonormale di C
3
.
Il metodo di ortonormalizzazione di Gram-Schmidt permette di ottenere una base ortonormale di C
n
a
partire da una base qualsiasi.
Sia v
1
, . . . , v
n
una base di C
n
. Allora i vettori
u
1
=v
1
u
2
=v
2

v
2
u
1
u
1
u
1
u
1
u
3
=v
3

v
3
u
1
u
1
u
1
u
1

v
3
u
2
u
2
u
2
u
2
.
.
. =
.
.
.
.
.
.
.
.
.
u
n
=v
n

v
n
u
1
u
1
u
1
u
1
. . .
v
n
u
n1
u
n1
u
n1
u
n1
sono a due a due ortogonali (cfr. equazione (2)). Inoltre, poiche per ogni 1 j n,
span
C
v
1
, . . . , v
j
= span
C
u
1
, . . . , u
j
, (3)
4
anche i vettori u
1
, . . . , u
n
formano una base di C
n
. Inne i vettori
e
1
=
u
1
[[u
1
[[
, . . . , e
n
=
u
n
[[u
n
[[

formano una base ortonormale di C


n
.
Esempio. Sia data la base v
1
=
_
_
1
i
0
_
_
, v
2
=
_
_
0
i
0
_
_
, v
3
=
_
_
0
0
1 +i
_
_
di C
3
. Allora i vettori
u
1
=v
1
=
_
_
1
i
0
_
_
u
2
=
_
_
0
i
0
_
_

1
2
_
_
1
i
0
_
_
=
_
_
1/2
i/2
0
_
_
u
3
=v
3
=
_
_
0
0
1 +i
_
_
0
_
_
1
i
0
_
_
0
_
_
1/2
i/2
0
_
_
=
_
_
0
0
1 +i
_
_
formano una base ortogonale di C
3
e i vettori
e
1
=
1

2
_
_
1
i
0
_
_
, e
2
=
1

2
_
_
1
i
0
_
_
, e
3
=
1

2
_
_
0
0
1 +i
_
_
formano una base ortonormale di C
3
.
Osservazione. Sia U C
n
il sottospazio generato dai primi k vettori v
1
, . . . , v
k
della base v
1
, . . . , v
n

di C
n
. Dalla relazione (3) segue che i vettori u
1
, . . . , u
k
, ottenuti nel corso del procedimento di ortonor-
malizzazione di Gram-Schmidt, sono una base ortogonale di U.
Esercizio. Dato un sottospazio U in C
n
di dimensione k, esiste una base ortonormale di C
n
u
1
, . . . , u
k
, u
k+1
, . . . , u
n

con la propriet`a che u


1
, . . . , u
k
`e una base ortonormale di U e u
k+1
, . . . , u
n
`e una base ortonormale di
U

. In altre parole, data una base ortonormale di U, essa pu`o essere completata ad una base ortonormale
di C
n
.
Sia B = v
1
, . . . , v
n
una base ortogonale di C
n
e sia x C
n
. Allora le coordinate di x in B sono date da
x
1
=
x v
1
v
1
v
1
, . . . , x
n
=
x v
n
v
n
v
n
.
In particolare, se la base B `e ortonormale, le coordinate di x in B sono date da
x
1
= x v
1
, . . . , x
n
= x v
n
.
Dim. Il vettore x si scrive in modo unico come combinazione lineare degli elementi di B
x = x
1
v
1
+. . . +x
n
v
n
.
5
Per 1 j n,
x v
j
= x
1
v
1
v
j
+. . . +x
n
v
n
v
j
= x
j
v
j
v
j
,
da cui
x
j
=
x v
j
v
j
v
j
.
Esempio. Le coordinate del vettore x =
_
_
i
i
i
_
_
nella base ortonormale
e
1
=
1

2
_
_
1
i
0
_
_
, e
2
=
1

2
_
_
1
i
0
_
_
, e
3
=
1

2
_
_
0
0
1 +i
_
_
sono date rispettivamente da x
1
=
1

2
(1 +i), x
2
=
1

2
(1 i), x
3
=
1

2
(1 +i).
3. Complementi ortogonali. Proiezioni ortogonali.
Sia U un sottoinsieme di C
n
.
Denizione. Un vettore x C
n
si dice ortogonale a U se `e ortogonale a tutti gli elementi di U. Lortogonale
U

di U `e per denizione
U

:= x C
n
[ x u = 0, u U.
Proposizione. U

`e un sottospazio vettoriale di C
n
.
Dimostrazione. Siano x, y U

, C e sia u un arbitrario elemento di U. Dalle propriet`a del prodotto


hermitiano e dalle ipotesi segue che
(x +y) u = x u +y u = 0 + 0 = 0, (x) u = x u = 0 = 0.
In altre parole, x +y U

e x U

, per ogni C, come richiesto.


Se U `e un sottospazio vettoriale di C
n
di dimensione complessa k e u
1
, . . . , u
k
`e una base di U, allora
U

=
_
_
_
x C
n
[
_
_
_
x u
1
= 0
.
.
.
x u
k
= 0
_
_
_
.
In questo caso, U

`e un sottospazio vettoriale di dimensione complessa n k.


Dimostrazione. Sia x U

. Segue immediatamente dalla denizione che x u


1
= . . . = x u
k
= 0.
Viceversa, supponiamo che x soddis il sistema x u
1
= . . . = x u
k
= 0. Poiche un arbitrario elemento di
U si scrive come u =
1
u
1
+. . . +
k
u
k
, con
i
C, si ha
x u =
1
x u
1
+. . . +
k
x u
k
= 0.
In altre parole, x U

. Questa caratterizzazione esprime U

come lo spazio delle soluzioni di un sistema


lineare omogeneo di k equazioni indipendenti. Di conseguenza, U

ha dimensione complessa n k.
Esercizio. Vericare che U U

= O.
6
Se U `e un sottospazio vettoriale di C
n
, il sottospazio U

si chiama complemento ortogonale di U. Lo


spazio C
n
si decompone infatti come somma diretta di U e U

C
n
= U U

U U

= O.
In particolare, ogni elemento x C
n
si scrive in modo unico come somma di un elemento in U e un elemento
in U

x = x
U
+x
U
, x
U
U, x
U
U

, e vale [[x[[
2
= [[x
U
[[
2
+[[x
U
[[
2
.
Denizione. Per denizione i vettori x
U
e x
U
sono rispettivamente le proiezioni ortogonali di x su U e
su U

x
U
=
U
(x) x
U
=
U
(x).
Calcolo della proiezione ortogonale di un vettore su un sottospazio.
Proposizione. Sia U un sottospazio di C
n
e sia u
1
, . . . , u
k
una qualunque base ortogonale di U. Sia
x C
n
un vettore. Allora la proiezione ortogonale di x su U `e data da
x
U
=
U
(x) =
x u
1
u
1
u
1
u
1
+. . . +
x u
k
u
k
u
k
u
k
.
Dimostrazione. Sia u
1
, . . . , u
k
, u
k+1
, . . . , u
n
una base ortogonale di C
n
che completa u
1
, . . . , u
k
. In
particolare, u
k+1
, . . . , u
n
`e una base ortogonale di U

. In questa base,
x =
x u
1
u
1
u
1
u
1
+. . . +
x u
k
u
k
u
k
u
k
+
x u
k+1
u
k+1
u
k+1
u
k+1
+. . . +
x u
n
u
n
u
n
u
n
.
Per lunicit`a di x
U
e di x
U
, segue che
x
U
=
U
(x) =
x u
1
u
1
u
1
u
1
+. . . +
x u
k
u
k
u
k
u
k
e analogamente
x
U
=
U
(x) =
x u
k+1
u
k+1
u
k+1
u
k+1
+. . . +
x u
n
u
n
u
n
u
n
.
Osservazione. Lapplicazione

U
: C
n
C
n
, x
U
(x),
che ad un vettore associa la sua proiezione ortogonale sul sottospazio U, `e unapplicazione lineare. Vale
infatti

U
(x +y) =
U
(x) +
U
(y), , C, x, y C
n
.
Inoltre, la proiezione ortogonale di x su U `e data dalla somma delle proiezioni di x sui singoli vettori
ortogonali u
1
, . . . , u
k
.
La proiezione ortogonale di un vettore x su un sottospazio U `e il punto di U pi` u vicino ad x.
7
Proposizione. Sia U un sottospazio di C
n
, sia x C
n
e sia x
U
la proiezione ortogonale di x su U. Allora,
per ogni u U
d(x, x
U
) d(x, u).
Dimostrazione. Sia u U un elemento arbitrario. Lidentit`a
x u = x x
U
+x
U
u, con x x
U
U

, x
U
u U
scompone di x u come somma di due vettori ortogonali. In particolare implica
[[x u[[
2
= [[x x
U
[[
2
+[[x
U
u[[
2
e
[[x x
U
[[
2
[[x u[[
2
[[x x
U
[[ [[x u[[
come richiesto.
Denizione. La distanza di un vettore x da un sottospazio U `e per denizione la distanza fra x e la sua
proiezione ortogonale su U
d(x, U) = d(x, x
U
).
In particolare, se x U, allora x
U
= x e d(x, U) = 0.
4. Applicazioni lineari unitarie.
Sia C
n
lo spazio delle ennuple complesse col prodotto hermitiano canonico.
Denizione. Unapplicazione lineare F: C
n
C
n
si dice unitaria se
F(x) F(y) = x y, per ogni x, y C
n
.
In altre parole, lapplicazione F `e unisometria lineare di C
n
.
Osservazione. Direttamente dalla denizione segue che unapplicazione lineare unitaria conserva la norma
dei vettori
|F(x)| = |x|, per ogni x C
n
.
Questo fatto a sua volta implica che unapplicazione lineare unitaria `e necessariamente iniettiva, e quindi
suriettiva e biiettiva. Inoltre, sempre dalla denizione, segue che unapplicazione lineare unitaria manda basi
ortonormali in basi ortonormali.
Sia F: C
n
C
n
unapplicazione lineare unitaria e sia M la matrice rappresentativa di F nella base canonica
(in dominio e codominio), cos` che
F(x) = Mx, x C
n
.
Poiche per ogni x, y C
n
vale
Mx My =
t
(Mx)My =
t
x
t
MM y = x y
la matrice M soddisfa la condizione
t
M M = Id, ossia M
1
=
t
M. Una matrice con questa propriet`a si
chiama matrice unitaria. Una matrice unitaria `e anche caratterizzata dal fatto che le sue colonne (e le sue
righe) formano una base ortonormale di C
n
.
8
Esercizio 4.1. Far vedere che
_
cos i sin
i sin cos
_
,
_
i cos i sin
sin cos
_
sono matrici unitarie, per ogni [0, 2].
Esercizio 4.2. Sia M una matrice unitaria n n, ossia tale che
t
M M = I
n
.
(i) Far vedere che M
1
e
t
M sono matrici unitarie.
(ii) Far vedere che [ det M[ = 1.
(iii) Far vedere che se `e un autovalore di M, allora [[ = 1.
(iv) Far vedere che il prodotto di due matrici unitarie `e una matrice unitaria.
Sol. (i) dobbiamo vericare che
t
(M
1
)M
1
= I
n
:
t
(M
1
)M
1
= (
t
M
1
)(M)
1
= M
t
M =
t
M M = I
n
;
(nellultimo passaggio abbiamo usato che
t
M ed M sono una inversa dellaltra e dunque commutano).
(ii) 1 = det(I
n
) = det(
t
M M) = det(
t
M) det(M) = det(M)(det(M) = [ det(M)[
2
.
(iii) Sia un autovalore di M e sia x ,= 0 un autovettore: Mx = x. Dalle propriet`a delle matrici unitarie
segue
Mx Mx = x x = (x) (x) =

(x x) x x = [[
2
(x x).
Poiche x x ,= 0, deve essere [[
2
= 1, come richiesto.
(iv) Siano M ed N matrici unitarie.
t
(MN) MN =
t
N
t
MM N =
t
N I
n
N = I
n
.
5. Applicazioni lineari hermitiane.
Sia C
n
lo spazio delle ennuple complesse col prodotto hermitiano canonico.
Denizione. Unapplicazione lineare F: C
n
C
n
si dice hermitiana se
F(x) y = x F(y), per ogni x, y C
n
.
Sia A la matrice rappresentativa di F nella base canonica (in dominio e codominio).
Poiche per ogni x, y C
n
vale
Ax y =
t
(Ax)y =
t
x
t
A y =
t
x(Ay) =
t
xA yx Ay ()
la matrice A soddisfa la condizione
t
A = A. Una matrice con questa propriet`a si chiama matrice hermitiana.
Esempio. Esempi di matrici hermitiane
M =
_
2 2i
2i 2
_
, N =
_
_
1 1 2i 3
1 + 2i 6 2i
3 2i 0
_
_
.
Esempio. Una matrice hermitiana a coecienti reali `e una matrice reale simmetrica:
_
M = M
t
M = M

_
M = M
t
M = M
.
9
Lemma 5.1. Sia F: C
n
C
n
unapplicazione simmetrica. Sia U un sottospazio di C
n
e sia U

il suo
complemento ortogonale. Se F(U) U, allora anche F(U

) U

.
Dim. Sia w un arbitrario elemento di U

. Dobbiamo vericare che F(w) U

, ossia che F(w) u = 0 per


ogni u U. Poiche per ipotesi F(u) U, dalla (*) segue che
F(w) u = w F(u) = 0, u U.
Dunque F(w) U

come richiesto.
Per le matrici hermitiane vale un teorema di diagonalizzazione, di cui il teorema di diagonalizzazione per le
matrici simmetriche reali `e un caso particolare. Ad esempio la dimostrazione del fatto che gli autovalori di
una matrice simmetrica reale sono reali si ottiene come caso particolare dellanalogo risultato per le matrici
hermitiane.
`
E curioso che questo metodo sia pi` u semplice di una dimostrazione diretta.
Teorema spettrale per matrici hermitiane. Sia A una matrice hermitiana n n.
(i) Sia un autovalore di A. Allora =

, cio`e `e reale.
(ii) Autospazi relativi ad autovalori distinti sono ortogonali.
(iii) Sia un autovalore di A di molteplicit`a algebrica k e sia V

lautospazio di . Allora dimV

= k.
Dim. (i) Sia x V

un autovettore di autovalore . Per denizione x `e un vettore non nullo, tale che


Ax = x. Sfruttando la relazione (*) troviamo
Ax x = (x) y = (x x) = x Ax = x (x) =

(x x),
da cui segue che (x x) =

(x x). Dividendo ambo i termini per x x ,= 0, troviamo =

, come richiesto.
(ii) Siano e autovalori distinti di A e siano V

e V

i rispettivi autospazi. Facciamo vedere che elementi


arbitrari x V

e y V

sono ortogonali fra loro. Dalla (*) si ha


Ax y = (x) y = (x y) = x Ay = x (y) = (x y), ( `e reale)
da cui segue che ( ) (x y) = 0. Poiche ,= , deve valere x y = 0 , cio`e x y come richiesto.
(iii) Siano
1
, . . . ,
k
gli autovalori di A e siano V

1
, . . . , V

k
gli autospazi corrispondenti. Consideriamo il
seguente sottospazio di C
n
U = V

1
. . . V

k
= X C
n
[ C : AX = X.
Sia L
A
: C
n
C
n
, x Ax lapplicazione lineare data dalla moltiplicazione per A.
`
E chiaro dalla denizione
di U che L
A
(U) U. Dal Lemma 5.1 segue che L
A
(U

) U

; pertanto la restrizione ad U

denisce
unapplicazione lineare simmetrica L
A
[U

: U

. Questa applicazione ha almeno un autovalore, per


cui esistono C (per la precisione R) e un vettore x U

tali che L
A
(x) = x. Questo contraddice
la denizione di U, e implica U

= 0. In particolare, C
n
= V

1
. . . V

k
e ogni autospazio di A ha
dimensione massima, uguale alla molteplicit`a algebrica dellautovalore corrispondente.
Direttamente da fatti (i)(ii)(iii) segue che
(iv) Esiste una base ortonormale di C
n
formata da autovettori di A.
(v) La matrice A `e diagonalizzabile mediante una matrice unitaria, ossia esiste una matrice unitaria M tale
che
M
1
AM =
_
_
_

1
0 . . . 0 0
0
2
. . . 0 0
0 0 . . . . . . 0
0 0 . . . . . .
n
_
_
_, (3)
dove
1
, . . . ,
n
sono gli autovalori di A.
10
Una matrice M che soddisfa la relazione (3) `e una qualunque matrice che ha per colonne una base ortonormale
di C
n
formata da autovettori di A. In altre parole, se

_
_
v
11
.
.
.
v
n1
_
_
, . . . ,
_
_
v
1n
.
.
.
v
nn
_
_

`e una qualunque base ortonormale di C


n
formata da autovettori di A (di autovalori
1
, . . . ,
n
rispettiva-
mente), allora la matrice unitaria
M =
_
_
v
11
. . . v
1n
.
.
.
.
.
.
.
.
.
v
n1
. . . v
nn
_
_
soddisfa la relazione (3).
Esercizio. Sia A una matrice n n antihermitiana, cio`e che soddisfa la relazione
t
A = A. Vericare che:
(i) Sia un autovalore di A. Allora =

, cio`e `e immaginario puro.


(ii) Autospazi relativi ad autovalori distinti sono ortogonali.
(iii) Sia un autovalore di A di molteplicit`a algebrica k e sia V

lautospazio di . Allora dimV

= k.
(iv) Esiste una base ortonormale di C
n
formata da autovettori di A.
(v) La matrice A `e diagonalizzabile mediante una matrice unitaria.
(suggerimento: ripercorrere la dimostrazione del Lemma 5.1 e del teorema spettrale per matrici hermi-
tiane......).
Concludiamo questa sezione con un teorema di diagonalizzazione per matrici unitarie. Anche per le matrici
unitarie vale un analogo del Lemma 5.1.
Lemma 5.2. Sia F: C
n
C
n
unapplicazione lineare unitaria. Sia W C
n
un sottospazio tale che
F(W) = W. Vericare che vale anche F(W

) = W

.
Dim. Sia w W

. Dobbiamo dimostrare che F(w) W

, ossia che F(w) u = 0, per ogni u W. Dalle


propriet`a delle applicazionii unitarie abbiamo
F(w) F(u) = w u = 0, u W.
Ricordiamo che unapplicazione unitaria `e necessariamente biiettiva. In particolare al variare di u W,
anche F(u) copre tutti i vettori di W. Dunque il lemma `e dimostrato.
Teorema spettrale per matrici unitarie. Sia U una matrice unitaria n n.
(i) Autospazi relativi ad autovalori distinti sono ortogonali.
(ii) Sia un autovalore di U di molteplicit`a algebrica k e sia V

lautospazio di . Allora dimV

= k.
Dim. (i) Siano e autovalori distinti di U e siano V

e V

i rispettivi autospazi. Facciamo vedere che


elementi arbitrari x V

e y V

sono ortogonali fra loro. Per le propriet`a delle matrici unitarie abbiamo
x y = Ux Ux = (x) (y) = (x y) (1 )(x y) = 0.
Ricordiamo che gli autovalori di una matrice unitaria hanno modulo uno e che per un numero complesso
di modulo uno vale
1
= . Dunque per ,= , si ha (1 ) = ( ) ,= 0, da cui segue che x y = 0,
come richiesto.
(iii) Siano
1
, . . . ,
k
gli autovalori di U e siano V

1
, . . . , V

k
gli autospazi corrispondenti. Consideriamo il
seguente sottospazio di C
n
W = V

1
. . . V

k
= x C
n
[ C : Ux = x.
11
Sia L
U
: C
n
C
n
, x Ux lapplicazione lineare data dalla moltiplicazione per U.
`
E chiaro dalla denizione
di W che L
U
(W) W. Dal Lemma 5.2 segue che L
U
(W

) W

; pertanto la restrizione ad W

denisce
unapplicazione lineare unitaria L
U
[W

: W

. Questa applicazione ha almeno un autovalore, per


cui esistono C e un vettore x W

tali che L
U
(x) = x. Questo contraddice la denizione di W, e
implica W

= 0. In particolare, C
n
= V

1
. . . V

k
e ogni autospazio di U ha dimensione massima,
uguale alla molteplicit`a algebrica dellautovalore corrispondente.
Come nel caso hermitiano, dai fatti (i) e (ii) segue che
(iii) Esiste una base ortonormale di C
n
formata da autovettori di U.
(iv) La matrice U `e diagonalizzabile mediante una matrice unitaria.
12

Anda mungkin juga menyukai