(x y) =
(x
1
y
1
+. . . +x
n
y
n
) =
x
1
y
1
+. . . +
x
n
y
n
otteniamo (iii). Per dimostrare (iv), osserviamo che
x x = [x
1
[
2
+. . . +[x
n
[
2
.
Poiche i moduli di numeri complessi sono sempre reali non negativi, si ha che x x 0. Se x = 0, chiaramente
x x = 0. Viceversa, se per un vettore x C
n
vale x x = 0, allora [x
1
[
2
+ . . . + [x
n
[
2
= 0. Ci`o `e possibile
solo se x
1
= . . . = x
n
= 0.
Mediante il prodotto hermitiano deniamo in C
n
nozioni di lunghezza, distanza e ortogonalit`a.
Denizione. La norma o lunghezza [[x[[ di un vettore x C
n
`e denita da
[[x[[ =
x x =
_
[x
1
[
2
+. . . +[x
n
[
2
.
Esempio. La norma del vettore x =
_
1 i
2 + 3i
_
C
2
`e data da
[[x[[ =
_
[1 i[
2
+[2 + 3i[
2
=
_
(1 + 1) + (4 + 9) =
15.
Denizione. La distanza fra i punti x e y in C
n
`e denita da
d(x, y) := [[x y[[.
In particolare, [[x[[ coincide con la distanza di x dallorigine.
La norma gode delle seguenti propriet`a:
(i) (Omogeneit`a) [[x[[ = [[[[x[[, per ogni C.
(ii) (Disuguaglianza di Cauchy-Schwarz) [x y[ [[x[[[[y[[, per ogni x, y C
n
.
2
(iii) (Disuguaglianza triangolare) [[x +y[[ [[x[[ +[[y[[, per ogni x, y C
n
.
Dimostrazione. Il punto (i) segue da
[[x[[ =
_
[[
2
[x
1
[
2
+. . . +[[
2
[x
n
[
2
= [[
_
[x
1
[
2
+. . . +[x
n
[
2
= [[[[x[[.
(ii) Se x = 0 oppure y = 0 la disuguaglianza `e chiaramente soddisfatta. Supponiamo adesso x ,= 0 e y ,= 0.
Consideriamo un vettore della forma z = x+y, con , C. Per le propriet`a (i)(ii)(iii)(iv) del prodotto
hermitiano, abbiamo che
z z = [[
2
[[x[[
2
+[[
2
[[y[[
2
+ 2Re(
x y) 0, , C.
In particolare, per = [[y[[
2
e = x y, troviamo
[[y[[
4
[[x[[
2
+[[y[[
2
[x y[
2
2[[y[[
2
[x y[
2
= [[y[[
4
[[x[[
2
[[y[[
2
[x y[
2
0.
Dividendo per [[y[[
2
,= 0, otteniamo
[x y[
2
[[x[[
2
[[y[[
2
che `e equivalente alla disuguaglianza cercata.
(iii) La disuguaglianza triangolare `e equivalente alla disuguaglianza
[[x +y[[
2
([[x[[ +[[y[[)
2
.
Direttamente dalle denizioni e dalla disuguaglianza di Cauchy-Schwarz abbiamo
[[x+y[[
2
= (x+y)(x+y) = [[x[[
2
+[[y[[
2
+2Re(xy) [[x[[
2
+[[y[[
2
+2[xy[ [[x[[
2
+[[y[[
2
+2[[x[[[[y[[ = ([[x[[+[[y[[)
2
,
come richiesto.
Denizione. Due vettori x, y C
n
si dicono ortogonali se x y = 0. Questo si indica con x y.
La proiezione ortogonale
y
(x) di un vettore x su un vettore y ,= 0 `e un vettore
y
(x) = cy multiplo di
y per uno scalare complesso c C, caratterizzato dalla propriet`a
(x
y
(x)) y = 0.
In altre parole, la proiezione ortogonale di un vettore x su un vettore y ,= 0 determina una scomposizione
del vettore x nella somma di un vettore parallelo a y e un vettore ortogonale a y
x = z +
y
(x), z = x
y
(x), z y. (2)
Risulta
y
(x) =
x y
y y
y.
Esempio. Siano x =
_
_
i
1 +i
0
_
_
e y =
_
_
i
i
1 + 3i
_
_
. Poiche x y = 2 +i e y y = 12, troviamo
y
(x) =
2 +i
12
_
_
i
i
1 + 3i
_
_
=
_
_
1 + 2i
1 2i
1 + 7i
_
_
.
3
2. Basi ortonormali. Procedimento di ortonormalizzazione di Gram-Schmidt.
Denizione. Un sottoinsieme x
1
, . . . , x
k
di C
n
si dice un insieme ortogonale se i suoi elementi sono a
due a due ortogonali fra loro.
Esercizio. Gli elementi di un insieme ortogonale sono linearmente indipendenti su C.
Denizione. Una base ortonormale di C
n
`e una base e
1
, . . . , e
n
i cui elementi hanno norma uno e sono
a due a due ortogonali:
|e
1
| = . . . = |e
n
| = 1, e
i
e
j
= 0, i ,= j.
Esempio. La base canonica di C
n
_
_
_
_
1
0
.
.
.
0
_
_
_
_
,
_
_
_
_
0
1
.
.
.
0
_
_
_
_
, . . . ,
_
_
_
_
0
0
.
.
.
1
_
_
_
_
2
i/
2
_
,
_
i/
2
1/
2
_
formano una base ortonormale di C
2
.
Esempio. I vettori
_
_
cos
sin
0
_
_
,
_
_
sin
cos
0
_
_
,
_
_
0
0
i
_
_
formano una base ortonormale di C
3
.
Il metodo di ortonormalizzazione di Gram-Schmidt permette di ottenere una base ortonormale di C
n
a
partire da una base qualsiasi.
Sia v
1
, . . . , v
n
una base di C
n
. Allora i vettori
u
1
=v
1
u
2
=v
2
v
2
u
1
u
1
u
1
u
1
u
3
=v
3
v
3
u
1
u
1
u
1
u
1
v
3
u
2
u
2
u
2
u
2
.
.
. =
.
.
.
.
.
.
.
.
.
u
n
=v
n
v
n
u
1
u
1
u
1
u
1
. . .
v
n
u
n1
u
n1
u
n1
u
n1
sono a due a due ortogonali (cfr. equazione (2)). Inoltre, poiche per ogni 1 j n,
span
C
v
1
, . . . , v
j
= span
C
u
1
, . . . , u
j
, (3)
4
anche i vettori u
1
, . . . , u
n
formano una base di C
n
. Inne i vettori
e
1
=
u
1
[[u
1
[[
, . . . , e
n
=
u
n
[[u
n
[[
1
2
_
_
1
i
0
_
_
=
_
_
1/2
i/2
0
_
_
u
3
=v
3
=
_
_
0
0
1 +i
_
_
0
_
_
1
i
0
_
_
0
_
_
1/2
i/2
0
_
_
=
_
_
0
0
1 +i
_
_
formano una base ortogonale di C
3
e i vettori
e
1
=
1
2
_
_
1
i
0
_
_
, e
2
=
1
2
_
_
1
i
0
_
_
, e
3
=
1
2
_
_
0
0
1 +i
_
_
formano una base ortonormale di C
3
.
Osservazione. Sia U C
n
il sottospazio generato dai primi k vettori v
1
, . . . , v
k
della base v
1
, . . . , v
n
di C
n
. Dalla relazione (3) segue che i vettori u
1
, . . . , u
k
, ottenuti nel corso del procedimento di ortonor-
malizzazione di Gram-Schmidt, sono una base ortogonale di U.
Esercizio. Dato un sottospazio U in C
n
di dimensione k, esiste una base ortonormale di C
n
u
1
, . . . , u
k
, u
k+1
, . . . , u
n
. In altre parole, data una base ortonormale di U, essa pu`o essere completata ad una base ortonormale
di C
n
.
Sia B = v
1
, . . . , v
n
una base ortogonale di C
n
e sia x C
n
. Allora le coordinate di x in B sono date da
x
1
=
x v
1
v
1
v
1
, . . . , x
n
=
x v
n
v
n
v
n
.
In particolare, se la base B `e ortonormale, le coordinate di x in B sono date da
x
1
= x v
1
, . . . , x
n
= x v
n
.
Dim. Il vettore x si scrive in modo unico come combinazione lineare degli elementi di B
x = x
1
v
1
+. . . +x
n
v
n
.
5
Per 1 j n,
x v
j
= x
1
v
1
v
j
+. . . +x
n
v
n
v
j
= x
j
v
j
v
j
,
da cui
x
j
=
x v
j
v
j
v
j
.
Esempio. Le coordinate del vettore x =
_
_
i
i
i
_
_
nella base ortonormale
e
1
=
1
2
_
_
1
i
0
_
_
, e
2
=
1
2
_
_
1
i
0
_
_
, e
3
=
1
2
_
_
0
0
1 +i
_
_
sono date rispettivamente da x
1
=
1
2
(1 +i), x
2
=
1
2
(1 i), x
3
=
1
2
(1 +i).
3. Complementi ortogonali. Proiezioni ortogonali.
Sia U un sottoinsieme di C
n
.
Denizione. Un vettore x C
n
si dice ortogonale a U se `e ortogonale a tutti gli elementi di U. Lortogonale
U
di U `e per denizione
U
:= x C
n
[ x u = 0, u U.
Proposizione. U
`e un sottospazio vettoriale di C
n
.
Dimostrazione. Siano x, y U
e x U
=
_
_
_
x C
n
[
_
_
_
x u
1
= 0
.
.
.
x u
k
= 0
_
_
_
.
In questo caso, U
ha dimensione complessa n k.
Esercizio. Vericare che U U
= O.
6
Se U `e un sottospazio vettoriale di C
n
, il sottospazio U
C
n
= U U
U U
= O.
In particolare, ogni elemento x C
n
si scrive in modo unico come somma di un elemento in U e un elemento
in U
x = x
U
+x
U
, x
U
U, x
U
U
, e vale [[x[[
2
= [[x
U
[[
2
+[[x
U
[[
2
.
Denizione. Per denizione i vettori x
U
e x
U
sono rispettivamente le proiezioni ortogonali di x su U e
su U
x
U
=
U
(x) x
U
=
U
(x).
Calcolo della proiezione ortogonale di un vettore su un sottospazio.
Proposizione. Sia U un sottospazio di C
n
e sia u
1
, . . . , u
k
una qualunque base ortogonale di U. Sia
x C
n
un vettore. Allora la proiezione ortogonale di x su U `e data da
x
U
=
U
(x) =
x u
1
u
1
u
1
u
1
+. . . +
x u
k
u
k
u
k
u
k
.
Dimostrazione. Sia u
1
, . . . , u
k
, u
k+1
, . . . , u
n
una base ortogonale di C
n
che completa u
1
, . . . , u
k
. In
particolare, u
k+1
, . . . , u
n
`e una base ortogonale di U
. In questa base,
x =
x u
1
u
1
u
1
u
1
+. . . +
x u
k
u
k
u
k
u
k
+
x u
k+1
u
k+1
u
k+1
u
k+1
+. . . +
x u
n
u
n
u
n
u
n
.
Per lunicit`a di x
U
e di x
U
, segue che
x
U
=
U
(x) =
x u
1
u
1
u
1
u
1
+. . . +
x u
k
u
k
u
k
u
k
e analogamente
x
U
=
U
(x) =
x u
k+1
u
k+1
u
k+1
u
k+1
+. . . +
x u
n
u
n
u
n
u
n
.
Osservazione. Lapplicazione
U
: C
n
C
n
, x
U
(x),
che ad un vettore associa la sua proiezione ortogonale sul sottospazio U, `e unapplicazione lineare. Vale
infatti
U
(x +y) =
U
(x) +
U
(y), , C, x, y C
n
.
Inoltre, la proiezione ortogonale di x su U `e data dalla somma delle proiezioni di x sui singoli vettori
ortogonali u
1
, . . . , u
k
.
La proiezione ortogonale di un vettore x su un sottospazio U `e il punto di U pi` u vicino ad x.
7
Proposizione. Sia U un sottospazio di C
n
, sia x C
n
e sia x
U
la proiezione ortogonale di x su U. Allora,
per ogni u U
d(x, x
U
) d(x, u).
Dimostrazione. Sia u U un elemento arbitrario. Lidentit`a
x u = x x
U
+x
U
u, con x x
U
U
, x
U
u U
scompone di x u come somma di due vettori ortogonali. In particolare implica
[[x u[[
2
= [[x x
U
[[
2
+[[x
U
u[[
2
e
[[x x
U
[[
2
[[x u[[
2
[[x x
U
[[ [[x u[[
come richiesto.
Denizione. La distanza di un vettore x da un sottospazio U `e per denizione la distanza fra x e la sua
proiezione ortogonale su U
d(x, U) = d(x, x
U
).
In particolare, se x U, allora x
U
= x e d(x, U) = 0.
4. Applicazioni lineari unitarie.
Sia C
n
lo spazio delle ennuple complesse col prodotto hermitiano canonico.
Denizione. Unapplicazione lineare F: C
n
C
n
si dice unitaria se
F(x) F(y) = x y, per ogni x, y C
n
.
In altre parole, lapplicazione F `e unisometria lineare di C
n
.
Osservazione. Direttamente dalla denizione segue che unapplicazione lineare unitaria conserva la norma
dei vettori
|F(x)| = |x|, per ogni x C
n
.
Questo fatto a sua volta implica che unapplicazione lineare unitaria `e necessariamente iniettiva, e quindi
suriettiva e biiettiva. Inoltre, sempre dalla denizione, segue che unapplicazione lineare unitaria manda basi
ortonormali in basi ortonormali.
Sia F: C
n
C
n
unapplicazione lineare unitaria e sia M la matrice rappresentativa di F nella base canonica
(in dominio e codominio), cos` che
F(x) = Mx, x C
n
.
Poiche per ogni x, y C
n
vale
Mx My =
t
(Mx)My =
t
x
t
MM y = x y
la matrice M soddisfa la condizione
t
M M = Id, ossia M
1
=
t
M. Una matrice con questa propriet`a si
chiama matrice unitaria. Una matrice unitaria `e anche caratterizzata dal fatto che le sue colonne (e le sue
righe) formano una base ortonormale di C
n
.
8
Esercizio 4.1. Far vedere che
_
cos i sin
i sin cos
_
,
_
i cos i sin
sin cos
_
sono matrici unitarie, per ogni [0, 2].
Esercizio 4.2. Sia M una matrice unitaria n n, ossia tale che
t
M M = I
n
.
(i) Far vedere che M
1
e
t
M sono matrici unitarie.
(ii) Far vedere che [ det M[ = 1.
(iii) Far vedere che se `e un autovalore di M, allora [[ = 1.
(iv) Far vedere che il prodotto di due matrici unitarie `e una matrice unitaria.
Sol. (i) dobbiamo vericare che
t
(M
1
)M
1
= I
n
:
t
(M
1
)M
1
= (
t
M
1
)(M)
1
= M
t
M =
t
M M = I
n
;
(nellultimo passaggio abbiamo usato che
t
M ed M sono una inversa dellaltra e dunque commutano).
(ii) 1 = det(I
n
) = det(
t
M M) = det(
t
M) det(M) = det(M)(det(M) = [ det(M)[
2
.
(iii) Sia un autovalore di M e sia x ,= 0 un autovettore: Mx = x. Dalle propriet`a delle matrici unitarie
segue
Mx Mx = x x = (x) (x) =
(x x) x x = [[
2
(x x).
Poiche x x ,= 0, deve essere [[
2
= 1, come richiesto.
(iv) Siano M ed N matrici unitarie.
t
(MN) MN =
t
N
t
MM N =
t
N I
n
N = I
n
.
5. Applicazioni lineari hermitiane.
Sia C
n
lo spazio delle ennuple complesse col prodotto hermitiano canonico.
Denizione. Unapplicazione lineare F: C
n
C
n
si dice hermitiana se
F(x) y = x F(y), per ogni x, y C
n
.
Sia A la matrice rappresentativa di F nella base canonica (in dominio e codominio).
Poiche per ogni x, y C
n
vale
Ax y =
t
(Ax)y =
t
x
t
A y =
t
x(Ay) =
t
xA yx Ay ()
la matrice A soddisfa la condizione
t
A = A. Una matrice con questa propriet`a si chiama matrice hermitiana.
Esempio. Esempi di matrici hermitiane
M =
_
2 2i
2i 2
_
, N =
_
_
1 1 2i 3
1 + 2i 6 2i
3 2i 0
_
_
.
Esempio. Una matrice hermitiana a coecienti reali `e una matrice reale simmetrica:
_
M = M
t
M = M
_
M = M
t
M = M
.
9
Lemma 5.1. Sia F: C
n
C
n
unapplicazione simmetrica. Sia U un sottospazio di C
n
e sia U
il suo
complemento ortogonale. Se F(U) U, allora anche F(U
) U
.
Dim. Sia w un arbitrario elemento di U
come richiesto.
Per le matrici hermitiane vale un teorema di diagonalizzazione, di cui il teorema di diagonalizzazione per le
matrici simmetriche reali `e un caso particolare. Ad esempio la dimostrazione del fatto che gli autovalori di
una matrice simmetrica reale sono reali si ottiene come caso particolare dellanalogo risultato per le matrici
hermitiane.
`
E curioso che questo metodo sia pi` u semplice di una dimostrazione diretta.
Teorema spettrale per matrici hermitiane. Sia A una matrice hermitiana n n.
(i) Sia un autovalore di A. Allora =
, cio`e `e reale.
(ii) Autospazi relativi ad autovalori distinti sono ortogonali.
(iii) Sia un autovalore di A di molteplicit`a algebrica k e sia V
= k.
Dim. (i) Sia x V
e V
e y V
1
, . . . , V
k
gli autospazi corrispondenti. Consideriamo il
seguente sottospazio di C
n
U = V
1
. . . V
k
= X C
n
[ C : AX = X.
Sia L
A
: C
n
C
n
, x Ax lapplicazione lineare data dalla moltiplicazione per A.
`
E chiaro dalla denizione
di U che L
A
(U) U. Dal Lemma 5.1 segue che L
A
(U
) U
; pertanto la restrizione ad U
denisce
unapplicazione lineare simmetrica L
A
[U
: U
tali che L
A
(x) = x. Questo contraddice
la denizione di U, e implica U
= 0. In particolare, C
n
= V
1
. . . V
k
e ogni autospazio di A ha
dimensione massima, uguale alla molteplicit`a algebrica dellautovalore corrispondente.
Direttamente da fatti (i)(ii)(iii) segue che
(iv) Esiste una base ortonormale di C
n
formata da autovettori di A.
(v) La matrice A `e diagonalizzabile mediante una matrice unitaria, ossia esiste una matrice unitaria M tale
che
M
1
AM =
_
_
_
1
0 . . . 0 0
0
2
. . . 0 0
0 0 . . . . . . 0
0 0 . . . . . .
n
_
_
_, (3)
dove
1
, . . . ,
n
sono gli autovalori di A.
10
Una matrice M che soddisfa la relazione (3) `e una qualunque matrice che ha per colonne una base ortonormale
di C
n
formata da autovettori di A. In altre parole, se
_
_
v
11
.
.
.
v
n1
_
_
, . . . ,
_
_
v
1n
.
.
.
v
nn
_
_
= k.
(iv) Esiste una base ortonormale di C
n
formata da autovettori di A.
(v) La matrice A `e diagonalizzabile mediante una matrice unitaria.
(suggerimento: ripercorrere la dimostrazione del Lemma 5.1 e del teorema spettrale per matrici hermi-
tiane......).
Concludiamo questa sezione con un teorema di diagonalizzazione per matrici unitarie. Anche per le matrici
unitarie vale un analogo del Lemma 5.1.
Lemma 5.2. Sia F: C
n
C
n
unapplicazione lineare unitaria. Sia W C
n
un sottospazio tale che
F(W) = W. Vericare che vale anche F(W
) = W
.
Dim. Sia w W
= k.
Dim. (i) Siano e autovalori distinti di U e siano V
e V
e y V
sono ortogonali fra loro. Per le propriet`a delle matrici unitarie abbiamo
x y = Ux Ux = (x) (y) = (x y) (1 )(x y) = 0.
Ricordiamo che gli autovalori di una matrice unitaria hanno modulo uno e che per un numero complesso
di modulo uno vale
1
= . Dunque per ,= , si ha (1 ) = ( ) ,= 0, da cui segue che x y = 0,
come richiesto.
(iii) Siano
1
, . . . ,
k
gli autovalori di U e siano V
1
, . . . , V
k
gli autospazi corrispondenti. Consideriamo il
seguente sottospazio di C
n
W = V
1
. . . V
k
= x C
n
[ C : Ux = x.
11
Sia L
U
: C
n
C
n
, x Ux lapplicazione lineare data dalla moltiplicazione per U.
`
E chiaro dalla denizione
di W che L
U
(W) W. Dal Lemma 5.2 segue che L
U
(W
) W
; pertanto la restrizione ad W
denisce
unapplicazione lineare unitaria L
U
[W
: W
tali che L
U
(x) = x. Questo contraddice la denizione di W, e
implica W
= 0. In particolare, C
n
= V
1
. . . V
k
e ogni autospazio di U ha dimensione massima,
uguale alla molteplicit`a algebrica dellautovalore corrispondente.
Come nel caso hermitiano, dai fatti (i) e (ii) segue che
(iii) Esiste una base ortonormale di C
n
formata da autovettori di U.
(iv) La matrice U `e diagonalizzabile mediante una matrice unitaria.
12