Anda di halaman 1dari 55

Àlgebra lineal

Coloma Ballester i Nicolau


Vicent Caselles i Costa
Antoni Ferragut i Amengual
Andreu Solé Martı́nez

Universitat Pompeu Fabra


Índex

1 Funcions 2
1.1 Definicions. Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Inverses de funcions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 El graf d’una funció . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

2 Vectors i matrius 7
2.1 Vectors . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2 Matrius . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.3 Operacions amb vectors i matrius . . . . . . . . . . . . . . . . . . . . . . . . . . 9

3 Resolució de sistemes d’equacions lineals 14


3.1 Equacions lineals. Sistemes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.2 La geometria dels sistemes d’equacions lineals . . . . . . . . . . . . . . . . . . . 15
3.3 Sistemes singulars . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.4 El mètode de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.5 La descomposició en LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.6 Operacions elementals i descomposició LU . . . . . . . . . . . . . . . . . . . . . 20
3.7 Càlcul de la matriu inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

4 Els espais vectorials i els seus subespais 25


4.1 Els subespais vectorials . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.2 El nucli d’A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.3 Càlcul del nucli d’A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.4 La imatge d’A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.5 Càlcul de la imatge d’A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4.6 Independència lineal. Bases. Dimensió . . . . . . . . . . . . . . . . . . . . . . . 31
4.7 Els quatre subespais fonamentals . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.7.1 La imatge d’At . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.7.2 El nucli d’A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.7.3 La imatge d’A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.7.4 El nucli d’At . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

5 Determinants 39
5.1 Propietats del determinant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
5.2 Canvis de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
5.3 Aplicacions lineals . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
5.4 El polinomi caracterı́stic . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

6 Espais vectorials euclidians 47


6.1 Ortogonalització . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
6.1.1 El mètode de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . . . . 48
6.2 Rotacions. Matrius ortogonals . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

7 Valors i vectors propis 51


7.1 Càlcul de valors i vectors propis . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
7.2 Matrius simètriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

1
Capı́tol 1

Funcions

1.1 Definicions. Exemples


Definició 1.1
Siguin S i T dos conjunts.
• Una funció f d’S en T és una correspondència que a cada element x d’S
li associa un element y = f (x) de T . Escriurem f : S → T i direm que
f (x) és el valor d’f en x o la imatge d’x per f .
• El conjunt de tots els elements f (x) és la imatge d’f . En notació matemà-
tica escriurem

Im (f ) = {f (x) : x ∈ S}. (1.1)

Si S 0 ⊆ S, la imatge d’S 0 per f és el conjunt f (S 0 ) = {f (x) : x ∈ S 0 }.


L’aplicació h : S 0 → T definida per h(x) = f (x) és la restricció d’f a
S 0 . Normalment la denotarem per f |S 0 : S 0 → T .
• Si g : T → P és una altra aplicació, l’aplicació composta g ◦ f : S → P
ve definida per

(g ◦ f )(x) = g(f (x)), (1.2)

per tot x ∈ S.
2

Definició 1.2
Siguin S i T dos conjunts. Una aplicació f : S → T és injectiva si x 6= x0
implica f (x) 6= f (x0 ), per tots x, x0 ∈ S; o, idènticament, si f (x) = f (x0 )
implica x = x0 per tots x, x0 ∈ S. És exhaustiva o suprajectiva si f (S) = T ;
és a dir, si per tot y ∈ T existeix almenys un element x ∈ S tal que f (x) = y.
L’aplicació f és bijectiva si és injectiva i exhaustiva.
2

Proposició 1.1
Siguin f : S → T i g : T → P dues aplicacions. Llavors,

2
CAPÍTOL 1. FUNCIONS 3

1. Si f i g són injectives llavors g ◦ f és injectiva.


2. Si f i g són exhaustives llavors g ◦ f és exhaustiva.
2

Prova.
1. Siguin x, y ∈ S tals que (g ◦ f )(x) = (g ◦ f )(y). Llavors, g(f (x)) = g(f (y)).
Com que g és injectiva, f (x) = f (y) i, com que f també és injectiva, x = y,
el que conclou la prova d’aquest apartat.
2. Sigui p ∈ P . Com que g és exhaustiva, existeix t ∈ T tal que g(t) = p
però, com que f també és exhaustiva, existeix s ∈ S tal que f (s) = t.
Aixı́, (g ◦ f )(s) = g(f (s)) = g(t) = p, el que dóna l’exhaustivitat.

Comentaris
I. Si f i g són bijectives llavors g ◦ f és bijectiva. El recı́proc no és cert, com
es pot deduir dels dos comentaris següents.
II. Si g ◦ f és injectiva llavors f és injectiva.
En efecte, si x, y ∈ S són tals que f (x) = f (y) llavors, aplicant g, obtenim
(g ◦ f )(x) = (g ◦ f )(y) i, com que g ◦ f és injectiva, x = y.
En canvi, g no té perquè ser injectiva, com podem veure a l’exemple 1.
III. Si g ◦ f és exhaustiva llavors g és exhaustiva.
En efecte, si p ∈ P llavors existeix s ∈ S tal que (g ◦ f )(s) = p, perquè
g ◦ f és exhaustiva. Per tant, g(f (s)) = p. Aixı́, hem trobat un element
t = f (s) ∈ T tal que g(t) = p. Això implica que g és exhaustiva.
En canvi, f no té perquè ser exhaustiva, com també es pot deduir de
l’exemple 1. F

Exemple 1: Siguin S = {0, 1, 2}, T = {3, 4, 5, 6} i P = {7, 8, 9}. Definim

f :S → T, g:T → P.
0 7 → 3 3 7→ 7
1 7 → 4 4 7 → 8
2 7 → 5 5 7 → 9
6 7 → 9

En aquest cas, g ◦ f i f són injectives, però g no ho és. ♠

Exemple 2:
Sigui f : IN → IN ∪ {0} l’aplicació definida per f (i) = i − 1.

1. Vegem que f és injectiva:


Siguin i, j ∈ IN tals que f (i) = f (j). Llavors, i − 1 = j − 1, pel que i = j.
CAPÍTOL 1. FUNCIONS 4

2. Vegem ara que f és exhaustiva:


Sigui k ∈ IN ∪ {0}. Volem trobar un element i ∈ IN tal que f (i) = k. És
a dir, tal que i − 1 = k. Aquest element només pot ser i = k + 1 ∈ IN .

Com que f és injectiva i exhaustiva, llavors és bijectiva. ♠

Exemple 3: L’aplicació g : IN ∪ {0} → ZZ definida per



g(0) = 0 
g(2i − 1) = i ,
g(2i) = −i

essent i ∈ IN , és bijectiva:


• Siguin k, k 0 ∈ IN ∪ {0}. Demostrarem la injectivitat en vàries etapes:
– Si g(k) = g(k 0 ) = 0 llavors k = k 0 = 0.
– Si g(k) = g(k 0 ) =
6 0 llavors o bé k i k 0 són parells o bé són senars;
altrament, g(k) i g(k 0 ) tendrien signes diferents, pel que no serien
iguals.
∗ Si k i k 0 són parells llavors k = 2p i k 0 = 2p0 , pel que g(k) =
g(2p) = −p i g(k 0 ) = g(2p0 ) = −p0 . D’aquı́, p = p0 i, per tant,
k = k0 .
∗ Si k i k 0 són senars llavors k = 2p − 1 i k 0 = 2p0 − 1, pel que
g(k) = g(2p − 1) = p i g(k 0 ) = g(2p0 − 1) = p0 . D’aquı́ també es
dedueix que p = p0 i k = k 0 .

En qualsevol cas, de g(k) = g(k 0 ) deduı̈m que k = k 0 , el que implica la


injectivitat de g.
• Vegem ara l’exhaustivitat. Sigui k ∈ ZZ.
– Si k = 0 llavors g(0) = 0.
– Si k > 0 llavors g(2k − 1) = k.
– Si k < 0 llavors g(−2k) = k.
En qualsevol cas existeix un element i ∈ IN ∪ {0} tal que g(i) = k.

Comentari: Composant les dues aplicacions dels exemples 2 i 3 construı̈m


una aplicació bijectiva entre IN i ZZ. Això vol dir que ZZ és numerable. F

1.2 Inverses de funcions


Definició 1.3
Siguin f : S → T i g : T → S dues aplicacions. La funció g és inversa d’f per
l’esquerra si (g ◦ f )(s) = s per tot s ∈ S. De la mateixa manera, g és inversa
d’f per la dreta si (f ◦ g)(t) = t per tot t ∈ T . Observem que si g és inversa
CAPÍTOL 1. FUNCIONS 5

d’f per l’esquerra llavors f ho és de g per la dreta i que si g és inversa per la
dreta d’f llavors f ho és de g per l’esquerra.
Finalment, f i g són inverses una de l’altra si ho són per la dreta i per
l’esquerra; és a dir, (g ◦ f )(s) = s per tot s ∈ S i (f ◦ g)(t) = t per tot t ∈ T . 2

Proposició 1.2
Sigui f : S → T una aplicació. Llavors, f és bijectiva si i només si, per tot
t ∈ T , existeix un únic s ∈ S tal que f (s) = t. 2

Prova.

⇒c Sigui t ∈ T . Al ser f exhaustiva, existeix s ∈ S tal que f (s) = t. Suposem


que existeix un altre element s0 ∈ S tal que f (s0 ) = t. Llavors tenim que
f (s) = t = f (s0 ), el que implica que s = s0 per ser f injectiva.
⇐c Suposem ara que, per tot t ∈ T , exiteix un únic s ∈ S tal que f (s) = t.
Immediatament es dedueix que f és exhaustiva.
Per veure que és injectiva, suposem x, y ∈ S tals que f (x) = f (y). Diguem
t = f (x) = f (y) ∈ T . Com que t ∈ T , existeix un únic element d’S que es
correspon amb t per f , pel que x i y han de ser el mateix element.

Definició 1.4
Sigui f : S → T una aplicació bijectiva. Definim l’aplicació f −1 : T → S que a
cada element t ∈ T li fa correspondre l’únic element s ∈ S tal que f (s) = t. 2

Comentari: La funció f −1 és la inversa d’f . F

1.3 El graf d’una funció


Definició 1.5
El producte cartesià dels conjunts A1 , . . . , An és denota per A1 × . . . × An i
és el conjunt de llistes ordenades (x1 , . . . , xn ), essent x1 ∈ A1 , . . . , xn ∈ An . En
notació matemàtica,

A1 × . . . × An = {(x1 , . . . , xn ) : x1 ∈ A1 , . . . , xn ∈ An }.

Exemple 4:
1. IN × IN = {(m, n) : m, n ∈ IN }.
2. IN × ZZ = {(m, n) : m ∈ IN, n ∈ ZZ}.


CAPÍTOL 1. FUNCIONS 6

Definició 1.6
Sigui f : S → T una aplicació. Definim el graf d’f com el conjunt

graf(f ) = {(s, f (s)) : s ∈ S}.

2
Capı́tol 2

Vectors i matrius

2.1 Vectors
A partir dels cos dels nombres reals IR construı̈m l’espai
 
x1
n  x2  o
IRn = x =  .  : x1 , x2 , . . . , xn ∈ IR .
 
 .. 
xn

Els elements d’IRn són els vectors. Dos vectors són iguals si tenen les mateixes
coordenades. El vector que té tots els coeficients nuls és el vector zero, denotat
per (0) o 0.
De vegades i per comoditat escriurem un vector x com x = (xi )n en lloc de
 
x1
 .. 
 . .
xn

Donats els vectors x = (xi )n i y = (yi )n d’IRn podem definir les dues operacions
bàsiques següents:
1. La suma de vectors.
     
x1 y1 x1 + y1
 x2   y2   x2 + y2 
 ..  +  .. = .
     
..
 .   .   . 
xn yn xn + yn

2. El producte d’un escalar per un vector. Sigui λ ∈ IR.


   
x1 λx1
 x2   λx2 
λ .  =  . 
   
 ..   .. 
xn λxn

7
CAPÍTOL 2. VECTORS I MATRIUS 8

Amb aquestes operacions, IRn és un espai vectorial. En posteriors capı́tols


insistirem en la definició i les propietats dels espais vectorials.
   
2 3
Exemple 5: Siguin x = ,y = ∈ IR2 . Llavors
1 −2
         
2 3 4 3 1
2x − y = 2 − = − = .
1 −2 2 −2 4

2.2 Matrius
Definició 2.1
Una matriu m × n sobre el cos K (IR o C) és una taula rectangular d’elements
del cos amb m files i n columnes:
 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
A= . ..  .
 
.. ..
 .. . . . 
am1 am2 ... amn

El conjunt de les matrius m × n sobre K es denota per Mm×n (K). 2


Els subı́ndexos de l’element aij indiquen que es troba a la fila i i la columna
j de la matriu. De vegades expressam una matriu de la forma

A = (aij )m×n .

Si m = n la matriu A és una matriu quadrada d’ordre n. El conjunt de


les matrius quadrades d’ordre n es denota per Mn (K).

Exemple 6: La matriu nul·la és aquella els elements de la qual són nuls. Es
denota per (0) o 0.
La matriu quadrada n × n que té tots els elements de la diagonal iguals a 1
i la resta nuls és la matriu identitat d’ordre n. Es denota per In o I:
 
1 0 ... 0
 0 1 ... 0 
In =  . . . .
 
 .. .. . . ... 

0 0 ... 1

1 si i=j
Amb la notació δij = podem escriure I = (δij )n×n . ♠
0 si i 6= j

Dues matrius A = (aij ), B = (bij ) ∈ Mm×n (K) són iguals si aij = bij per
tots i = 1, . . . , m i j = 1, . . . , n.
Sobre les matrius podem definir una suma i un producte per escalar:
1. La suma de dues matrius A = (aij ), B = (bij ) ∈ Mm×n (K) és la matriu
A + B = (aij + bij ) ∈ Mm×n (K).
CAPÍTOL 2. VECTORS I MATRIUS 9

2. El producte d’una matriu A = (aij )m×n per un escalar λ ∈ IR és la matriu


λA = (λaij )m×n .

Comentari: Una matriu d’m files i una columna és un vector d’m coor-
denades. F

   
2 1 3 1
Exemple 7: Siguin A = iB= dues matrius. Llavors
0 −1 1 1
   
2 1 3 1
2A − B = 2 − =
0 −1 1 1
     
4 2 3 1 1 1
= − = .
0 −2 1 1 −1 −3

2.3 Operacions amb vectors i matrius


1. Siguin x = (xi )n , y = (yi )n dos vectors d’IRn o Cn . Definim el producte
escalar euclidià d’x i y com el número
hx, yi = x1 y1 + x2 y2 + · · · + xn yn
si x, y ∈ IRn o
hx, yi = x1 y¯1 + x2 y¯2 + · · · + xn y¯n
si x, y ∈ Cn . Recordem que si z = a + ib és un complex llavors z̄ = a − ib.

Proposició 2.1
Siguin x1 , x2 , x, y ∈ IRn o Cn i λ ∈ IR o C . Llavors
(a) hx1 + x2 , yi = hx1 , yi + hx2 , yi i hλx, yi = λhx, yi.
(b) hx, yi = hy, xi si x, y ∈ IRn i hx, yi = hy,¯xi si x, y ∈ Cn .
(c) hx, xi ≥ 0.
(d) Si hx, xi = 0 llavors x = (0), ja que hx, xi = x21 + · · · + x2n .
2

Els dos darrers apartats de la proposició (2.1) ens permeten definir la


longitud d’un vector x ∈ IRn :
p
kxk = hx, xi,
de manera que kxk2 = x21 + · · · + x2n .
2. L’ angle entre dos vectors x, y ∈ IRn − {0} és l’angle θ ∈ [0, π] que
compleix
hx, yi
cos θ = . (2.1)
kxk kyk
El següent lema ens assegura que l’angle entre dos vectors definit a (2.1)
està ben definit (és a dir, el membre de la dreta pren valors entre −1 i 1).
CAPÍTOL 2. VECTORS I MATRIUS 10

Lema 2.1 (desigualtat de Cauchy-Schwartz)


Siguin x, y ∈ IRn . Llavors

|hx, yi| ≤ kxk kyk.

Prova. Sigui λ ∈ IR. Llavors

0 ≤ hx + λy, x + λyi = hx, x + λyi + λhy, x + λyi =


= hx, xi + λhx, yi + λhy, xi + λ2 hy, yi = (2.2)
2 2 2
= kxk + 2λhx, yi + λ kyk .

Per comoditat, diguem a = kyk2 , b = hx, yi, c = kxk2 . Reescrivim (2.2)


com

aλ2 + 2bλ + c ≥ 0,

per tot λ ∈ IR. Si a = 0 llavors y = 0 i la desigualtat es compleix


trivialment. Si a 6= 0 llavors aλ2 + 2bλ + c = 0 té, o bé dues arrels
complexes, o bé una arrel doble. En qualsevol cas, el discriminant és
4b2 − 4ac ≤ 0. D’aquı́, b2 ≤ ac el que, desfent la notació i llevant els
quadrats, es tradueix en la fórmula que volı́em demostrar.

Definició 2.2
• Dos vectors x, y ∈ IRn o Cn són ortogonals (o perpendiculars) si
hx, yi = 0.
• Dos subespais V1 , V2 d’IRn o Cn són ortogonals si hx, yi = 0 per
tots x ∈ V1 , y ∈ V2 .
Sigui ara A ⊆ IRn . Definim el conjunt ortogonal d’A com

A⊥ = {x ∈ IRn : hx, yi = 0pertoty ∈ A}.

3. Siguin A = (aij )m×n una matriu i x = (xi )n ∈ IRn un vector. Definim el


producte d’A per x com
 Pn  
j=1 a1j xj

n
Ax =  .. X
= aij xj  .
  
Pn . j=1
j=1 amj xj i=1,...,n

La matriu A ens permet definir l’aplicació

A : IRn → IRm .
x 7→ Ax
CAPÍTOL 2. VECTORS I MATRIUS 11

Exemple 8: Siguin
   
1 1 6 2
A =  3 0 3 ,x =  5 .
1 1 4 0
Llavors
    
1 1 6 2 7
Ax =  3 0 3  5  =  6 .
1 1 4 0 7
Mirant la matriu A per files, cada coordenada d’Ax és el producte escalar
d’una fila d’A per x. Mirant per columnes,
       
1 1 6 7
Ax = 2  3  + 5  0  + 0  3  =  6  .
1 1 4 7
Les components del vector Ax en termes dels vectors columna d’A són 2,
5 i 0. ♠

Exemple 9: El sistema d’equacions lineals



2x + y+3z = 1
x − y + 2z = 2
es pot escriure com Ax = b si posam
 
  x1  
2 1 3 1
A= , x =  x2  , b = .
1 −1 2 2
x3
Això suposa un gran avantatge, ja que podem treballar amb matrius en
lloc de fer-ho amb equacions. ♠

4. Siguin A = (aij )m×n i B = (bjk )n×p dues matrius. El producte C = AB


és una matriu (cik )m×p amb els elements definits per

cik = ai1 b1k + ai2 b2k + · · · + ain bnk ,

amb i = 1, . . . , m i k = 1, . . . , p.
En general,
n
X
cik = aij bjk ,
j=1

amb i = 1, . . . , m i k = 1, . . . , p.

Proposició 2.2
El producte de matrius és associatiu, aixı́ com distributiu respecte de
l’addició. És a dir, per qualssevol matrius A, B, C, D de l’ordre adequat,
es té

(AB)C = A(BC)
CAPÍTOL 2. VECTORS I MATRIUS 12

A(B + C) = AB + AC, (B + C)D = BD + CD.

A més, tota matriu A m × n compleix

Im A = A, AIn = A.

En canvi, en general el producte de matrius no és commutatiu. 2

Prova. La prova d’aquest resultat es deixa com exercici.

Exemple 10: Siguin


 
  1 −1 2
2 1 1
A= ,B =  2 4 5 
−3 2 0
0 3 −2

dues matrius. Llavors


 
4 5 7
AB = ,
1 11 4

mentre que ni tan sols podem fer el producte BA, ja que el nombre de
columnes d’A difereix del de files de B. ♠

Vegem tot seguit una sèrie de propietats que es deriven del producte de
matrius.

Proposició 2.3
Siguin A = (aij )m×n i B = (bjk )n×p dues matrius. Llavors
(a) L’element ij de la matriu AB és el producte escalar de la fila i-èssima
d’A per la columna j-èssima de B.
(b) Cada columna d’AB és una suma de múltiples de les columnes d’A.
(c) Cada columna d’AB és el producte d’A per una columna de B.
(d) Cada fila d’AB és el producte d’una fila d’A per B.
2

5. Sigui A = (aij )m×n una matriu. La matriu n × m que té com a files les
columnes d’A (o, el que és el mateix, com a columnes les files d’A) és la
matriu transposada d’A, denotada per At . És a dir,

At = (bji )n×m ,

essent bji = aij .

Proposició 2.4
Sigui A = (aij )m×n una matriu. Llavors
CAPÍTOL 2. VECTORS I MATRIUS 13

t
(a) (At ) = A.
(b) (AB)t = B t At .

2
   
2 0 2 1
Exemple 11: La transposada d’A = és At = .
1 3 0 3
La transposada de la matriu identitat In és la mateixa matriu In . ♠

6. Sigui A una matriu d’ordre n. Si existeix una matriu d’ordre n, B, tal


que AB = BA = I llavors A és inversible i B és la seva inversa.

Comentaris
I. La inversa d’A, si existeix, és única i es denota per A−1 .
II. El producte de matrius inversibles d’ordre n és una matriu inversible
d’ordre n.
III. No tota matriu és inversible. F
Capı́tol 3

Resolució de sistemes
d’equacions lineals

3.1 Equacions lineals. Sistemes


Tots sabem que la solució d’una equació lineal del tipus ax = b (a 6= 0) és x = ab .
Si és una equació amb dues incògnites, ax + by = c, podem donar un valor a x
i obtenir el d’y. Igualment es pot fer amb n incògnites: a1 x1 + · · · + an xn = b.
El que és més complicat és quan ens trobam a la vegada amb m equacions d’n
incògnites: un sistema d’equacions lineals. En aquest capı́tol introduı̈rem els
sistemes lineals i donarem un mètode intuı̈tiu per resoldre’ls.

Definició 3.1
Una expressió de la forma

a1 x1 + a2 x2 + · · · + an xn = b, (3.1)

essent a1 , a2 , . . . , an , b ∈ IR i x1 , x2 , . . . , xn incògnites, és una equació lineal


sobre IR. Els escalars a1 , a2 , . . . , an són els coeficients de l’equació i b el terme
independent. 
k1
Un vector  ...  ∈ IRn és una solució de (3.1) si
 

kn
a1 k1 + · · · + an kn = b.

2
Considerem ara un sistema d’m equacions lineals amb n incògnites:

a11 x1 + a12 x2 + · · · + a1n xn = b1 

a21 x1 + a22 x2 + · · · + a2n xn = b2 

.. . (3.2)
. 


am1 x1 + am2 x2 + · · · + amn xn = bm

Tenim com a dades la matriu de coeficients del sistema A = (aij )m×n i el


vector de termes independents b = (bi )m . El problema consisteix en trobar un

14
CAPÍTOL 3. RESOLUCIÓ DE SISTEMES D’EQUACIONS LINEALS 15

vector x = (xi )n ∈ IRn que verifiqui el sistema (3.2); és a dir, totes i cada una
de les equacions del sistema. Utilitzant una notació més simplificada, el sistema
es pot reescriure com

Ax = b. (3.3)

Definició 3.2
El sistema (3.3) és homogeni si b = (0). 2

3.2 La geometria dels sistemes d’equacions li-


neals
Mitjançant l’exemple 12 estudiarem el significat dels sistemes d’equacions. Pri-
mer, emperò, una definció.

Definició 3.3
Donats v1 , . . . , vp ∈ IRn i λ1 , . . . , λp ∈ IR, el vector d’IRn λ1 v1 + · · · + λp vp és
una combinació lineal de v1 , . . . , vp .
Denotarem per hv1 , . . . , vp i el conjunt de les combinacions lineals dels vectors
v1 , . . . , vp . És a dir,

hv1 , . . . , vp i = {λ1 v1 + · · · + λp vp : λ1 , . . . , λp ∈ IR}.

El conjunt hv1 , . . . , vp i és el subespai generat pels vectors v1 , . . . , vp . 2

Exemple 12: Considerem el sistema d’equacions en IR2



2x − y = 1
. (3.4)
x+y = 5

Tenim dues maneres d’interpretar aquest sistema:


1. Sabem que cada equació representa una recta en el pla. El punt (si existeix)
que satisfà les dues equacions és el punt d’intersecció de les rectes.
2. El sistema (3.4) es pot escriure com una única equació vectorial:
     
2 −1 1
x +y = .
1 1 5

Aixı́, el problema
 (3.4)
 és equivalent
 a trobar la combinació
 lineal adequada
2 −1 1
als vectors i que produeix el vector .
1 1 5

Generalitzant, observam que tenim dues interpretacions possibles dels sistemes


d’equacions lineals en IRn . La primera, la part geomètrica, es mira per files:
trobar la intersecció d’n plans. La segona, algebraica, per columnes: expressar
b com a combinació lineal dels vectors columna de la matriu A en el sistema
Ax = b.
CAPÍTOL 3. RESOLUCIÓ DE SISTEMES D’EQUACIONS LINEALS 16

3.3 Sistemes singulars


En la resolució de sistemes lineals ens podem trobar casos en què no hi hagi
solució. És en aquests casos quan ens trobam amb un sistema singular. Per
exemple, en IR2 no sempre existeix la intersecció de dues rectes: es pot donar el
cas de què siguin paral·leles. Aquest és l’únic cas singular en el pla. En canvi,
en IR3 en tenim varis, que enumeram tot seguit:
• Dos dels plans són paral·lels i l’altre els talla.
• Els tres plans formen un prisma triangular buit.

• Els plans són paral·lels.


• Dos plans són iguals i l’altre és paral·lel.

3.4 El mètode de Gauss


El mètode de Gauss s’utilitza per resoldre sistemes d’equacions. És un sistema
senzill i intuı̈tiu. En aquest apartat en farem l’explicació amb l’ajut d’un exem-
ple.
Considerem el sistema

2x + y + z = 5 
4x − 6y = −2 . (3.5)
−2x + 7y + 2z = 9

El que hom faria de manera natural seria el següent:

1. Isolar la primera incògnita de la primera equació i substituir-la en les


restants.
2. Isolar la segona incògnita de la segona equació i substituir-la en la tercera
i següents (si n’hi hagués).

3. Repetir el procediment per a la resta d’incògnites (si n’hi hagués).


4. Resoldre el sistema fàcilment cap endarrere.
Apliquem-ho al nostre sistema:
5−y−z
1. De la primer equació s’obté x = 2 .
Substituint, el sistema queda

2x + y + z = 5 
− 8y − 2z = −12 .
8y + 3z = 14

12−2z
2. De la segona equació, y = 8 . Aixı́, el sistema queda

2x + y + z = 5 
− 8y − 2z = −12 .
z = 2

CAPÍTOL 3. RESOLUCIÓ DE SISTEMES D’EQUACIONS LINEALS 17

3. El sistema es resol ara cap endarrere: de la tercera equació s’obté z = 2.


Substituint a la segona obtenim y = 1. Finalment, de la primera, x = 1.
El sistema està ara resolt.

El que farem ara és reescriure el procediment d’una manera diferent. Primer de
tot, posam el sistema en forma matricial, donant nom a les files:
 
L1 2 1 1 5
L2  4 −6 0 −2  . (3.6)

L3 −2 7 2 9

En el primer apartat hem substituı̈t x a la segona i tercera equacions. Això vol


dir que les posicions 21 i 31 de la matriu han de ser 0. Per a la segona fila feim

L01 = L1
 
2 1 1 5
L02 = L2 − 2L1  0 −8 −2 −12  . (3.7)
L03 = L3

−2 7 2 9

Per a la tercera,

L001 = L01
 
2 1 1 5
L002 = L02  0 −8 −2 −12  . (3.8)
L003 = L01 + L03 0 8 3 14

Observem que el sistema corresponent a aquesta matriu és el sistema obtengut


després del primer pas realitzat abans. Per al segon pas, el que hem de fer és
anul·lar la posició 32 de la matriu:

L000 00
 
1 = L1 2 1 1 5
L000
2 = L2
00  0 −8 −2 −12  . (3.9)
000 00 00

L3 = L2 + L3 0 0 1 2

Ara, per obtenir la solució del sistema, basta amb resoldre cap endarrere.

Comentaris
I. El mètode de Gauss transforma el sistema Ax = b en un nou sistema
U x = b0 , essent U una matriu triangular superior (amb zeros per davall
de la diagonal).
II. Per obtenir zeros a la columna i-èssima és fonamental que el terme que
ocupa la posició ii —anomenat pivot— sigui no nul. En cas contrari, es
poden intercanviar la columna i-èssima i una columna j-èssima, sempre
que j > i i, evidentment, que el terme que ocupa la posició ij (el nou
candidat a pivot) sigui no nul.
III. Com hem vist anteriorment, els sistemes lineals no sempre tenen solució
(sistemes singulars). Més endavant veurem com saber si un sistema té
solució o no. F
Tot seguit farem la representació matricial de les operacions del mètode de
Gauss.
CAPÍTOL 3. RESOLUCIÓ DE SISTEMES D’EQUACIONS LINEALS 18

Hem descrit el pas de (3.6) a (3.7) com

L01 = L1
L02 = L2 − 2L1
L03 = L3 .

Això ho podem posar de manera matricial:


 
1 0 0
E1 =  −2 1 0  .
0 0 1
 
2 1 1
Si posam A =  4 −6 0  i feim el producte E1 A llavors obtenim
−2 7 2
 
2 1 1
A1 =  0 −8 −2  ,
−2 7 2

que es correspon amb (3.7). Ara, per passar de (3.7) a (3.8), hem fet

L001 = L01
L002 = L02
L003 = L01 + L03 .

Això ho podem posar en forma de matriu:


 
1 0 0
E2 =  0 1 0  .
1 0 1

Multiplicant-la per A1 , obtenim


 
2 1 1
A2 =  0 −8 −2  .
0 8 3

Finalment, al darrer pas hem fet

L000
1 = L1
00

L000
2 = L00
2
L000
3 = L00 00
2 + L3 .

En forma de matriu:
 
1 0 0
E3 =  0 1 0  .
0 1 1

Multiplicant per A2 s’obté


 
2 1 1
A3 =  0 −8 −2  .
0 0 1
CAPÍTOL 3. RESOLUCIÓ DE SISTEMES D’EQUACIONS LINEALS 19

Resumint les operacions anteriors, podem escriure

E3 E2 E1 A = U. (3.10)

Aixı́, el sistema Ax = b es transforma en

E3 E2 E1 Ax = E3 E2 E1 b,
 
5
i E3 E2 E1 b =  −12 . Aquest sistema coincideix amb l’obtingut a (3.9).
2

3.5 La descomposició en LU
A partir de l’equació (3.10) s’extreu

E1−1 E1−2 E1−3 E3 E2 E1 A = A = E1−1 E1−2 E1−3 U.

Si definim L = E1−1 E1−2 E1−3 llavors podem posar

A = LU. (3.11)

Per calcular la inversa d’E1 partim de

L01 = L1
L02 = L2 − 2L1
L03 = L3

per obtenir

L1 = L01
L2 = 2L01 + L02
L3 = L03 .

En forma de matriu,
 
1 0 0
E1−1 =  2 1 0 .
0 0 1

De manera semblant,
   
1 0 0 1 0 0
E2−1 =  0 1 0 , E3−1 = 0 1 0 .
−1 0 1 0 −1 1

La matriu L resultant és


 
1 0 0
L= 2 1 0 .
−1 −1 1

Les inverses d’E1 , E2 , E3 es poden calcular d’una manera més senzilla, en-
cara. De fet, la inversa d’Ei s’obté canviant de signe els elements que hi ha per
davall de la diagonal d’Ei .
CAPÍTOL 3. RESOLUCIÓ DE SISTEMES D’EQUACIONS LINEALS 20

La matriu L és una matriu triangular inferior amb uns a la diagonal.


La descomposició en LU ens tranforma el sistema Ax = b en el sistema
U x = b0 , essent b0 = L−1 b. Per calcular b0 , emperò, no és necessari invertir L.
Basta amb resoldre cap endavant el sistema Lb0 = b. Per tant, resoldre Ax = b
es transforma en resoldre
Lb0 = b

,
U x = b0

que són dos sistemes triangulars.

Comentari: Podem posar la matriu U com a producte d’una matriu


diagonal i d’una triangular superior amb uns a la diagonal:

1 12 12
    
2 1 1 2 0 0
U =  0 −8 −2  =  0 −8 0   0 1 41  = D U0 .
0 0 1 0 0 1 0 0 1

La matriu diagonal D té per elements de la diagonal els d’U . A més, la fila
i-èssima d’U0 s’obté dividint la fila i-èssima d’U per uii , per tot i.
Aixı́ podem escriure A = LDU . Aquesta nova descomposició és la de-
scomposició en LDU, essent L una matriu triangular inferior amb uns a la
diagonal, D una matriu diagonal i U una matriu triangular superior amb uns a
la diagonal. F

Exercici Per obtenir els zeros a la columna i-èssima és fonamental que el
terme diagonal corresponent (aii ) sigui no nul. En altre cas, pot ser interessant
intercanviar dues files. Això és el cas, per exemple, per resoldre el sistema

A~x = (a, b, c)t

on
 
1 1 1
A= 2 2 5 .
4 6 8

Observeu que en aquest cas basta intercanviar les files segona i tercera de A,
amb lo qual, existeix una matriu de permutació de files P tal que P A = LU , on
L i U són matrius triangulars superior e inferior.

3.6 Operacions elementals i descomposició LU


Definició 3.4
Les operaciones següents sobre les files d’una matriu es diuen elementals:
(i) intercanviar dues files,
(ii) multiplicar una fila per un escalar no nul,
(iii) sumar a una fila un multiple escalar d’una altra.
2
CAPÍTOL 3. RESOLUCIÓ DE SISTEMES D’EQUACIONS LINEALS 21

Definició 3.5
Una matriu obtinguda de la matriu identitat mitjançant una operació elemental
es diu una matriu elemental. 2

A cada operació elemental hi ha associada una matriu elemental. Hi ha, doncs,


tres tipus de matrius elementals:
 
1 0 ... ... ... ... ... 0
 0 1 ... ... ... ... ... 0 
 .. .. .. 
 
 . . . 
 .. .. .. 
 
 . . 0 1 . 
 
 . .. .. 
 .. . 1 0 . 
 
 . . .
 .. .. .. 

0 ... ... ... ... ... ... 1

1 0 ··· ··· ···


 
0
 0 1 ··· ··· ··· 0 
.. .. ..
 
 

 . . . 

 .. .. .. 

 . . a . 

 .. .. .. 
 . . . 
0 · ··· ··· 1
0 ··· ··· ··· ··· ···
 
1 0
 0 1 ··· ··· ··· ··· ··· 0 
.. .. ..
 
 
 . . . 
.. .. ..
 
 

 . . 1 0 . 

 .. .. .. 

 . . λ 1 . 

 .. .. .. 
 . . . 
0 ··· ··· ··· ··· ··· ··· 1
Si l’escalar λ està a la entrada k, i, lúltima matriu aplicada a una matriu A
suma a la fila k la fila i multiplicada per λ. Vejau que la seva inversa és

0 ··· ··· ··· ··· ··· 0


 
1
 0 1 ··· ··· ··· ··· ··· 0 
 .. .. .. 
 
 . . . 
 .. .. .. 
 
 . . 1 0 . 
 
 . .. .. 
 .. . −λ 1 . 
 
 . . .. 
 .. .. . 
0 ··· ··· ··· ··· ··· ··· 1

Teorema 3.1
Sigui A una matriu i A0 la matriu obtinguda de A mitjançant una operació
CAPÍTOL 3. RESOLUCIÓ DE SISTEMES D’EQUACIONS LINEALS 22

elemental sobre les files. Llavors

A0 = EA

on E és la matriu elemental que correspon a l’operació mencionada. 2

Definició 3.6
Es diu que una matriu A m × n és esglaonada per files si

(i) les files nul.les, si n’hi ha, són les últimes, siguin aquestes les files r +
1, ..., m,
(ii) si akjk és el primer element no nul de la fila k, 1 ≤ k ≤ r, llavors j1 <
j2 < ... < jr .
2
Teorema 3.2
i) Tota matriu A es pot transformar en una esglaonada per files mitjançant una
sèrie d’operacions elementals sobre les files.
ii) Per a cada matriu A existeix una matriu P , que és producte de matrius
elementals, tal que P A està en forma esglaonada per files. 2

Canviant a les definicions anteriors la paraula ’files’ per la paraula ’columnes’


obtenim les definicions d’operacions elementals per columnes i de forma es-
glaonada per columnes. Efectuar una operació elemental sobre les columnes de
A equival a multiplicar A per la matriu elemental corresponent per la dreta:
A0 = AE. Observeu que una matriu A està esglaonada per columnes si i només
si la seva matriu trasposada At està esglaonada per files.

Teorema 3.3
i) Tota matriu A es pot transformar en una esglaonada per columnes mitjançant
una sèrie d’operacions elementals sobre les columnes.
ii) Per a cada matriu A existeix una matriu Q, que és producte de matrius
elementals, tal que AQ està en forma esglaonada per columnes. 2

3.7 Càlcul de la matriu inversa


Considerem novament la matriu
 
2 1 1
A =  4 −6 0 .
−2 7 2

Anem a calcular la seva inversa B = (bij ). Aquesta matriu ha de complir


l’equació AB = I. És a dir,
    
2 1 1 b11 b12 b13 1 0 0
 4 −6 0   b21 b22 b23  =  0 1 0 .
−2 7 2 b31 b32 b33 0 0 1
CAPÍTOL 3. RESOLUCIÓ DE SISTEMES D’EQUACIONS LINEALS 23

Diguem ej al vector que té un 1 a la posició j-èssima i zeros a la resta. El


sistema anterior es pot reescriure ara com
  
2 1 1 b1j
 4 −6 0   b2j  = ej , j = 1, 2, 3.
−2 7 2 b3j
Per tant, calcular la matriu inversa d’A és equivalent a resoldre tres sistemes
d’equacions. Per això podem utilitzar el mètode de Gauss de manera simultània
per a les tres equacions. Vegem-ho:
 
L1 2 1 1 1 0 0
L2  4 −6 0 0 1 0 
L3 −2 7 2 0 0 1
L01 = L1
 
2 1 1 1 0 0
L02 = −2L1 + L2  0 −8 −2 −2 1 0 
L03 = L1 + L3

0 8 3 1 0 1
L001 = L01
 
2 1 1 1 0 0
L002 = L02  0 −8 −2 −2 1 0 
00 0 0

L3 = L2 + L3 0 0 1 −1 1 1
L00
L000 1 21 12 21
 
1 = 2 0 0
1

L00  0 1 1 1 −1 0  .
L000
2 = −8
2
4 4 8
L000 = L 00 0 0 1 −1 1 1
3 3
Per resoldre cada sistema anam cap endarrere, de manera que anul·lam les
posicions que estan per damunt de la diagonal:
(iv)
L1 = L000 1 12 12 12
 
1 0 0
(iv)  0 1 0 1 −3 −1 
L2 = L000 1 000
2 − 4 L3 2 8 4
L
(iv)
= L000 0 0 1 −1 1 1
3 3
(v) (iv) (iv) (iv)
L1 = L1 − 21 L2 − 12 L3
 3 5 3

1 0 0 14 − 163 − 81

(v) (iv)
L2 = L2  0 1 0
2 −8 −4  .
(v) (iv) 0 0 1 −1 1 1
L3 = L3
Hem acabat. La inversa d’A és
 3 5
− 38

4 − 16
B =  12 − 38 − 14  .
−1 1 1
Observem que el que hem fet és resoldre els sistemes

Ax1 = e1 
Ax2 = e2 .
Ax3 = e3

La matriu les columnes de la qual són x1 , x2 , x3 és la matriu inversa d’A. Aquests
vectors es poden calcular mitjançant la descomposició LU :
Lx0i = ei

, i = 1, 2, 3.
U xi = x0i
Resumim els desenvolupaments anteriors en el Teorema següent.
CAPÍTOL 3. RESOLUCIÓ DE SISTEMES D’EQUACIONS LINEALS 24

Teorema 3.4
Sigui A una matriu quadrada i sigui I la matriu identitat del mateix ordre. La
matriu A és inversible si i només si es pot transformar la matriu (AI) per una
sèrie de transformacions elementals per files en una matriu de la forma (IB).
En aquest cas, B és la inversa de A. 2
Capı́tol 4

Els espais vectorials i els


seus subespais

En resoldre pel mètode de Gauss el sistema



x + 2y − 3z = 6 
2x − y + 4z = 2
4x + 3y − 2z = 14

arribam a

x + 2y − 3z = 6 
− 5y + 10z = −10
0 = 0.

Aquest sistema no ens dóna una solució explı́cita sinó que, per cada valor de z
(per exemple) tenim un valor d’x i un valor d’y. Això ens dóna un conjunt de
solucions. Si tranformam el sistema anterior en

x=2−z
y = 2 + 2z
llavors podem veure que el conjunt de solucions del sistema inicial és
V = {(2 − z, 2 + 2z, z) : z ∈ IR}.
Si posam (2 − z, 2 + 2z, z) = (2, 2, 0) + z(−1, 2, 1) llavors podem escriure
V = (2, 2, 0) + {z(−1, 2, 1) : z ∈ IR} = (2, 2, 0) + h(−1, 2, 1)i,
que és la recta que passa per (2, 2, 0) amb direcció (−1, 2, 1).

4.1 Els subespais vectorials


Hem definit en capı́tols anteriors la noció d’espai vectorial. Tot seguit definim
subespai vectorial.

Definició 4.1
Un subespai V d’un espai vectorial W (normalment serà IRn ) és un subconjunt
no buit de W tal que

25
CAPÍTOL 4. ELS ESPAIS VECTORIALS I ELS SEUS SUBESPAIS 26

1. Si x, y ∈ V llavors x + y ∈ V .
2. Si x ∈ V i λ ∈ IR llavors λx ∈ V .

Comentari: Si V és un subespai de W llavors 0 ∈ V . En efecte, si v ∈ V


llavors, agafant 0 ∈ IR, tenim 0 = 0 · v ∈ V . F

Exemple 13: Vegem uns quants exemples de subespais.

1. W = IR3 i V = {0}.
2. W = IR3 i V una recta que passa per 0.
3. W = IR3 i V un pla que passa per 0.
4. W = IR3 i V = IR3 .

5. W = IRn i, donats v1 , . . . , vp ∈ IRn ,

V = hv1 , . . . , vp i = {λ1 v1 + · · · + λp vp : λ1 , . . . , λp ∈ IR}.

Els exemples que més ens interessen estan lligats a la geometria dels sistemes
lineals d’equacions. Són la imatge i el nucli d’una matriu.

4.2 El nucli d’A


Proposició 4.1
Els vectors x ∈ IRn que compleixen el sistema Ax = 0 formen un subespai d’IRn
anomenat nucli d’A. El denotarem per Ker A:

Ker A = {x ∈ IRn : Ax = 0}.

Prova. Si x1 , x2 són solucions d’Ax = 0 llavors

A(x1 + x2 ) = Ax1 + Ax2 = 0 + 0 = 0.

Siguin x ∈ Ker A i λ ∈ IRn . Llavors,

A(λx) = λAx = λ · 0 = 0.
CAPÍTOL 4. ELS ESPAIS VECTORIALS I ELS SEUS SUBESPAIS 27

Proposició 4.2
Tota solució x1 de l’equació Ax = b és la suma d’una solució particular d’Ax = b
i d’un vector de Ker A. 2

Prova. Sigui x0 una solució d’Ax = b. Diguem y = x1 − x0 . Llavors


Ay = A(x1 − x0 ) = Ax1 − Ax0 = b − b = 0.
Per tant, x1 és suma d’x0 , solució d’Ax = b, i y ∈ Ker A.

Comentari: Podem reescriure el conjunt de solucions d’Ax = b com


x0 + Ker A.
F

4.3 Càlcul del nucli d’A


Tot seguit veurem, amb un exemple, com calcular el nucli d’una matriu.
Considerem el sistema d’equacions

x + 3y + 3z + 2u = 0 
2x + 6y + 9z + 5u = 0
−x − 3y + 3z = 0

Les solucions d’aquest sistema constitueixen el nucli de la matriu. Reescrivim


el sistema:
 
L1 1 3 3 2 0
L2  2 6 9 5 0  .
L3 −1 −3 3 0 0
Intentam transformar la matriu en una de triangular superior:
L01 = L1
 
1 3 3 2 0
L02 = −2L1 + L2  0 0 3 1 0  ,
L03 = L1 + L3 0 0 6 2 0
L001 = L01
 
1 3 3 2 0
L002 = L02  0 0 3 1 0  .
L003 = −2L02 + L03 0 0 0 0 0
En forma de sistema,

x + 3y + 3z + 2u = 0
3z + u = 0,
sistema que podem posar com

x = −3y − u
z = − u3 .
A partir de la matriu A hem construı̈t una nova matriu U aplicant el procés
d’eliminació gaussiana. Aquesta nova matriu (utilitzant transformacions ele-
mentals, si cal) compleix les següents propietats:
CAPÍTOL 4. ELS ESPAIS VECTORIALS I ELS SEUS SUBESPAIS 28

• Les files nul·les ocupen les darreres posicions.


• El primer element no nul de cada fila no nul·la s’anomena pivot.
• Davall de cada pivot hi ha una columna de zeros.
• El pivot de la fila i-èssima apareix en una columna que està a la dreta del
pivot de la fila i − 1-èssima (tenim un patró en escala).
Les variables bàsiques són les associades a un pivot. Les altres variables són
les lliures. El nombre de pivots és el rang de la matriu A.
En el nostre exemple tenim dues variables com a pivots, x i z, i dues lliures,
y i u. Aixı́, per cada valor que donem a y i a u obtendrem un valor per a x i un
per a z i, per tant, un vector solució del sistema. Per això,
 
−3y − u
y
n  o
Ker A =  : y, u ∈ I
R =
− u3

 
u
   
−3 −1
 + u  10  : y, u ∈ IR =
n  1    o
= y
 0   − 
3
0 1
   
−3 −1
D 1   0 E
=  0  ,  −1  .
   
3
0 1
Resumint, el càlcul de Ker A es resumeix en
1. Transformar Ax = 0 en U x = 0 per eliminació gaussiana i identificar les
variables bàsiques i les lliures.
2. Fixar les variables lliures i eliminar les variables bàsiques en funció d’aques-
tes per tal d’obtenir un sistema generador de Ker A.

Comentaris
I. Per obtenir el sistema generador basta amb fixar una de les variables lliures
a 1 i les altres a 0, repetint el procediment per a cada una de les varibales
lliures.
II. Tenim Ker A = {x : Ax = 0} = {x : U x = 0} = Ker U . F

Proposició 4.3
Sigui A una matriu m × n. Considerem el sistema Ax = 0. Suposem que hi ha
més incògnites que equacions (és a dir, n > m). Llavors, existeix una solució
x 6= 0 d’Ax = 0.
En canvi, si no hi ha variables lliures (n = r) llavors Ker A = {0}. 2

Prova. Sigui r el rang d’A. Evidentment, r ≤ m. El nombre de variables


lliures és n − r ≥ n − m ≥ 0, pel que hi ha almenys n − m variables lliures. Com
CAPÍTOL 4. ELS ESPAIS VECTORIALS I ELS SEUS SUBESPAIS 29

que cada variable lliure pot prendre qualsevol valor podem construir solucions
no nul·les d’Ax = 0.
Si n = r llavors el sistema U x = 0 és triangular superior i la seva única
solució és el vector 0.

4.4 La imatge d’A


Definició 4.2
El conjunt de vectors per als quals hi ha almenys una solució d’Ax = b és la
imatge d’A, designat per Im A:

Im A = {b ∈ IRm : ∃x ∈ IRn |Ax = b}.

O, simplement, Im A = {Ax : x ∈ IRn }. 2


Volem saber qui és Im A. És a dir, per quins vectors b ∈ IRm existeix una
solució d’Ax = b.

Proposició 4.4
La imatge d’A és un subespai d’IRn . 2

Prova. Donats y1 , y2 ∈ Im A, existeixen dos vectors x1 , x2 ∈ IRn tals que


Ax1 = y1 i Ax2 = y2 . Aixı́,

y1 + y2 = Ax1 + Ax2 = A(x1 + x2 ) ∈ Im A.

Sigui y ∈ Im A. Siguin x ∈ IRn tal que Ax = y i λ ∈ IR. Llavors,

λy = λAx = A(λx) ∈ Im A.

Hem vist a capı́tols anteriors que Ax = b té solució si i només si b és combi-
nació lineal de les columnes d’A. Per això tenim la següent proposició.

Proposició 4.5
La imatge d’A és el subespai d’IRm generat pels vectors columna d’A. És a dir,
Ax = b admet una solució si i només si b està en el subespai generat pels vectors
columna d’A. 2

Exemple 14: La imatge del sistema


   
1 0   b1
 5 4  u
=  b2 
v
2 4 b3
   
1 0
és el subespai generat pels vectors  5  i  4 , que és un pla. ♠
2 4
CAPÍTOL 4. ELS ESPAIS VECTORIALS I ELS SEUS SUBESPAIS 30

4.5 Càlcul de la imatge d’A


El càlcul de la imatge d’una matriu A el veurem mitjançant un exemple.
Anem a veure per a quins valors (bi )3 existeix una solució de

x + 3y + 3z + 2u = b1 
2x + 6y + 9z + 5u = b2
−x − 3y + 3z = b3 .

Aplicant el mètode de Gauss arribam al sistema


 
1 3 3 2 b1
 0 0 3 1 b2 − 2b1 .
0 0 0 0 5b1 − 2b2 + b3
En general, una vegada aplicat el mètode de Gauss, s’arriba a una matriu
de la forma

?
E1 (b1 , . . . , bm )

 0 ?
E2 (b1 , . . . , bm ) 

 ..
..

 0 0
 .
.


 .. .. ..
Er (b1 , . . . , bm )

,
 . . . ? 

 0 0 Er+1 (b1 , . . . , bm )
... 0 0 ... 0



 . . .. .. .. .. 
 .. .. . . .

. 
Em (b1 , . . . , bm )
0 0 ... 0 0 ... 0
essent ? coeficients corresponents als pivots. El sistema admet solució si (bi )n
compleix

Er+1 (b1 , . . . , bm ) = 0 

.. .
. 
Em (b1 , . . . , bm ) = 0

Per tant,
Im A = {(bi )m : Ei (b1 , . . . , bm ) = 0, i = r + 1, . . . , m} .
En particular, si r = m no hi ha condicions, pel que Im A = IRn .

El sistema del nostre exemple té solució si i només si 5b1 − 2b2 + b3 = 0.


En aquest cas el resolem: les variables x, z són bàsiques i y, u són lliures. Les
solucions venen donades per
       
x 3b1 − b2 −3 −1
n y   0   1   0  o
 z  =  b2 −2b1  + y  0  + u  − 1  : y, u ∈ IR
       
3 3
u 0 0 1
que, com sabem, podem escriure
 
3b1 − b2
 0
 b −2b

 + Ker A.
 2 1 
3
0
CAPÍTOL 4. ELS ESPAIS VECTORIALS I ELS SEUS SUBESPAIS 31

I la imatge d’A és


Im A = {(bi )3 : 5b1 − 2b2 + b3 = 0} =
= {b : hb, (5, −2, 1)i = 0} = h(5, −2, 1)i⊥ .
Un sistema de generadors d’Im A ve donat pel conjunt de les combinacions
lineals dels vectors columna d’A corresponents als pivots. En el nostre cas,
   
D 1 3 E
Im A =  2  ,  9  .
−1 3
La demostració d’aquest fet la veurem al capı́tol següent.

4.6 Independència lineal. Bases. Dimensió


Definició 4.3
Un sistema de vectors v1 , . . . , vp ∈ IRn és linealment independent si no
podem posar-ne un d’ells com a combinació lineal dels altres. Altrament, el
sistema és linealment dependent. 2

Comentari: Els vectors v1 , . . . , vp ∈ IRn són independents si tota combi-


nació lineal nul·la d’ells té tots els coeficients nuls. És a dir, si
c1 v1 + · · · + cp vp = 0
llavors c1 = · · · = cp = 0. Això es dedueix de què si el coeficient ci no és nul
llavors podem eliminar-lo per tal d’isolar el vector vi i posar-lo com a combinació
lineal dels altres. F

Exemple 15: En IR3 , dos vectors són dependents si i només si estan sobre la
mateixa recta; tres vectors són dependents si i només si estan sobre el mateix
pla. Altrament són independents. ♠
L’estudi de la independència lineal d’un sistema de vectors condueix a la
resolució d’un sistema homogeni.

Exemple 16: Considerem els vectors


     
3 4 2
v1 =  0  , v2 =  1  , v3 =  5  .
0 0 2

Aquests tres vectors són dependents si i només si existeixen (c1 , c2 , c3 ) 6= (0, 0, 0)


tals que c1 v1 + c2 v2 + c3 v3 = 0. És a dir,
       
3 4 2 0
c1  0  + c2  1  + c3  5  =  0  .
0 0 2 0

És fàcil veure que c1 = c2 = c3 = 0 és l’única solució (el sistema és triangular);
per tant, els vectors són linealment independents. ♠
CAPÍTOL 4. ELS ESPAIS VECTORIALS I ELS SEUS SUBESPAIS 32

Teorema 4.1
Si n > m, un conjunt d’n vectors en IRm és dependent. 2

Prova. Siguin v1 , . . . , vn vectors d’IRm . Siguin c1 , . . . , cn ∈ IR tals que


c1 v1 + · · · + cn vn = 0. Aquesta equació representa un sistema d’m equacions
amb n incògnites. Com que n > m sabem que existeix una solució no nul·la.
Per tant, els vectors són dependents.

Definició 4.4
Una base d’un espai vectorial V és un conjunt de vectors v1 , . . . , vn que

1. Generen l’espai vectorial.


2. Són linealment independents.
2

Comentaris
I. Per cada v ∈ V existeixen uns únics escalars c1 , . . . , cn que compleixen

v = c 1 v1 + · · · + c n vn :

L’existència la tenim per ser la base un conjunt de generadors. Per veure


la unicitat, suposem que v = d1 v1 + · · · + dn vn ; d1 , . . . , dn ∈ IR. Llavors,

0 = v − v = (c1 − d1 )v1 + · · · + (cn − dn )vn .

Però els vectors v1 , . . . , vn són linealment independents; per tant, c1 −d1 =


· · · = cn − dn = 0. Aixı́, c1 = d1 , . . . , cn = dn .
II. Anem a veure com podem saber si un conjunt de vectors v1 , . . . , vp genera
IRn .
Sigui b = (bi )n . Hem de resoldre el sistema

c1 v1 + · · · + cp vp = b.
 
v1i
Posant vi =  ...  per cada i obtenim el sistema
 

vni

v11 c1 + · · · + v1p cp = b1 

.. .
. 
vn1 c1 + · · · + vnp cp = bn

Si aquest sistema té solució per tot b ∈ IRn llavors els vectors v1 , . . . , vp
generen IRn .
CAPÍTOL 4. ELS ESPAIS VECTORIALS I ELS SEUS SUBESPAIS 33

III. Vegem ara com saber si un conjunt de vectors v1 , . . . , vp és linealment


independent.
Plantejam el sistema d’equacions

v11 c1 + · · · + v1p cp = 0 

.. ,
. 
vn1 c1 + · · · + vnp cp = 0

que correspon a l’equació vectorial c1 v1 + · · · + cp vp = 0. Per veure la


independència lineal dels vectors hem de veure que l’única solució del
sistema és c1 = · · · = cp = 0. F

Proposició 4.6
Si v1 , . . . , vp generen IRn llavors p ≥ n. 2

Prova. Suposem que p < n. El sistema anterior es pot resoldre per eliminació
gaussiana, arribant a una matriu de la forma

?
E1 (b1 , . . . , bn )

 0 ?
E2 (b1 , . . . , bn ) 

 . .

..

 0 0
 .
.


 .. .. . . 
 . . . ?

E (b
p 1 , . . . , b n ) .

 0 0 . . . 0 0 . . . 0 Ep+1 (b1 , . . . , bn ) 



 . . . . . .. 
 .. .. .. .. ..
. 
En (b1 , . . . , bn )
0 0 ... 0 0 ... 0

Un element b = (bi )n pertany a la imatge de la matriu si i només si

Ep+1 (b) = 0, . . . , En (b) = 0.

Però això no inclou tots els elements d’IRn . Per tant, v1 , . . . , vp no generen IRn .
Una contradicció.

Proposició 4.7
Si v1 , . . . , vp és un sistema linealment independent llavors p ≤ n. 2

Prova. Si p > n llavors el sistema té més incògnites que equacions, i hem
demostrat que, en aquest cas, existeix una solució no nul·la. Per tant, els vectors
són dependents. Una contradicció.

Proposició 4.8
Tota base d’IRn té exactament n vectors. 2

Prova. És conseqüència immediata de les dues proposicions anteriors.


CAPÍTOL 4. ELS ESPAIS VECTORIALS I ELS SEUS SUBESPAIS 34

Teorema 4.2
Sigui V un espai vectorial. Si v1 , . . . , vm i w1 , . . . , wn són dues bases de V llavors
m = n. 2

Prova. Suposem que m < n. Com que v1 , . . . , vm formen una base de V ,


cada wi és combinació lineal dels vj . Per tant, podem escriure

c11 v1 + · · · + c1m vm = w1  
.. .
. 
cn1 v1 + · · · + cnm vm = wn

Sigui W la matriu les columnes de la qual són els vectors wi . Diguem C =


(cij )m×n i sigui B la matriu les columnes de la qual són els vectors vj . El sistema
anterior es pot reescriure com W = BC. Com que m < n, existeix una solució
no nul·la X del sistema homogeni CX = 0. D’aquı́, W X = BCX = B 0 = 0, el
que implica que els wi són dependents. Una contradicció.
Aplicant el mateix raonament es demostra que n ≥ m. Per tant, n = m.

Definició 4.5
La dimensió d’un espai vectorial V és el nombre de vectors d’una de les seves
bases. Es denota per dim V . 2

Comentaris
I. La dimensió de V és el nombre mı́nim de vectors necessaris per poder
generar V .
II. La dimensió de V és el nombre màxim de vectors independents que podem
trobar a V . F

Teorema 4.3
Sigui V un espai vectorial de dimensió n.
1. Siguin v1 , . . . , vp vectors linealments independents. Si p < n llavors exis-
teixen n − p vectors vp+1 , . . . , vn tals que v1 , . . . , vn formen una base.
2. Siguin v1 , . . . , vn vectors que generen V . Si p > n llavors podem eliminar
p − n vectors de manera que la resta formen una base.
3. Qualssevol n vectors de V independents formen una base de V .
4. Qualssevol n vectors que generen V formen una base de V .
2

Prova.
1. Com que v1 , . . . , vp no generen V , existeix un vector vp+1 ∈ V que no és
combinació lineal de v1 , . . . , vp ; a més, v1 , . . . , vp , vp+1 són linealment in-
dependents. Podem seguir afegint vectors fins arribar a tenir-ne n i després
aplicar la proposició 4.7.
CAPÍTOL 4. ELS ESPAIS VECTORIALS I ELS SEUS SUBESPAIS 35

2. Com que p > n, existeix un vector que es pot posar com a combinació lineal
dels altres. Aquest vector es pot llevar, ja que els demés vectors ja són
generadors. Aixı́ podem anar llevant vectors fins a tenir-ne n i aplicar
aplicar la proposició 4.6.
3. i 4. Veurem la demostració més endavant, en el corol·lari (4.1).

4.7 Els quatre subespais fonamentals


Com hem vist en capı́tols anteriors, la transposada d’una matriu A = (aij )
d’ordre n és la matriu At = (aji ). En aquest apartat, estudiarem la dimensió i
les bases del nucli i de la imatge d’una matriu A i de la seva transposada.

4.7.1 La imatge d’At


El subespai Im At = {At y : y ∈ IRm } és l’espai de les columnes d’At , que és
igual a l’espai de les files d’A.
Per calcular Im At aplicam el mètode de l’eliminació gaussiana a A, arribant
a una matriu U triangular superior amb les darreres m − r files nul·les, essent
r el rang d’A. Les files d’U són combinacions lineals de les files d’A. A més,
podem recuperar les files d’A a partir de les d’U . Per tant, l’espai generat per
les files d’A coincideix amb l’espai generat per les files d’U . Les r primeres files
d’U generen Im At .
Resumim tots aquests fets en una proposició.

Proposició 4.9
L’espai de les files d’A Im At té dimensió r i coincideix amb Im U . Les files no
nul·les d’U en són una base. 2

Exemple 17: L’eliminació gaussiana aplicada a


 
1 3 3 2
A= 2 6 9 5 
−1 −3 3 0

dóna com a resultat


 
1 3 3 2
U = 0 0 3 1 .
0 0 0 0

Per tant, els vectors


   
1 0
 3   0 
 , 
 3   3 
2 1

formen una base d’Im At . ♠


CAPÍTOL 4. ELS ESPAIS VECTORIALS I ELS SEUS SUBESPAIS 36

4.7.2 El nucli d’A


Amb la següent proposició veurem una manera de generar el nucli d’A.

Proposició 4.10
Sigui r el rang d’A. Llavors, dim Ker A = n − r. 2

Prova. Construı̈rem una base de Ker A i veurem que té n − r elements, el


que ens demostrarà la proposició.
Per comoditat, suposem que, en el procés d’eliminació gaussiana d’Ax = 0,
els pivots ocupen les r primeres posicions de la diagonal d’U . Aixı́, com que
les variables xr+1 , . . . , xn són lliures, podem donar-lis valors. Donam primer els
valors xr+1 = 1, xr+2 = · · · = xn = 0. Calculant les altres variables amb la
matriu U obtenim un vector wr+1 .
Posant ara xr+2 = 1, xr+1 = xr+3 = · · · = xn = 0 i resolent obtenim un
altre vector wr+2 . Repetint el raonament generam n − r vectors de Ker A que
són linealment independents: wr+1 , . . . , wn .
Vegem ara que aquests vectors generen Ker A. Sigui x ∈ Ker A,
 
x1
 .. 
 . 
 
 xr 
x=  .
 xr+1 

 . 
 .. 
xn

Sigui y = x − xr+1 wr+1 − · · · − xn wn ∈ Ker A. Llavors, yr+1 = · · · = yn = 0.


L’equació U y = 0 s’escriu

u11 y1 + u12 y2 + · · · + u1r yr = 0  
u22 y2 + · · · + u2r yr = 0 

.. .. .. .. ,
. . . .  

urr yr = 0

el que dóna com a solució y1 = · · · = yr = 0. Llavors, y = 0, el que implica que


x = xr+1 wr+1 + · · · + xn wn i, per tant, que wr+1 , . . . , wn generen Ker A.

4.7.3 La imatge d’A


Hem vist que els nuclis d’A i d’U coincideixen, com també coincideixen les
imatges de les seves transposades. Malauradament, això no ocorre amb les
imatges. És a dir, en general, Im A 6= Im U . Vegem-ne un exemple.

Exemple 18: Sigui


 
1 3 3 2
A= 2 6 9 5 
−1 −3 3 0
CAPÍTOL 4. ELS ESPAIS VECTORIALS I ELS SEUS SUBESPAIS 37

la matriu que hem usat abans i sigui


 
1 3 3 2
U = 0 0 3 1 
0 0 0 0

la matriu que resulta en aplicar-li el mètode de Gauss. Les imatges d’aquestes


dues matrius venen donades per
 
x1 + 3x2 + 3x3 + 2x4
Ax =  2x1 + 6x2 + 9x3 + 5x4 
−x1 − 3x2 + 3x3

i
 
x1 + 3x2 + 3x3 + 2x4
Ux =  3x3 + x4 .
0

Observem la darrera fila de cada matriu. Mentre la d’U és nul·la, la d’A no té
perquè ser-ho sempre. Per tant, les imatges difereixen. ♠
Sabem que Im U està generada per les columnes d’U que contenen els pivots.
També Im A està generada per les columnes d’A associades als pivots d’U , com
veim tot seguit.

Proposició 4.11
Si un conjunt de columnes d’A és independent llavors també ho és el conjunt
corresponent de columnes d’U ; i viceversa. 2

Prova. La dependència de certes columnes d’A es tradueix en l’existència


d’un vector x ∈ IRn no nul tal que Ax = 0. Com que Ax = 0 si i només si
U x = 0, aquesta relació es tradueix en la dependència lineal del mateix conjunt
de columnes d’U .

Com que tenim r columnes independents en U , en tenim r en A. Per tant,


dim Im A = r. Ho resumim en el següent teorema.

Teorema 4.4
1. El nombre de columnes independents d’A és el mateix que el d’At . És a
dir,

dim Im A = dim Im At = r.

2. Una base d’Im A està formada per les r columnes d’A corresponents a les
posicions dels pivots d’U .
2
Corol·lari 4.1
Sigui V un espai vectorial de dimensió n. Siguin v1 , . . . , vn vectors de V . Llavors
els vectors són linealment independents si i només si generen V . 2
CAPÍTOL 4. ELS ESPAIS VECTORIALS I ELS SEUS SUBESPAIS 38

Prova.
⇒c Sigui A la matriu les columnes de la qual són v1 , . . . , vn . Els vectors són
linealment independents si i només si Ker A = {0}. Si això passa, llavors
0 = dim Ker A = n − r, pel que dim Im A = n. Això vol dir que Im A = V .
Per tant, els vectors generen V i són base.
⇐c Per altra banda, els vectors generen V si i només si dim Im A = n. En tal
cas, n − r = dim Ker A = 0, pel que Ker A = {0}. Aixı́, els vectors són
linealment independents.

4.7.4 El nucli d’At


Sigui A una matriu m × n. Hem vist que dim Im A = r i que dim Ker A = n − r.
Per tant,

dim Im A + dim Ker A = n.

Si aplicam aquesta mateixa relació a At , que és n × m, llavors

dim Im At + dim Ker At = m.

Com que dim Im At = r, podem escriure el següent teorema.

Teorema 4.5
La dimensió del nucli d’At és

dim Ker At = m − r.

A més, una base d’aquest subespai s’obté resolent At y = 0, o bé a partir de les
darreres m − r files d’L−1 , si L és la matriu triangular inferior que resulta de la
descomposició LU d’A. 2
Capı́tol 5

Determinants
Definició 5.1
El determinant és una funció que associa a cada matriu real A = (aij )n×n un
escalar, denotat per |A| o det A, que compleix les següents propietats:
1. Si A és una matriu 1 × 1 llavors det A = a11 .

2. Si A és d’ordre n > 1 llavors


n
1 X
det A = aij (−1)i+j Mij ,
n i,j=1

essent Mij el determinant de la matriu (n−1)×(n−1) obtenguda suprimint


d’A la fila i i la columna j.
L’escalar Mij reb el nom de menor associat a aij i Aij = (−1)i+j Mij és
l’adjunt associat a aij . Per tant,
n
1 X
det A = aij Aij .
n i,j=1

Exemple 19: Sigui


 
a11 a12
A= .
a21 a22

Llavors,
1
a11 (−1)1+1 a22 + a12 (−1)1+2 a21 + a21 (−1)2+1 a12 + a22 (−1)2+2 a11 =

2
1
= (a11 a22 − a12 a21 − a21 a12 + a22 a11 ) =
2
= a11 a22 − a12 a21 .

39
CAPÍTOL 5. DETERMINANTS 40

Si A = (aij )n llavors el determinant d’A es denota per



a11 a12 . . . a1n

a21 a22 . . . a2n
.. .

.. .. ..
.
. . .
an1 an2 . . . ann

També es pot denotar per


 
a1∗
 a2∗ 
det  . 
 
 .. 
an∗

si ai∗ és la fila i-èssima d’A; o per

det (a∗1 , a∗2 , . . . , a∗n )

si a∗i és la columna i-èssima d’A.

5.1 Propietats del determinant


Proposició 5.1
Sigui A = (aij ) una matriu d’ordre n. Llavors:
1. Per tot λ ∈ IR tenim

a1∗ a1∗
.. ..


. .

λai∗ = λ ai∗ ,

. .
.. ..



an∗ an∗

per tot i = 1, 2, . . . , n.

2. Per tot i, si ai∗ = a0i∗ + a00i∗ llavors



a1∗ a1∗ a1∗
.. .. ..



0 . . .
a + a00 = a0
00
+ a .
i∗ i∗ i∗ i∗
.. .
.
.
..


. .




an∗ an∗ an∗

3. Si A té una fila nul·la llavors det A = 0.

4. Si intercanviam dues files d’A, el seu determinant canvia de signe.


5. Si A té dues files iguals llavors det A = 0.
CAPÍTOL 5. DETERMINANTS 41

6. Sumant a una fila d’A un múltiple escalar d’una altra fila el determinant
roman invariant:

a1∗ a1∗
.. ..


. .

ai∗ ai∗ + λaj∗

.. ..
. =

.

aj∗ aj∗

. .
.. ..



an∗ an∗

per tots λ ∈ IR i 1 ≤ i, j ≤ n.
7. Sigui At la matriu transposada d’A. Llavors, det A = det At . Per això,
totes les propietats que hem vist per a files d’A es poden aplicar a columnes
d’A.
2

Comentari: L’única aplicació D : Mn×n (IR) → IR que compleix les pro-


pietats 1,2 i 5 anteriors i D(I) = 1 és el determinant. F

Podem calcular un determinant a partir d’una fila o una columna:

Teorema 5.1
Sigui A = (aij )n . Per tot i ∈ {1, 2, . . . , n} tenim

det A = ai1 Ai1 + ai2 Ai2 + · · · + ain Ain

i també

det A = a1i A1i + a2i A2i + · · · + ani Ani .

Exemple 20: Sigui A = (aij )3×3 una matriu. Llavors


det A =
a22 a23
1+1 1+2 a21
a23
= a11 (−1) a32 a33 + a12 (−1)

a31 +
a33

a a22
+a13 (−1)1+3 21 =
a31 a32
= a11 (a22 a33 − a23 a32 ) − a12 (a21 a33 − a23 a31 ) +
+a13 (a21 a32 − a22 a31 ) .

Definició 5.2
Una matriu A és degenerada si det A = 0. Altrament, és regular. 2
CAPÍTOL 5. DETERMINANTS 42

Teorema 5.2
Siguin A i B dues matrius d’ordre n. Llavors,

|AB| = |A||B|.

2
Recordem que una matriu A d’ordre n és inversible si existeix una matriu
B d’ordre n tal que BA = AB = I.

Teorema 5.3
Una matriu quadrada A = (aij )n és inversible si i només si és regular. En tal
cas,
1
A−1 = (Aij )t ,
det A
essent (Aij ) la matriu formada pels adjunts d’A. 2

Exemple 21: Sigui


 
1 1 1
A =  2 −3 1 .
4 1 −5

Calculem el seu determinant:

det A = 15 + 2 + 4 + 12 − 1 + 10 = 42 6= 0.

Per tant, és inversible.


Per calcular la seva inversa, necessitam calcular primer els adjunts:

−3 1 2 1
A11 = = 14, A12 = − 4 −5 = 14,

1 −5

2 −3 1 1
A13 = = 14, A21 = − = 6,
4 1 1 −5

1 1 1 1
A22 = = −9, A23 = − = 3,
4 −5 4 1

1 1
= 4, A32 = − 1 1 = 1,

A31 =
−3 1 2 1

1 1
A33 = = −5.
2 −3
Aixı́,
 
14 6 4
1 
A−1 = 14 −9 1 .
42
14 3 −5


CAPÍTOL 5. DETERMINANTS 43

5.2 Canvis de base


Siguin {e1 , . . . , en } i {v1 , . . . , vn } dues bases d’IRn . Suposem que
n
X
ej = aij vi .
i=1

Siguin (α1 , . . . , αn ) i (β1 , . . . , βn ) les coordenades d’un vector v ∈ IRn respecte


de cada base. Expressarem (β1 , . . . , βn ) en termes d’(α1 , . . . , αn ) i la matriu del
canvi de base A = (aij ):
n
X
βi vi = v = α1 e1 + · · · + αn en =
i=1
n
! n
!
X X
= α1 ai1 vi + · · · + αn ain vi =
i=1 i=1
n
X
= (ai1 α1 + · · · + ain αn ) vi .
i=1

Com que {v1 , . . . , vn } és base, podem escriure

βi = ai1 α1 + · · · + ain αn ,

i = 1, . . . , n. En forma matricial,
    
β1 a11 . . . a1n α1
 ..   .. ..   ..  .
 . = . .  . 
βn an1 . . . ann αn

O, simbòlicament, β = Aα.

5.3 Aplicacions lineals


Definició 5.3
Una aplicació lineal sobre IRn és una aplicació T : IRn → IRn que verifica

per tots x, y ∈ IRn



T (x + y) = T (x) + T (y)
T (αx) = αT (x) per tots x ∈ IRn , α ∈ IR.
2
Sigui e1 , . . . , en una base d’IRn . Cada vector T ej s’expressa de manera única
en termes de la base e1 , . . . , en :
n
X
T ej = aij ei j = 1, . . . , n.
i=1

Direm que la matriu A = (aij ) és la matriu de T respecte de la base e1 , . . . , en .


CAPÍTOL 5. DETERMINANTS 44

Siguin v = x1 e1 + · · · + xn en ∈ IRn i T v = y1 e1 + · · · + yn en ∈ IRn . Volem


expressar les coordenades de T v en termes d’x1 , . . . , xn .
 
X n Xn Xn
yi ei = T v = T  xj ej  = xj T ej =
i=1 j=1 j=1
!  
n
X n
X n X
X n n
X Xn
= xj aij ei aij xj ei =  aij xj  ei .
j=1 i=1 j=1 i=1 i=1 j=1

Per tant,
n
X
yi = aij xj i = 1, . . . , n.
j=1

O, en notació simbòlica, y = Ax.


Sigui v1 , . . . , vn una altra base d’IRn amb matriu B = (bij ). Anem a veure
quines relacions podem trobar entre A i B.
Siguin P U = (uij ) la matriu de canvi de base d’e1 , . . . , en a v1 , . . . , vn (és a
dir, ej = uij vi ) i U −1 = (wij ) la P seva inversa, matriu de canvi de base de
v1 , . . . , vn a e1 , . . . , en (és a dir, vj = wij ei ). Llavors,
n n n
!
X X X
T vi = bji vj = bji wkj ek =
j=1 j=1 k=1
 
X n
n X n
X n
X
= bji wkj ek =  bji wkj  ek .
j=1 k=1 k=1 j=1

Per altra banda,


 
Xn n
X
T vi = T  wji ej  = wji T ej =
j=1 j=1
!  
n
X n
X n X
X n n
X n
X
= wji akj ek = wji akj ek =  wji akj  ek .
j=1 k=1 j=1 k=1 k=1 j=1

Per tant,
   
Xn X n n
X n
X
 wkj bji  ek =  akj wji  ek
k=1 j=1 k=1 j=1

per cada i ∈ {1, . . . , n}. És a dir,


n
X n
X
wkj bji = akj wji
j=1 j=1

per cada i, k ∈ {1, . . . , n}.


O bé
U −1 B = AU −1 .
Isolant B, obtenim
B = U AU −1 .
CAPÍTOL 5. DETERMINANTS 45

5.4 El polinomi caracterı́stic


Definició 5.4
Sigui T : V → V una aplicació lineal. El polinomi caracterı́stic de T és el
polinomi caracterı́stic d’una matriu representativa de T :

PT (λ) = det (λI − A),

essent A la matriu de T en una base e1 , . . . , en . 2

Comentaris
I. El polinomi caracterı́stic de T no depèn de la base escollida:
Sigui B la matriu d’una altra base. Sabem que B = U AU −1 , per una
certa matriu U . Llavors

det (λI − B) =
= det (λI − U AU −1 ) = det (λU U −1 − U AU −1 ) =
= det (U (λI − A)U −1 ) = det U · det (λI − A) · det U −1 =
= det (λI − A).

II. Si dim V = n llavors grau pT (λ) = n.


III. Quan no es faci referència a l’aplicació lineal sinó a la seva matriu posarem
pA (λ) en lloc de pT (λ). F

Exemple 22: Sigui


 
1 1 1
A= 1 0 2 
−1 3 1

la matriu associada a una aplicació lineal T . Llavors


 
λ − 1 −1 −1
pT (λ) = det (λI − A) = det  −1 λ −2  =
1 −3 λ − 1
= (λ − 1)2 λ + 2 − 3 + λ − 6(λ − 1) − (λ − 1) =
= (λ2 − 2λ + 1)λ − 1 + λ − 6λ + 6 − λ + 1 =
= λ3 − 2λ2 − 5λ + 6.

Definició 5.5
Sigui p(λ) = a0 λn + a1 λn−1 + · · · + an−1 λ + an un polinomi. Sigui M una matriu
d’ordre n. Definim

p(M ) = a0 M n + a1 M n−1 + · · · + an−1 M + an I.

2
CAPÍTOL 5. DETERMINANTS 46

Teorema 5.4 (Cayley-Hamilton)


Siguin A una matriu d’ordre n i pA (λ) el seu polinomi caracterı́stic. Llavors

pA (A) = 0.

2
Capı́tol 6

Espais vectorials euclidians

Recordem la definició del producte escalar que vàrem donar als primers capı́tols:

Definició 6.1
Siguin x = (xi )n , y = (yi )n dos vectors d’IRn o Cn . El producte escalar euclidià
d’x i y és
hx, yi = x1 y1 + x2 y2 + · · · + xn yn
si x, y ∈ IRn o
hx, yi = x1 y¯1 + x2 y¯2 + · · · + xn y¯n
si x, y ∈ Cn . 2
Vàrem veure una sèrie de propietats d’aquesta operació. En aquest capı́tol
l’explotarem encara un poquet més.

Definició 6.2
Siguin a, b ∈ IRn o Cn . Definim la projecció de b sobre a com
ha, bi
δ= a.
ha, ai
Si v, w ∈ IRn o Cn definim l’aplicació lineal
v ⊗ w : IRn → IRn (o Cn → Cn ).
x 7→ hv, xiw
2
a⊗a a⊗a
Amb aquesta notació, δ = kak 2 (b); l’aplicació Pa = kak2 és l’operador de
projecció sobre la recta que passa per a.

6.1 Ortogonalització
Una base v1 , . . . , vn d’IRn o Cn és ortogonal si hvi , vj i = 0 per tots i, j diferents
(és a dir, els vectors de la base són ortogonals dos a dos). Si, a més, els vectors
són unitaris (hvi , vi i = 1 per tot i) llavors la base és ortonormal.
Tot seguit veurem un mètode per aconseguir una base ortonormal a partir
d’una que no ho és.

47
CAPÍTOL 6. ESPAIS VECTORIALS EUCLIDIANS 48

6.1.1 El mètode de Gram-Schmidt


Introduı̈rem el mètode per a dos vectors i després generalitzarem per a k vectors.

Siguin v1 , v2 ∈ IRn dos vectors linealment independents. El primer que feim


és normalitzar el vector v1 : w1 = kvv11 k . Ara, a partir de v2 , hem de construir
un vector perpendicular a w1 en el pla hw1 , v2 i que sigui unitari. Observem,
emperò, que v2 es pot construir com la suma de la seva projecció sobre w1 i un
vector w20 ortogonal a w1 :

v2 = w20 + Pw1 (v2 ).


w0
Per tant, w20 = v2 − hv2 , w1 iw1 . Aixı́, el vector que cercam és w2 = kw20 k .
2
Els vectors w1 , w2 formen una base ortonormal que genera el mateix subespai
que v1 , v2 .

Generalització del mètode Sigui v1 , . . . , vk un sistema de vectors linealment


independents d’IRn . Construı̈rem tot seguit un sistema de vectors ortonormals
que generaran el mateix subespai que v1 , . . . , vk . Ho farem per inducció. Primer
de tot definim
v1
w1 =
kv1 k

i, a partir de w20 = v2 − hv2 , w1 iw1 ,

w20
w2 = .
kw20 k

Suposem ara que ja hem construı̈t l vectors w1 , . . . , wl (l < k) tals que



hwi , wj i = 0 si i 6= j; i, j = 1, . . . , l.
hwi , wi i = 1 i = 1, . . . , l.

Sigui ara
0
wl+1 = vl+1 − Pw1 (vl+1 ) − · · · − Pwl (vl+1 ) =
= vl+1 − hvl+1 , w1 iw1 − · · · − hvl+1 , wl iwl .

Llavors
0
wl+1
wl+1 = 0 .
kwl+1 k

Per construcció, kwl+1 k = 1 i hwl+1 , wi i = 0 per tot i = 1, . . . , l.

Comentari: Del mètode de Gram-Schmidt es dedueix el mètode QR de


descomposició de matrius vist als exercicis. F
CAPÍTOL 6. ESPAIS VECTORIALS EUCLIDIANS 49

6.2 Rotacions. Matrius ortogonals


Treballarem en aquest apartat sobre V = IRn o V = Cn .

Definició 6.3
Una rotació és una aplicació lineal que conserva longituds. És a dir, Q : V → V
és una rotació si és aplicació lineal i kQxk = kxk per tot x ∈ V . 2
El següent lema el farem servir a la demostració del teorema (6.1).

Lema 6.1
Siguin A i B dues matrius d’ordre n. Si AB = I llavors BA = I. 2

Prova. Si ABx = A(Bx) = x per tot x ∈ IRn llavors Im A = IRn , pel que A
és exhaustiva. Per tant, és bijectiva. Sigui A−1 la inversa d’A. Com que AB = I,
tenim que A−1 AB = A−1 I = A−1 . Per tant, B = A−1 i BA = A−1 A = I.

Teorema 6.1
Sigui Q : V → V una aplicació. Són equivalents:
1. Q és una rotació.
2. Per tots x, y ∈ V , hQx, Qyi = hx, yi.
3. Qt Q = QQt = I (si V = IRn ) o Q̄t Q = QQ̄t = I (si V = Cn ).
2

Prova.
i) ⇒ ii) Siguin x, y ∈ V . Tenim el següent:

kx + yk2 = hx + y, x + yi = hx, xi + hx, yi + hy, xi + hy, yi

kx + yk2 = kQ(x + y)k2 = hQ(x + y), Q(x + y)i =


= hQx, Qxi + hQx, Qyi + hQy, Qxi + hQy, Qyi.

Igualant i simplificant, obtenim

hQx, Qyi = hx, yi.

ii) ⇒ i) Basta posar x = y a la igualtat hQx, Qyi = hx, yi.


ii) ⇔ iii) L’expressió hQx, Qyi = hx, yi és equivalent a hQt Qx, yi = hx, yi, que
a la vegada equival a Qt Qx = x. I això és per tot x ∈ V . Per tant,
Qt Q = I. A més, pel lema 6.1, QQt = I.
Si V = Cn la demostració és anàloga.
CAPÍTOL 6. ESPAIS VECTORIALS EUCLIDIANS 50

Definició 6.4
Una matriu Q és ortogonal si QQt = I (és a dir, si Q−1 = Qt ). En tal cas,
det Q = ±1. 2

Proposició 6.1
Siguin v1 , . . . , vn els vectors columna d’una matriu quadrada Q d’ordre n. Lla-
vors, Q és ortogonal si i només si v1 , . . . , vn són una base ortonormal d’IRn .
2

Prova. L’expressió Qt Q = I és equivalent a hvi , vj i = 0 si i 6= j i hvi , vi i = 1


per tot i.
Capı́tol 7

Valors i vectors propis

Sigui A : V → V (V = IRn o Cn ) la matriu d’una aplicació lineal. Sigui λ ∈ K


(K = IR o C, respectivament). Un vector v ∈ V és vector propi associat al
valor propi λ ∈ K si v 6= 0 i

Av = λv.

És a dir, si (λI − A)v = 0 o, de manera equivalent, si v ∈ Ker (λI − A).


Hem vist que λ és valor propi d’A si i només si Ker (λI − A) 6= {0}. En tal
cas, λI − A no és bijectiva, pel que det (λI − A) = 0. L’equació

det (µI − A) = 0

és l’ equació caracterı́stica d’A. Les seves arrels són els valors propis d’A.

7.1 Càlcul de valors i vectors propis


Per calcular valors i vectors propis, primer de tot hem de resoldre l’equació
caracterı́stica. Això ens donarà una sèrie de valors propis. Per cada un d’ells
resolem el sistema homogeni

(λI − A)x = 0,

que sempre té solució.

Exemple 23: L’equació caracterı́stica de la matriu


 
4 −5
A=
2 −3

és det (λI − A) = λ2 − λ − 2 = 0; té com arrels λ1 = 2 i λ2 = −1.


Per al primer valor propi hem de resoldre l’equació
    
−2 5 x 0
= .
−2 5 y 0
 5 
Una solució és x = 5/2, y = 1. Per tant, Ker (λ1 I − A) = h 2 i.
1

51
CAPÍTOL 7. VALORS I VECTORS PROPIS 52

El segon valor propi ens duu a l’equació


    
−5 5 x 0
= .
−2 2 y 0
 
1
Una solució és x = 1, y = 1. Per tant, Ker (λ2 I − A) = h i. ♠
1

Teorema 7.1
Sigui A una matriu d’ordre n. Siguin λ1 , . . . , λn els valors propis d’A. Suposem
que existeixen n vectors propis independents v1 , . . . , vn , cada vi associat a λi .
Sigui S la matriu les columnes de la qual són els vectors propis. Llavors
 
λ1 0 . . . 0
. 
 0 λ2 . . . .. 

−1
S AS =  .  = diag (λ1 , . . . , λn ).
 .. . . . . . . 0 

0 . . . 0 λn
2

Prova. Observem que


AS = (Av1 , . . . , Avn ) = (λ1 v1 , . . . , λn vn ) =
 
λ1 0 . . . 0
. 
 0 λ2 . . . .. 

= (v1 , . . . , vn )   = S · diag (λ1 , . . . , λn ).
 . .
 .. .. ... 0 

0 . . . 0 λn
Per tant,

S −1 AS = diag (λ1 , . . . , λn ).

Definició 7.1
Una matriu A d’ordre n és diagonalitzable si existeix una base de V formada
per vectors propis d’A. 2

Comentari: D’acord amb el resultat anterior, que A sigui diagonalitzable


és equivalent a l’existència d’una matriu inversible S tal que

S −1 AS = diag (λ1 , . . . , λn ).

Teorema 7.2
Sigui A una matriu d’ordre n. Suposem que els valors propis λ1 , . . . , λn són
distints dos a dos. Per cada i, sigui vi un vector propi associat al valor propi
λi . Llavors, els vectors v1 , . . . , vn són independents. 2
CAPÍTOL 7. VALORS I VECTORS PROPIS 53

Exemple 24: Els valors propis de la matriu


 1 1 
A= 2 2
1 1
2 2
 
1 0
són 0 i 1. Sabem que existeix una matriu S tal que S −1 AS = . Un
   0 0
1 1
vector propi associat a λ1 = 1 és v1 = , mentre que v2 = és un
1   −1
1 −1
vector propi associat a λ2 = 0. Per tant, S = . ♠
1 1

7.2 Matrius simètriques


Definició 7.2
Una matriu real A d’ordre n és simètrica si A = At . 2

Proposició 7.1
Siguin λ1 , λ2 dos valors propis diferents d’una matriu simètrica A. Siguin x, y
dos vectors propis, x associat a λ1 i y a λ2 . Llavors, x i y són ortogonals. 2

Prova. Multipliquem escalarment l’expressió Ax = λ1 x per y:

hAx, yi = hλ1 x, yi = λ1 hx, yi.

Per altra banda,

hAx, yi = hx, At yi = hx, Ayi = hx, λ2 yi = λ2 hx, yi.

Llavors, λ1 hx, yi = λ2 hx, yi. Com que λ1 6= λ2 , necessàriament hx, yi = 0.

Teorema 7.3
Sigui A una matriu simètrica d’ordre n. Llavors,
1. Els valors propis d’A són reals.
2. Existeix una base ortonormal d’IRn formada per vectors propis d’A.
2

Prova.
1. Sigui λ ∈ C un valor propi d’A. Sigui x ∈ Cn un vector propi associat.
Com que Ax = λx, tenim que

hAx, xi = hλx, xi = λhx, xi.

Per altra banda,

hAx, xi = hx, At xi = hx, Axi = hx, λxi = λ̄hx, xi.

Per tant, λ = λ̄, el que implica que λ ∈ IR.


CAPÍTOL 7. VALORS I VECTORS PROPIS 54

2. Farem la demostració d’aquest apartat per al cas en què els valors propis
són diferents dos a dos.
Siguin λ1 , . . . , λn els valors propis d’A. Per cada i, sigui wi el vector propi
wi
associat a λi i sigui vi = kw ik
. Llavors, d’acord amb la proposició anterior,
els vectors v1 , . . . , vn formen una base ortonormal.

Comentari: Sigui Q la matriu ortogonal les columnes de la qual són els


vectors propis d’A. Llavors,
Qt AQ = diag (λ1 , . . . , λn ).
Per demostrar-ho, primer de tot observem que Qei = vi , essent ei el vector
que té un 1 a la posició i-èssima i zeros a la resta. Llavors
Qt AQei = Qt Avi = Qt λi vi = λi Qt vi = λi ei .
Una vegada està demostrat per als ei ho tenim demostrat per tot IRn , ja que
e1 , . . . , en n’és una base. F

Definició 7.3
Una matriu simètrica A és definida positiva si hAx, xi > 0 per tot x ∈ IRn −
{0}. És definida negativa si hAx, xi < 0 per tot x ∈ IRn − {0}.
La matriu A és semidefinida positiva si hAx, xi ≥ 0 per tot x ∈ IRn − {0}.
És semidefinida negativa si hAx, xi ≤ 0 per tot x ∈ IRn − {0}. 2

Teorema 7.4
Sigui A una matriu simètrica. Són equivalents:
1. A és definida positiva.
2. Tots els valors propis d’A són positius.
3. Les matrius principals
 
a11 . . . a1k
 .. .. 
Ak =  . . 
ak1 ... akk
tenen determinant positiu.
4. Sigui A = LU la descomposició LU d’A obtinguda en fer l’eliminació
gaussiana. Suposem que U és de la forma
 
d1 u12 . . . u1n
..
 0 d2 . . .
 
. 
U = .
.
 .. .. .. 
. . u(n−1)n 
0 ... 0 dn
Llavors, d1 > 0, . . . , dn > 0.
2