Anda di halaman 1dari 52

TEORÍA DE ÁLGEBRA.

DIPLOMATURA DE ESTADÍSTICA 1

Tema I: Introducción a la Teorı́a de Conjuntos.


1 Generalidades
La palabra conjunto es un término básico no definido. Los conjuntos se designarán por letras mayúsculas A, B. . . Los
objetos que integran un conjunto se llaman elementos. Para indicar que un objeto a es un elemento de A se escribe:
a ∈ A.
Los conjuntos se pueden definir de 2 formas distintas: por extensión dando todos sus elementos, p.e. A = {a, b, c}
o por comprensión, dando una propiedad que caracterice al conjunto, p.e. H el conjunto de todas las rectas del plano,
o bien D = {x ∈ N : x > 5}.
Un conjunto se llama unitario si tiene un solo elemento. El conjunto que no tiene ningún elemento se llama vacı́o
y se denota por ∅.
Un conjunto F se dice que está contenido o que es un subconjunto de E si todo elemento de F es también de E
y se utiliza la notación F ⊂ E o bien F ⊆ E.
Propiedades

a) E ⊂ E
b) F ⊂ E y E ⊂ F ⇒ E = F .
c) F ⊂ E y E ⊂ G ⇒ F ⊂ G.

Definición. 1.1 Dado un conjunto E, se llama conjunto de partes de E al conjunto cuyos elementos son todos los
subconjuntos de E y se denota por P(E).

2 Operaciones entre conjuntos


Definición. 2.1 Sean E y F dos conjuntos. Se llama unión de E y F y se denota por E ∪ F al conjunto cuyos
elementos pertenecen a E o (en sentido no excluyente) a F .

Proposición. 2.2 Siendo E, F , G conjuntos, se cumplen las siguientes leyes:

a) Conmutativa: E ∪ F = F ∪ E.
b) Asociativa: (E ∪ F ) ∪ G = E ∪ (F ∪ G).
c) F ⊂ E ⇔ F ∪ E = E.

Definición. 2.3 Sean E y F dos conjuntos. Se llama intersección de E y F y se denota por E ∩ F al conjunto cuyos
elementos pertenecen a E y a F .

Proposición. 2.4 Siendo E, F , G conjuntos, se cumplen las siguientes leyes:

a) Conmutativa: E ∩ F = F ∩ E.
b) Asociativa: (E ∩ F ) ∩ G = E ∩ (F ∩ G).
c) F ⊂ E ⇔ F ∩ E = F .

Definición. 2.5 Sean E y F dos conjuntos. Se llama diferencia de E y F y se denota por E − F al conjunto de los
elementos de E que no pertenecen a F .

Proposición. 2.6 Siendo E, F , G conjuntos, se cumplen las siguientes leyes:

a) E − E = ∅.
b) E − ∅ = E.
c) ∅ − E = ∅.
d) E − F = F − E ⇒ E = F .
e) (E − F ) − G ⊂ E − (F − G).
TEORÍA DE ÁLGEBRA. DIPLOMATURA DE ESTADÍSTICA 2

Definición. 2.7 Sean E y F dos conjuntos, tales que F ⊂ E. Se llama complemento de F con respecto a E y se
denota por {E F (o bien por {F , si no hay lugar a confusión, o bien por F , oF 0 ) a la diferencia E − F .

Proposición. 2.8 Siendo F ⊂ E se cumplen las siguientes leyes:

a) F ∪ F = E.
b) F ∩ F = ∅.
c) ∅ = E
d) E = ∅
e) F = F

Proposición. 2.9 Leyes distributivas Siendo E, F y G tres conjuntos se verifica:

a) E ∩ (F ∪ G) = (E ∩ F ) ∪ (E ∩ G).
b) E ∪ (F ∩ G) = (E ∪ F ) ∩ (E ∪ G).

Proposición. 2.10 Leyes de Morgan Sean F y G subconjuntos de E, se verifica:

a) F ∪ G = F ∩ G.
b) F ∩ G = F ∪ G.

3 Producto cartesiano. Correspondencia y función


Definición. 3.1 Dados 2 conjuntos E y F , el conjunto formado por los pares ordenados (a, b), a ∈ E, b ∈ F se llama
producto cartesiano de E y F y se denota por E × F . Cuando E = F se denota también por E 2 .
Si E, F y G son conjuntos se define E × F × G al conjunto formado por las ternas ordenadas (a, b, c), a ∈ E, b ∈
F, c ∈ G. Y ası́ sucesivamente para más de 3 conjuntos.

Definición. 3.2 Un conjunto G es una gráfica si sus elementos son pares ordenados. Si G es una gráfica y (x, y) ∈ G,
se dice que y es correspondiente de x por G.

Definición. 3.3 Si G es una gráfica, se llama primera (respectivamente segunda) proyección de G, al conjunto de
las primeras (respectivamente segundas) coordenadas de elementos de G.
A la primera proyección de G se le suele llamar también conjunto de definición de G y a la segunda conjunto de
valores de G y se denotan por pr1 G y pr2 G.

Definición. 3.4 Se llama correspondencia o relación entre un conjunto A y un conjunto B a una terna ordenada
Γ = (G, A, B), donde G es una gráfica tal que pr1 G ⊂ A y pr2 G ⊂ B. Se dice que G es la gráfica de Γ, A el conjunto
de partida y B el conjunto de llegada.

Si (x, y) ∈ G, se dice también que y es correspondiente de x por la correspondencia Γ o que Γ hace corresponder
al elemento x el elemento y. Para todo x ∈ pr1 G se dice que la correspondencia Γ está definida para el elemento x,
y pr1 G se llama el conjunto de definición de Γ o dominio de Γ; para todo y perteneciente a pr2 G se dice que y es un
valor tomado por Γ y pr2 G se llama el conjunto de valores de Γ.

Definición. 3.5 Sea G una gráfica. Se llama gráfica inversa de G y se designa por G−1 , a la gráfica cuyos elementos
son los pares ordenados (x, y), tales que (y, x) ∈ G.

Definición. 3.6 Sea Γ = (G, A, B) una correspondencia entre A y B. Se llama correspondencia inversa de Γ y se
denota por Γ−1 a la correspondencia (G−1 , B, A).

Definición. 3.7 Se dice que una correspondencia f = (F, A, B) es una función o un aplicación si:

1. A = pr1 F .
2. Para cada x ∈ A existe un único elemento correspondiente a x por F .
TEORÍA DE ÁLGEBRA. DIPLOMATURA DE ESTADÍSTICA 3

Función o aplicación: Se dice que f = (F, A, B) es una función o aplicación de A en B o que está definida en A y
toma sus valores en B, y se suele escribir: f : A → B. Al único elemento y ∈ B, correspondiente a x se denota por
f (x) y se llama la imagen de x por f , es decir son equivalentes y = f (x) y (x, y) ∈ F . A A se le llama dominio de la
función y al conjunto de llegada B también se le llama codominio o contradominio de f .

Definición. 3.8 Imagen e imagen inversa por una función:


Sea f = (F, A, B) una función y X ⊂ A, se llama imagen por f de X y se le denota por f (X) al subconjunto de
B formado por las imágenes de x ∈ X o sea f (X) = {y ∈ B : y = f (x), para algún x ∈ X}.
Si Y ⊂ B se llama imagen inversa de Y por f y se denota por f −1 (Y ) al subconjunto de A formado por los
elementos cuya imagen está en Y , es decir f −1 (Y ) = {x ∈ A : f (x) ∈ Y }.

Proposición. 3.9 Sea f = (F, A, B) una función y X e Y subconjuntos de A y U y V subconjuntos de B. Se


verifica:

a) f (X ∪ Y ) = f (X) ∪ f (Y ).
b) f (X ∩ Y ) ⊂ f (X) ∩ f (Y ).
c) f −1 (U ∩ V ) = f −1 (U ) ∩ f −1 (V ).

Definición. 3.10 Dadas f : X → Y y g : Y → Z definimos la composición de f y g como la aplicación h = g ◦ f :


X → Z dada por
∀a ∈ X, h(a) = g(f (a)).

Definición. 3.11 Sea f : X → Y diremos que:

1) f es inyectiva si cualesquiera dos elementos de X distintos entre si tienen imágenes distintas. En otras
palabras,
∀a1 , a2 ∈ X, f (a1 ) = f (a2 ) ⇒ a1 = a2 .
2) f es sobreyectiva si todo elemento de Y es la imagen de algún elemento de X, es decir,

∀b ∈ Y, ∃a ∈ X, f (a) = b.

3) f es biyectiva si es inyectiva y sobreyectiva. En otras palabras,

∀b ∈ Y, ∃!a ∈ X, f (a) = b.

Proposición. 3.12 Sea f = (F, A, B) una función inyectiva y X e Y subconjuntos de A. Se verifica: f (X ∩ Y ) =


f (X) ∩ f (Y ).

Proposición. 3.13 Sea f una función de A en B. Para que la correspondencia f −1 sea una función es necesario y
suficiente que f sea biyectiva.

Definición. 3.14 Sea f una función biyectiva. Se llama función inversa de f a la correspondencia f −1 .

4 Relaciones de equivalencia y de orden


Definición. 4.1 Sea A un conjunto. Se llama relación en A o relación entre elementos de A a toda correspondencia
donde el conjunto de partida y el de llegada son subconjuntos de A.
Si R es una relación en un conjunto A, y si y es correspondiente de x por la relación R, se dice que que x e y
están R-relacionados o que x está R-relacionado (o simplemente relacionado si no hay lugar a confusión) con y y se
escribe: x R y.

Definición. 4.2 Sea A un conjunto y sea R una relación en A. Se dice que R es

a) Reflexiva: Si ∀a ∈ A, a R a.
b) Simétrica: Si a R b ⇒ b R a.
c) Antisimétrica: Si a R b y b R a ⇒ a = b.
d) Transitiva: Si a R b y b R c ⇒ a R c.
TEORÍA DE ÁLGEBRA. DIPLOMATURA DE ESTADÍSTICA 4

Definición. 4.3 Sea A un conjunto y sea R una relación en A. Se dice que R es es de equivalencia si es reflexiva,
simétrica y transitiva.

Definición. 4.4 Clases de equivalencia Sea E un conjunto y sea R una relación de equivalencia en E. Para todo
x ∈ E se llama clase de equivalencia de x a la imagen por R de {x}, o sea R(x) = {y ∈ E : x R y}.

Proposición. 4.5 Sea E un conjunto y sea R una relación de equivalencia en E. Se verifica:

a) Todo elemento de E pertenece a una clase de equivalencia.


b) Toda clase de equivalencia es no vacı́a.
c) Dos clases de equivalencia son disjuntas o iguales.

Definición. 4.6 Sea E un conjunto y sea R una relación de equivalencia en E. Se llama conjunto cociente de E por
R al conjunto de las clases de equivalencia de los elementos de E.

Definición. 4.7 Sea A un conjunto y sea R una relación en A. Se dice que R es es una relación de orden en A si es
reflexiva, antisimétrica y transitiva. Para una relación de orden en A se suele utilizar en lugar de a R b la notación
a ≤ b.

Definición. 4.8 Se dice que una relación de orden ≤ en un conjunto A es de orden total, o que (A, ≤) está totalmente
ordenado por la relación ≤ si para todo par de elementos a, b ∈ A se verifica: a ≤ b ó b ≤ a.

Definición. 4.9 Sea (A, ≤) un conjunto ordenado. Un elemento a ∈ A se llama elemento maximal de (A, ≤) si para
todo x ∈ A tal que a ≤ x se tiene a = x. Un elemento a ∈ A se llama elemento minimal de (A, ≤) si para todo x ∈ A
tal que x ≤ a se tiene a = x

Definición. 4.10 Sea (A, ≤) un conjunto ordenado y X ⊂ A. Un elemento k ∈ A se llama cota superior de X si
∀x ∈ X, x ≤ k. Un elemento k ∈ A se llama cota inferior de X si ∀x ∈ X, k ≤ x.

Un subconjunto X de A se dice acotado superiormente si tiene alguna cota superior y se dice acotado inferiormente
si tiene alguna cota inferior, y se dice simplemente acotado si está acotado superiormente e inferiormente.
TEORÍA DE ÁLGEBRA I. DIPLOMATURA DE ESTADÍSTICA 1

Tema 2: Matrices
1 Definiciones generales
Definición. 1.1 Dados m, n ∈ N, una matriz de orden m × n con coeficientes reales es una orde-
nación rectangular de m × n números reales dispuestos en m filas y n columnas.

Dada una matriz, A, de orden m × n con coeficientes reales, para cada par de números naturales,
i, j, 1 ≤ i ≤ m y 1 ≤ j ≤ n, representaremos el elemento de A situado en la fila i y la columna j,
por aij . De este modo, la notación habitual para representar matrices será disponer sus elementos
por filas y columnas en un rectángulo, de forma que el elemento aij se encuentre en la fila i y en la
columna j. Ası́ tendremos:
 
a11 · · · a1j · · · a1n
 .. .. .. 
 . . . 
 
A =  ai1 · · · aij · · · ain 


 . .. .. 
 .. . . 
am1 · · · amj · · · amn

El conjunto formado por todas las matrices de orden m × n con coeficientes reales, lo denotaremos
por Mm×n .

Definición. 1.2 Diremos que dos matrices A = (aij ) y B = (bij ) son iguales si son del mismo orden
y además
∀i, j : 1 ≤ i ≤ m, 1 ≤ j ≤ n, aij = bij .

Definición. 1.3 Sea A ∈ Mm×n .

1) Llamaremos diagonal de la matriz A a la sucesión formada por los elementos de A cuyos ı́ndices
coinciden, es decir:
a11 , a22 , . . . , app , siendo p = min(m, n).

2) Una submatriz de A es una matriz que puede obtenerse a partir de A suprimiendo ciertas filas
y columnas.
3) Una caja, o bloque, de la matriz A es una submatriz de A en la cual los ı́ndices de sus filas y
columnas son consecutivos.

Definición. 1.4 (Tipos de matrices)

1) Una matriz A ∈ Mm×n , se denomina cuadrada si tiene igual número de filas que de columnas,
es decir, m = n. El conjunto de todas las matrices cuadradas de orden n (es decir, n × n) se
denotará por Mn .
2) Una matriz A = (aij ), se llama triangular superior si todos los elementos situados por debajo
de la diagonal principal son nulos, esto es:

∀i, j : i > j, aij = 0.

Análogamente, diremos que A es triangular inferior si

∀i, j : i < j, aij = 0.


TEORÍA DE ÁLGEBRA I. DIPLOMATURA DE ESTADÍSTICA 2

3) Una matriz D = (dij ) se llama diagonal si es cuadrada y

∀i, j : i 6= j, dij = 0.

En otras palabras, si todos los elementos que se encuentran fuera de la diagonal principal son
nulos.
4) Una matriz escalar es una matriz diagonal con todos los elementos de la diagonal iguales.
5) Una matriz A = (aij ) ∈ Mn se llama simétrica si

∀i, j, aij = aji ,

es decir, la fila i-ésima es igual que la columna i-ésima.


6) Una matriz A = (aij ) ∈ Mn se llama antisimétrica si

∀i, j, aij = −aji .

En particular, aii = 0 para cada i = 1, . . . , n.

2 Operaciones con matrices


Definición. 2.1 Dadas las matrices A = (aij ) y B = (bij ) de Mm×n , llamamos matriz suma de A
y B a la matriz
A + B = (aij + bij ) ∈ Mm×n .

De este modo, dadas dos matrices A y B, del mismo orden, podemos calcular de manera natural
su suma, que será, de nuevo, una matriz del mismo orden que A y B.

Proposición. 2.2 Sean A, B y C matrices de Mm×n . Se verifica:

1) Propiedad asociativa: (A + B) + C = A + (B + C).


2) Propiedad conmutativa: A + B = B + A.
3) Elemento Neutro: Existe una única matriz Θ = (θij ) ∈ Mm×n , con θij = 0 para todo i, j,
que llamaremos matriz nula y verifica:

∀M ∈ Mm×n , M + Θ = Θ + M = M.

4) Elemento opuesto: Para cualquier matriz A = (aij ) ∈ Mm×n , existe una única matriz
−A = (−aij ) ∈ Mm×n , que llamaremos opuesta de A, tal que

A + (−A) = (−A) + A = Θ.

Definición. 2.3 Dados A ∈ Mm×n y α ∈ R, llamamos producto de A por el escalar α, y lo


denotaremos por αA, a la matriz
αA = (αaij ) ∈ Mm×n ,
es decir, los elementos de de αA son los de A multiplicados por α.

Proposición. 2.4 Sean A, B ∈ Mm×n y λ, µ ∈ R. Se verifica:

1) λ(A + B) = λA + λB.
2) (λ + µ)A = λA + µA.
TEORÍA DE ÁLGEBRA I. DIPLOMATURA DE ESTADÍSTICA 3

3) (λµ)A = λ(µA).
4) 1A = A y 0A = Θ.

A continuación definiremos el producto de matrices. A diferencia de la suma, la definición usual


del producto no es la natural y exige una cierta adecuación entre los órdenes de las matrices que
multiplicamos.

Definición. 2.5 Dadas las matrices A ∈ Mm×p y B ∈ Mp×n , definimos el producto de A y B


como la matriz C = (cij ) ∈ Mm×n , que denotamos por AB y cuyos elementos se obtienen de la
siguiente forma:
p
X
cij = aik bkj = ai1 b1j + ai2 b2j + · · · + aip bpj .
k=1

Nota. 2.6 

a) Dadas dos matrices A y B, para que podamos obtener el producto AB es necesario que el
número de columnas de A coincida con el número de filas de B.
b) Si F = (fij ) ∈ M1×p y C = (cij ) ∈ Mp×1 , el producto F C es una matriz de orden 1 × 1, que
puede ser considerada como un escalar:
 
c11
 c21 
F C = [f11 f12 · · · f1p ]  .  = f11 c11 + f12 c21 + · · · + f1p cp1 .
 
 .. 
cp1

Teniendo en cuenta esto, dadas A ∈ Mm×p y B ∈ Mp×n , si C = AB, el elemento cij , que
ocupa el lugar (i, j) en C, es el resultado de multiplicar la fila i de A por la columna j de B.

Proposición. 2.7 Sean A, B y C matrices de órdenes convenientes. Se verifica:

1) Propiedad asociatica: (AB)C = A(BC).


2) Propiedad distributiva del producto respecto de la suma:

A(B + C) = AB + AC y (B + C)A = BA + CA.

3) Elemento unidad: Existe una matriz In ∈ Mn tal que AIn = A, Im A = A para toda matriz
A m × n.
4) (λA)B = A(λB) = λ(AB), λ ∈ R.

Nota. 2.8 

1) El producto de matrices no es conmutativo, es decir, existen matrices A y B, de órdenes


convenientes, tales que AB 6= BA. Y más aún, existen matrices tales que AB está definido
pero BA no.

2) Dadas dos matrices cuadradas A, B ∈ Mn , el producto AB es de nuevo una matriz cuadrada


de orden n y la suma también, por lo que todas las propiedades anteriores se verifican para
matrices cuadradas.

En algunos casos, las operaciones entre matrices conservan el tipo de matriz. En concreto se tiene:
TEORÍA DE ÁLGEBRA I. DIPLOMATURA DE ESTADÍSTICA 4

Proposición. 2.9 

1) La suma de dos matrices diagonales (respectivamente, triangulares inferiores o superiores,


simétricas) es otra matriz diagonal (triangular inferior o superior, simétrica, respectivamente).
2) El producto de dos matrices diagonales (respectivamente, triangulares inferiores o superiores)
es otra matriz diagonal (triangular inferior o superior, respectivamente).

Definición. 2.10 Una matriz A ∈ Mn se llama regular, si existe otra matriz cuadrada de orden n,
que denotamos por A−1 , tal que
AA−1 = A−1 A = In .
La matriz A−1 se denomina inversa de A.

Proposición. 2.11 Si la inversa de una matriz existe, es única.

Nota. 2.12 Si A ∈ Mn es regular podemos “despejar” B en una ecuación de la forma AB = C,


sin más que multiplicar ambos términos de la igualdad por A−1 :
A−1 AB = A−1 C =⇒ In B = A−1 C =⇒ B = A−1 C,
y lo mismo para la ecuación BA = C, multiplicando ahora por la derecha.

Proposición. 2.13 Si A y B son dos matrices regulares del mismo orden, entonces AB también es
regular y (AB)−1 = B −1 A−1 .

Definición. 2.14 Dada A = (aij ) ∈ Mm×n , llamamos matriz traspuesta de A, y la denotamos por
At , a la matriz que se obtiene intercambiando las filas y las columnas de A, es decir,
At = (bij ) ∈ Mn×m ⇐⇒ ∀i, j, bij = aji .

Proposición. 2.15 Dadas las matrices A y B, de órdenes convenientes, y α ∈ R, se verifica:

a) (At )t = A.
b) (A + B)t = At + B t y (αA)t = αAt .
c) (AB)t = B t At .
d) Si A es regular, entonces At también y (At )−1 = (A−1 )t .
e) A ∈ Mn es simétrica si y sólo si At = A.
e) A ∈ Mn es antisimétrica si y sólo si At = −A.

3 Operaciones por bloques


En esta sección veremos como pueden realizarse las operaciones con matrices cuando éstas están
divididas en bloques. Lo haremos para matrices cuadradas, pero los resultados que exponemos
pueden extenderse a matrices rectangulares de órdenes convenientes.

Proposición. 3.1 Sean A, B ∈ Mn y A11 , B11 ∈ Mr , A12 , B12 ∈ Mr×(n−r) , A21 , B21 ∈ M(n−r)×r ,
A22 , B22 ∈ M(n−r) , de tal forma que
   
A11 A12 B11 B12
A= y B=
A21 A22 B21 B22
Se verifica:
TEORÍA DE ÁLGEBRA I. DIPLOMATURA DE ESTADÍSTICA 5

 
αA11 αA12
1) αA =
αA21 αA22

(A11 )t (A21 )t
 
t
2) A =
(A12 )t (A22 )t
 
A11 + B11 A12 + B12
3) A + B =
A21 + B21 A22 + B22
 
A11 B11 + A12 B21 A11 B12 + A12 B22
4) AB =
A21 B11 + A22 B21 A21 B12 + A22 B22

Proposición. 3.2 Sean A ∈ Mm×n , B ∈ Mp×m y X ∈ Mn×1 tales que


 
x1
   x2 
A = A1 A2 · · · An y X= . 
 
 .. 
xn

siendo A1 , A2 , . . . , An las columnas de A. Se verifica:


 
x1
 x2 

 
AX = A1 A2 · · · An  .  = x1 A1 + x2 A2 + · · · + xn An
 .. 
xn
   
BA = B A1 A2 · · · An = BA1 BA2 · · · BAn

Nota. 3.3 Si una matriz A ∈ Mn tiene una columna de ceros, entonces no es regular, ya que dada
otra matriz B ∈ Mn , el producto BA también tendrá una columna de ceros y, por tanto, BA 6= In .

4 Transformaciones elementales
Las transformaciones elementales son operaciones simples que nos permiten obtener, a partir de una
matriz dada, otras matrices operando sobre las filas o sobre las columnas de la matriz inicial. Serán
de gran utilidad en los próximos temas para obtener matrices de formas convenientes o facilitar los
cálculos.
Las transformaciones elementales por filas son:

1) Intercambiar las filas i y j.


2) Multiplicar la fila i por un escalar α 6= 0.
3) Sumar a la fila i la fila j multiplicada por un escalar α.

El hecho fundamental es que realizar cualquiera de estas transformaciones elementales


sobre una matriz A, es equivalente a multiplicarla por la izquierda, por un matriz
conveniente.Para hacer esta última afirmación más precisa, consideremos las siguientes matrices,
que denominamos matrices elementales:
Para cada i, j : 1 ≤ i ≤ n, 1 ≤ j ≤ n y α ∈ R, α 6= 0, definimos:

Pij : es la matriz que se obtiene a partir de la identidad intercambiando las filas i y j. Al multiplicar
por la izquierda una matriz A por Pij , se intercambian las filas i y j de la matriz A.
TEORÍA DE ÁLGEBRA I. DIPLOMATURA DE ESTADÍSTICA 6

Fi (α): es la matriz que se obtiene a partir de la identidad multiplicando la fila i por α. Al multiplicar
por la izquierda una matriz A por Fi (α), se multiplica la fila i de la matriz A por α.

Fij (α): es la matriz que se obtiene a partir de la identidad sumando a la fila i la fila j multiplicada
por α. Si una matriz A, se multiplica por la izquierda por Fij (α) se obtiene efecto siguiente:
a la fila i de A se le suma la fila j de A multiplicada por α.

De manera análoga, podemos definir matrices elementales cuyo efecto sobre una matriz A, al mul-
tiplicarla por la derecha por una de estas matrices, es el mismo que aplicar a la matriz A una
transformación elemental por columnas, es decir:
Para cada i, j : 1 ≤ i ≤ n, 1 ≤ j ≤ n y α ∈ R, α 6= 0, definimos:

Qij : es la matriz que se obtiene a partir de la identidad intercambiando la columna i con la j. Al


multiplicar una matriz A, por la derecha por Qij se intercambian las columnas i y j en A.
Ci (α): se obtiene a partir de la identidad multiplicando la columna i por α. Al multiplicar una matriz
A por la derecha por Ci (α) la columna i de A queda multiplicada por α.
Cij (α): se obtiene a partir de la identidad sumando a la columna i la j multiplicada por α. El efecto
de multiplicar A por la derecha por Cij (α) es sumar a la columna i la j multiplicada por α.

Lema. 4.1 Las matrices elementales son regulares y sus inversas son:

(Pij )−1 = Pji (Fi (α))−1 = Fi (1/α) (Fij (α))−1 = Fij (−α)
(Qij )−1 = Qji (Ci (α))−1 = Ci (1/α) (Cij (α))−1 = Cij (−α)

Una matriz A se denomina matriz escalonada por filas, o se dice que está en forma escalonada
por filas, si se cumplen las dos condiciones siguientes:

• Todas las filas nulas, si las hay, están en la parte inferior de la matriz.
• Cada entrada principal (primera entrada no nula en una fila de una matriz) no nula está a la
derecha de la entrada principal no nula de la fila de la fila precedente.

Se dice que una matriz escalonada por filas A se ha puesto en forma canónica por filas si tiene
las dos propiedades adicionales siguientes:

• Cada entrada principal no nula es 1.


• Cada entrada principal no nula es la única entrada distinta de cero en su columna.

El siguiente algoritmo reduce por filas una matriz A a forma escalonada:

1. Encontrar la primera columna con una entrada no nula. Supongamos que es la columna j1 .
2. Intercambiar las filas de forma que aparezca una entrada no nula en la primera fila de la
columna j1 , esto es, conseguir que a1j1 6= 0.

3. Utilizar a1j1 como pivote para obtener cero bajo él.


4. Repetir los pasos 1, 2 y 3 con la submatriz formada por todas las filas, excluyendo la primera.
5. Continuar el proceso anterior hasta que la matriz quede en forma escalonada.

El siguiente algoritmo reduce por filas una matriz escalonada a su forma canónica por filas. Aquı́
A está en forma escalonada, digamos con entrada principales no nulas: a1j1 , a2j2 , . . . , arjr .
TEORÍA DE ÁLGEBRA I. DIPLOMATURA DE ESTADÍSTICA 7

1
1. Multiplicar la última fila no nula por arjr de forma que la entrada principal no nula sea 1.

2. Utilizar arjr = 1 como pivote para obtener ceros sobre él.


3. Repetir los pasos 1 y 2 para las filas anteriores.
1
4. Multiplicar la fila 1 por a1j1 .

Los anteriores algoritmos muestran que cualquier matriz es equivalente por filas a al menos una
matriz en forma canónica por filas. Admitiremos, sin demostración, que dicha matriz es única. Lo
que podemos enunciar en el siguiente teorema:

Teorema. 4.2 Cualquier matriz A es equivalente por filas a una única matriz en forma canónica
por filas (llamada la forma canónica por filas de A).

Si una matriz A está en forma escalonada, sus entradas principales no nulas se denominan
entradas pivote.
Lo dicho para filas se extiende de manera obvia a transformaciones elementales por columnas.

Teorema. 4.3 Sea A una matriz cuadrada. Entonces son equivalentes las aserciones siguientes:

1. A es invertible (no singular).


2. A es equivalente por filas a la matriz identidad I.
3. A es producto de matrices elementales.

Teorema. 4.4 Si AB = I, entonces BA = I, y por tanto B = A−1 .

Los dos últimos teoremas nos permiten calcular la inversa de una matriz A mediante transfor-
maciones elementales por filas: Si A es equivalente por filas a I, sea Es · · · E2 E1 A = I, entonces
A−1 = Es · · · E2 E1 , luego si mediante transformaciones elementales de filas llevamos A a la matriz
unidad, realizando las mismas transformaciones en la matriz I obtenemos la matriz inversa A−1 .
El siguiente teorema es válido para matrices rectangulares m × n.

Teorema. 4.5 B es equivalente por filas a A si y solo si existe una matriz no singular P , tal que
B = PA

Las transformaciones elementales nos servirán, también, para poder transformar una matriz A
en otra lo más parecida posible a la identidad. Este proceso es de gran utilidad en el cálculo de la
matriz inversa de una matriz regular y en el cálculo del rango de una matriz y de un conjunto de
vectores, ası́ como en el cálculo de determinantes.
Se dice que una matriz B es equivalente a otra A si B puede obtenerse de A mediante una
sucesión de transformaciones elementales entre filas y columnas.

Teorema. 4.6 Dada A ∈ Mm×n , existen dos matrices regulares, P ∈ Mm y Q ∈ Mn tales que,
para cierto r ∈ N:  
Ir Θ
P AQ =
Θ Θ
siendo P y Q producto de matrices elementales por filas y por columnas, respectivamente.
TEORÍA DE ÁLGEBRA I: Tema 3: Determinantes. DIPLOMATURA DE ESTADÍSTICA 1

Tema 3: Determinantes
1 Definición de determinante: Propiedades
Históricamente la teorı́a de los determinantes precedió a la teorı́a de matrices, y muchos resultados
familiares de la teorı́a de matrices fueron originalmente formulados en términos de determinantes.
Hoy dı́a, la teorı́a de determinantes no juega un papel central en el álgebra lineal, pero hay ciertos
aspectos en los que los determinantes ofrecen una interpretación más natural, o una prueba más
sencilla de algunos resultados. Por ello, el interés de los determinantes, sobre todo para matrices de
orden elevado, es, fundamentalmente, teórico.

Notación : 1.1 A lo largo de todo este tema sólo consideraremos matrices cuadradas y, como ya
se hizo en el tema anterior, dada una matriz A ∈ Mn escribiremos:
 
A = a1 a2 · · · an

para indicar que las columnas de A son a1 , a2 , . . . , an (en ese orden).

Definición. 1.2 Llamaremos función determinante a una aplicación:

det : Mn → R

que a cada matriz cuadrada de orden n le asocia un escalar, que denotamos por det(A) (y en algunos
textos por |A|), de tal modo que se verifican las siguientes propiedades:

1) Multilinealidad:
a) Dados A = [a1 |a2 | · · · |an ] ∈ Mn y α ∈ R si tenemos, para algún i (1 ≤ i ≤ n),
 
B = a1 a2 · · · αai · · · an ∈ Mn

entonces,
det(B) = αdet(A).
b) Si A = [a1 |a2 | · · · |ai | · · · |an ] ∈ Mn , siendo ai = b + c, para cierto i (1 ≤ i ≤ n), se tiene:
i)
z}|{
det(A) = det([a1 |a2 | · · · | b | · · · |an ])+
+det([a1 |a2 | · · · | |{z}
c | · · · |an ])
i)

2) Antisimetrı́a:
Si una matriz B, se obtiene a partir de otra matriz A, intercambiando entre si dos columnas
distintas, entonces
det(B) = −det(A).

3) Normalidad:
Si In es la matriz identidad de orden n, entonces:

det(In ) = 1.

Puede demostrarse que, para cada n, sólo existe una función que satisface las propiedades de
la definición. De este modo, dada A ∈ Mn , el valor det(A) está definido de manera única y lo
llamaremos el determinante de A. De hecho, a partir de las tres propiedades básicas del determinante
podemos calcular los determinantes de las matrices elementales y probar nuevas propiedades.
TEORÍA DE ÁLGEBRA I: Tema 3: Determinantes. DIPLOMATURA DE ESTADÍSTICA 2

Proposición. 1.3 Sea A ∈ Mn . Se verifica:

a) Si A tiene una columna de ceros, entonces det(A) = 0.


b) Si A tiene dos columnas iguales, entonces det(A) = 0.
c) Si A tiene dos columnas proporcionales, entonces det(A) = 0.
d) Si B es una matriz que se obtiene a partir de A sumándole a una columna un múltiplo de otra,
entonces det(A) = det(B).

Las propiedades a), b), c) de esta última proposición pueden generalizarse de la siguiente manera:

Definición. 1.4 Decimos que la columna i-ésima de la matriz


A = [a1 | · · · |ai | · · · |an ] ∈ Mn
es combinación lineal de las demás, si existen λ1 , . . . , λi−1 , λi+1 , . . . , λn ∈ R tales que:
n
X
ai = λj aj .
j=1
j6=i

Proposición. 1.5 Dada A ∈ Mn , si una columna de A es combinación lineal de las demás, entonces
det(A) = 0.

Proposición. 1.6 Dados i y j, con 1 ≤ i ≤ n y 1 ≤ j ≤ n, i 6= j, se verifica:

1) det(Qij ) = −1.
2) det(Ci (α)) = α, para todo α ∈ R.
3) det(Cij (α)) = 1, para todo α ∈ R.

El siguiente resultado, que admitiremos sin demostración, tendrá importantes consecuencias.

Teorema. 1.7 Dadas A, B ∈ Mn , se verifica:


det(AB) = det(A)det(B).

Utilizando este resultado podemos probar que el determinante de cualquier matriz es igual al de
su traspuesta. Para ello necesitamos algunos resultados previos:

Lema. 1.8 Sean i, j: 1 ≤ i ≤ n, 1 ≤ j ≤ n e i 6= j, α ∈ R. Se verifica:

1) det(Qtij ) = det(Qij ) = −1.


2) det(Ci (α)t ) = det(Ci (α)) = α.
3) det(Cij (α)t ) = det(Cij (α)) = 1.

Nota. 1.9 Dado que se tiene Pij = Qtij , Fi (α) = Ci (α)t y Fij (α) = Cij (α)t , el anterior lema nos
permite concluir:
det(Pij ) = det(Pijt ) = −1
det(Fi (α)) = α = det(Fi (α)t ) ya que Fi (α) = Ci (α)
det(Fij (α)) = det(Fij (α)t ) = 1 ya que Fij (α) = Cij (α)t

Teorema. 1.10 Dada A ∈ Mn , se verifica:


det(A) = det(At ).

Nota. 1.11 Gracias a este último teorema todas las propiedades anteriores son válidas cam-
biando en su enunciado columnas por filas.
TEORÍA DE ÁLGEBRA I: Tema 3: Determinantes. DIPLOMATURA DE ESTADÍSTICA 3

2 Cálculo de determinantes: desarrollo por los elementos de


una lı́nea
A continuación veremos como calcular, de manera efectiva, el determinante de una matriz.
Si el orden de la matriz es bajo, por ejemplo para matrices de orden 2 o 3, podemos obtener
expresiones explı́citas, bastante simples, para su determinante. En concreto, tenemos los siguientes
resultados:
 
a11 a12
1) Si A = ∈ M2 , entonces
a21 a22
 
a11 a12
det(A) = det( ) = a11 a22 − a12 a21 .
a21 a22

2) Si A = (aij ) ∈ M3 , entonces

det(A) = a11 a22 a33 + a12 a23 a31 + a13 a21 a32
−(a12 a21 a33 + a13 a22 a31 + a11 a23 a32 )

Esta identidad se conoce como Regla de Sarrus.

Es posible obtener expresiones similares a éstas para matrices de orden arbitrario, sin embargo,
para n ≥ 4 las expresiones obtenidas son demasiado complicadas para ser utilizadas en la práctica.
Por consiguiente, será necesario un método más práctico para calcular el determinante de una matriz
de orden elevado.

Definición. 2.1 Si A ∈ Mn , denotaremos por A(i|j) la submatriz de A que se obtiene suprimiendo


la fila i y la columna j. A(i|j) es, por tanto, cuadrada de orden n − 1.
El número det(A(i|j)) se denomina menor complementario del elemento aij de A y se suele
denotar por Mij .
Llamaremos adjunto (o cofactor) del elemento aij de A, al número

Aij = (−1)i+j Mij = (−1)i+j det(A(i|j)).

Definición. 2.2 Si A = (aij ) ∈ Mn y, para cada i, j (1 ≤ i, j ≤ n) Aij es el adjunto de aij , la


matriz
adj(A) = (Aij )t ,
se llama matriz adjunta de A.

El resultado central de esta sección es el siguiente, que admitiremos sin demostración:

Teorema. 2.3 Sea A = (aij ) ∈ Mn . Se verifica:

n
X
1) ∀i = 1, . . . , n, det(A) = aik Aik = ai1 Ai1 + ai2 Ai2 + · · · + ain Ain .
k=1

n
X
2) ∀j = 1, . . . , n, det(A) = akj Akj = a1j A1j + a2j A2j + · · · + anj Anj .
k=1

En el caso 1) decimos que det(A) ha sido calculado desarrollándolo por los adjuntos de la fila i-ésima
y, en el caso 2), det(A) ha sido calculado desarrollándolo por los adjuntos de la j-ésima columna.
TEORÍA DE ÁLGEBRA I: Tema 3: Determinantes. DIPLOMATURA DE ESTADÍSTICA 4

Nota. 2.4 Si tomamos una fila, la k-ésima, con k 6= i, y calculamos


n
X
aij Akj
j=1

es decir, los adjuntos de la fila k por los elementos correspondientes de otra fila (la i-ésima en este
caso), lo que obtenemos es el determinante de la matriz B que resulta de sustituir la fila k por la
fila i. De este modo B tiene dos filas iguales y su determinante es cero. Y lo mismo sucede por
columnas.
En resumen, la situación es la siguiente:
n 
X det(A) si i = k
aij Akj = (1 ≤ i, k ≤ n)
0 si i 6= k
j=1

n 
X det(A) si j = k
aij Aik = (1 ≤ j, k ≤ n)
0 6 k
si j =
i=1

El último teorema, junto con las propiedades enunciadas en la sección anterior, nos facilitan el
cálculo efectivo de un determinante cuando el orden de la matriz es elevado. Gracias a él tenemos:

Corolario. 2.5 El determinante de una matriz triangular superior (o inferior) es igual al producto
de los elementos de su diagonal. En particular, el determinante de una matriz diagonal D =
diag(d1 , . . . , dn ) es
det(D) = d1 d2 . . . dn .

Nota. 2.6 Dado que calcular el determinante de una matriz triangular es extraordinariamente sim-
ple, un método muy empleado en la práctica, a la hora de calcular el determinante de una matriz
cualquiera, es aplicar a dicha matriz transformaciones elementales que no cambien el valor de su
determinante, salvo quizá en el signo, hasta llevarla a una forma triangular superior para la cual
resulta fácil calcularlo.

3 Matrices regulares
Una de las principales aplicaciones de los determinantes es la de proporcionar un criterio, formal-
mente muy simple, para determinar si un matriz cuadrada es regular o no. Además, proporciona
una expresión bastante sencilla de la inversa de una matriz regular.

Teorema. 3.1 Una matriz cuadrada A es regular si y sólo si det(A) 6= 0. En concreto, se verifica:

A(adj(A)) = adj(A)A = (det(A))I.

Por tanto, si det(A) 6= 0, tendremos


1
A−1 = adj(A).
det(A)

Para terminar añadimos un resultado que nos será util en los temas siguientes:

Teorema. 3.2 Una matriz cuadrada, triangular inferior (superior) con diagonal unidad, es regular
y su matriz inversa es una matriz del mismo tipo.
TEORÍA DE ÁLGEBRA: Tema 5. DIPLOMATURA DE ESTADÍSTICA 1

Tema 5: Sistemas de ecuaciones lineales.


1 Definiciones generales
Definición. 1.1 Una ecuación lineal con n incognitas es una expresión del tipo

a1 x1 + · · · + an xn = b

donde a1 , . . . , an , b ∈ R y x1 , . . . , xn son variables.


Llamaremos sistema de ecuaciones lineales a un conjunto de ecs. lineales:

 a11 x1 + · · · +a1n xn = b1

(S) : .. .. ..
 . . .
am1 x1 + · · · +amn xn = bm

La matriz A = (aij ) ∈ Mm×n se denomina matriz de coeficientes del sistema (S). La matriz
 
a11 . . . a1n b1
(A|b) =  ... .. ..  ∈ M

... . .  m×(n+1)
am1 . . . amn bm

se denomina matriz ampliada del sistema.


El vector b = (b1 , . . . , bm ) ∈ Rm se denomina término independiente. Si escribimos x= (x1 , . . . , xn )
el sistema (S) puede expresarse como:

(S) : Ax = b.

Diremos que (S) es homogéneo si b = 0.

Definición. 1.2 Dado un S. E. L. Ax = b con A ∈ Mm×n , diremos que a ∈ Rn es una solución


del sistema si
Aa = b.
Diremos que (S) es compatible si posee al menos una solución e incompatible si no poseee ninguna.
Un sistema se llamará compatible determinado si poseee una única solución y compatible inde-
terminado si posee más de una.

Teorema. 1.3 Sean L y L0 la soluciones de Ax = b y Ax = 0, A ∈ Mm×n . Se verifica:

1. L0 6= ∅.
2. L0 es una variedad lineal de Rn

3. Si a ∈ L, L = a + L0

Definición. 1.4 Dos sistemas se ecuaciones (S) : Ax = b y (S 0 ) : A0 x = b0 se denominan equiva-


lentes si poseen las mismas soluciones, es decir:

∀ a ∈ Rn , Aa = b ⇐⇒ A0 a = b0 .

Definición. 1.5 Un sistema (S) : Ax = b se dice triangular superior (resp. inferior) si su matriz
de coeficientes, A, es triangular superior (resp. inferior).
TEORÍA DE ÁLGEBRA: Tema 5. DIPLOMATURA DE ESTADÍSTICA 2

Proposición. 1.6 Sea A ∈ Mm×n y C ∈ Mn regular, entonces el sistema (S) : Ax = b es


equivalente a (S 0 ) : (CA)x = Cb.

Corolario. 1.7 Si en un sistema

• Intercambiamos 2 ecuaciones.
• Multiplicamos una ecuación por un número α 6= 0.
• Sumamos a una ecuación otra multiplicada por α.

obtenemos otro equivalente al primero.

Corolario. 1.8 Sea (S) : Ax = b un S. E. L. con A ∈ Mm×n , entonces (S) es equivalente a un


sistema en el cual la matriz ampliada es escalonada por filas.

Este último corolario es la base del método de Gauss para resolver sistemas de ecuaciones lineales,
que describiremos un poco más adelante.

Corolario. 1.9 Sea (S) : Ax = b un S. E. L. con A ∈ Mm×n , entonces (S) es equivalente a un


sistema cuya matriz ampliada es escalonada canónica por filas.

2 Regla de Cramer. El teorema de Rouché-Frobenius


Definición. 2.1 Un S. E. L. (S) : Ax = b se denomina cuadrado si A ∈ Mn .
Un sistema (S) : Ax = b se denomina de Cramer si es cuadrado y, además,

det(A) 6= 0.

Teorema. 2.2 (Regla de Cramer)


Si (S) : Ax = b, A ∈ Mn , es un sistema de Cramer, entonces (S) tiene una única solución
a = (α1 , . . . , αn ), dada por

(i
a11 · · · b1 · · · a1n
1
αi = .. .. .. ∀ i = 1, . . . , n.
det(A) .
. .
a
n1 · · · b n · · · ann

Este teorema proporciona un método, la llamada regla de Cramer, para resolver un sistema de
ecuaciones cuadrado compatible. Sin embargo, este método no resulta conveniente en la práctica,
debido al excesivo número de operaciones que requiere. Debido a ello, suele utilizarse el Método de
Gauss que consiste en lo siguiente:
Dada A ∈ Mn regular y b∈ Rn , podemos encontar una matriz P ∈ Mn regular, producto de
transformaciones elementales por filas, tal que

T = PA

es triangular superior. En consecuencia, por la proposición 1.6, el sistema de ecuaciones (S) : Ax = b


es equivalente al sistema
(S 0 ) : T x = b0
siendo b0 = P b. Por tanto, las soluciones de (S) son las soluciones de (S 0 ), que resulta mucho mas
fácil resolver.
TEORÍA DE ÁLGEBRA: Tema 5. DIPLOMATURA DE ESTADÍSTICA 3

Número de operaciones
Utilizaremos las conocidas fórmulas (que pueden demostrarse por inducción):
n n
X n(n + 1) X n(n + 1)(2n + 1)
i= , i2 =
i=1
2 i=1
6

• Método de Gauss
1. Triangularizar:
Si suponemos que hemos triangularizado hasta la fila i, podemos suponer que aii 6= 0,
pues si no intercambiamos dos filas que no supone ninguna operación. Para anular ai+1i
tenemos que realizar fi+1 − aai+1i
ii
fi , llamando fi a la fila i-ésima, lo que supone 1 división
y n − i + 1 multiplicaciones (quedan n − (i − 1) elementos en la fila i de la matriz del
sistema, pero hay que descontar el de ai+1i que sabemos que sale 0 y sumar el del término
independiente, o sea en total n − i + 1) y n − i + 1 restas; y eso hay que hacerlo en n − i
filas, luego quedan en total 2(n − i + 1)(n − i) + (n − i) operaciones (el primer sumando
corresponde a las multiplicaciones y restas y el segundo a las divisiones). Por tanto,
sumando las correspondientes a las n filas:
n
X n
X n
X n
X
[2(n − i + 1)(n − i) + (n − i)] = (n − i) [2(n − i) + 3] = 2 (n − i)2 + (n − i) =
i=1 i=1 i=1 i=1

(n − 1)n(2(n − 1) + 1) 3(n − 1)n 4n3 + 3n2 − 7n 2


2 + = ≈ n3
6 2 6 3
2. Método de subida (sustitución regresiva)
Para despejar xi en la ecuación aii xi + aii+1 xi+1 + . . . + ain xn = bi hace falta realizar
n − i multiplicaciones, n − i sumas o restas y 1 división, luego en total tenemos:
n
X (n − 1)n
[2(n − i) + 1] = 2 + n = n2
i=1
2

Luego para resolver el sistema por el método de Gauss el número de operaciones a realizar es:
4n3 + 3n2 − 7n 4n3 + 9n2 − 7n
+ n2 =
6 6

• Regla de Cramer
Tenemos que calcular n + 1 determinantes.
1. Calculando los determinantes por σ (−1)σ a1σ(1) . . . anσ(n) tenemos que realizar n − 1
P
multiplicaciones y eso n! veces y sumar los n! sumandos, luego para el cálculo de cada
determinante necesitamos n!(n − 1) + (n! − 1) operaciones y eso para n + 1 determinantes,
y luego realizar las n divisiones, por tanto tenemos:

(n + 1) [n!(n − 1) + (n! − 1)] + n = (n + 1)!(n − 1) + (n + 1)! − n − 1 + n =

= (n + 1)!(n − 1 + 1) − 1 = (n + 1)!n − 1
2. Usando eliminación gaussiana para calcular cada determinante, es decir, triangularizando
cada determinante:
Suponiendo que se ha triangularizado hasta la fila i, tenemos que calcular fi+1 − aai+1i
ii
fi ,
luego tenemos que hacer 1 división, n − i multiplicaciones y n − i restas y eso en n − i
filas, luego nos queda:
n
X  4n3 − 3n2 − n
2(n − i)2 + (n − i) =

i=1
6
TEORÍA DE ÁLGEBRA: Tema 5. DIPLOMATURA DE ESTADÍSTICA 4

Y ahora tenemos que hacer n − 1 multiplicaciones para el cálculo de un determinante;


como son n + 1 determinantes y n divisiones tenemos:
 3
4n − 3n2 − n

(n + 1) +n−1 +n
6

Para n = 25, realizando 106 operaciones por segundo se tardarı́a:

4×253 +9×252 −7×25 11325


• Por Gauss: 6 = 11325 operaciones. Por tanto: 106 = 0.011325 segundos.
22
1.00822×10
• Por Cramer: 1.00822 × 1028 operaciones. Luego serı́a en años: 36×24×60×60 = 3.197 × 1014
años.
h 3 2
i
• Por Cramer, triangularizando los determinantes: 26 4×25 −3×25
6
−25
+ 24 + 25 = 263249
operaciones, lo que supondrı́a 0.263249 segundos.

Nota. 2.3 Por tanto: En términos del número de operaciones que cada método requiere para re-
solver un sistema cuadrado de orden n, el método de Gauss resulta ser mucho más eficiente que
la regla de Cramer. De manera aproximada, el método de Gauss requiere, aproximadamente, 32 n3
operaciones mientras que la regla de Cramer exige, también de manera aproximada y suponiendo
que los determinantes se calculan mediante eliminación gaussiana, 32 n4 .

Teorema. 2.4 Dada A ∈ Mn el sistema (S) : Ax = b es compatible determinado si y sólo si


det(A) 6= 0. En otras palabras, un sistema cuadrado tiene una única solución si y sólo si es de
Cramer.

Definición. 2.5 Dada A ∈ Mm×n definimos:

• El espacio fila de A, F (A), es la variedad lineal de Rn generada por las filas de A. F (A) =
{xt A : x ∈ Rm } o bien escritos por columnas como F (A) = {At x : x ∈ Rm }.
• El espacio columna de A es la v. l. de Rm , generada por las columnas de A. C(A) = {Ax :
x ∈ Rn }.
• El espacio nulo de A se define como N (A) = {u ∈ Rn : Au = 0}.

Proposición. 2.6 Dada A ∈ Mm×n , F (A), C(A) y N (A) son variedades lineales.

Proposición. 2.7 1. Si A y B son equivalentes por filas, entonces F (A) = F (B) y N (A) =
N (B).
2. Si A y B son equivalentes por columnas C(A) = C(B)

Teorema. 2.8 Si A ∈ Mm×n entonces

n = dim(N (A)) + dim(C(A))


= dim(N (A)) + r(A)

Teorema. 2.9 (de Rouché-Frobenius)


Sea A ∈ Mm×n , b ∈ Rm y (S) : Ax = b. Sea (A|b) la matriz ampliada de (S). Se verifica:

1) (S) es compatible si sólo si r(A) = r((A|b)).


2) a) Si b = 0, el conjunto de soluciones de (S) es una variedad lineal de dimensión n − r,
siendo r = r(A).
TEORÍA DE ÁLGEBRA: Tema 5. DIPLOMATURA DE ESTADÍSTICA 5

b) Si b 6= 0 y (S) es compatible, toda solución de (S) es de la forma x1 + x0 , donde Ax1 = b


y Ax0 = 0.

Nota. 2.10 Como consecuencia del teorema de Rouché-Frobenius, dado el sistema (S) : Ax = b,
con A ∈ Mm×n y b ∈ Rm , podemos asegurar que:

(S) es compatible ⇐⇒ r(A) = r((A|b)),

y además, en tal caso:

1) Si r(A) = n entonces (S) es compatible determinado.


2) Si r(A) < n entonces (S) es compatible indeterminado.

3 Ecuaciones de variedades lineales


1) Ecuaciones paramétricas:
Sea W ⊆ Rn una variedad lineal y B = {a1 , . . . , ar } una base de W . Dado x ∈ W , existen
λ1 , . . . , λr ∈ R tales que
X r
x= λi ai .
i=1

Si x = (x1 , . . . , xn ) y, para cada i = 1, . . . , r,

ai = (a1i , . . . , ani ),

entonces,
       
x1 a11 a1r λ1 a11 + ··· λr a1r
 x2   a21   a2r   λ1 a21 + ··· λr a2r 
 = λ1   + · · · + λr  = .
       
 .. .. .. .. ..
 .   .   .   . . 
xn an1 anr λ1 an1 + · · · λr anr

Por tanto, x ∈ W si y sólo si existen λ1 , . . . , λr ∈ R verificando:




 x1 = λ1 a11 + ··· λr a1r
 x2 = λ1 a21 + ··· λr a2r

(1) ..
 .


xn = λ1 an1 + ··· λr anr

Estas son unas ecuaciones paramétricas de W .

Nota. 3.1 Las ecuaciones paramétricas NO son únicas.

2) Ecuaciones implı́citas:
Continuemos con la variedad W y su base B consideradas anteriormente. Las ecs. paramétricas
de W dadas por (1), pueden ser escritas como un S. E. L.

(E) : Aλ = x,

siendo λ = (λ1 , . . . , λr ) y A = [a1 | . . . |ar ] ∈ Mn×r . Es obvio que

x∈W ⇐⇒ (E) es compatible


⇐⇒ r(A) = r((A|x)).
TEORÍA DE ÁLGEBRA: Tema 5. DIPLOMATURA DE ESTADÍSTICA 6

Sea P ∈ Mn regular tal que P A es triangular superior. Puesto que r(A) = r, tenemos
 
Tr
PA =
Θ
siendo Tr ∈ Mr regular. Si descomponemos P en dos bloques,
   
Pr Pr x
Px = x= .
Pn−r Pn−r x
Por tanto, multiplicando por bloques:
 
Tr Pr x
P · (A|x) = (P A|P x) =
Θ Pn−r x
En consecuencia,
r((A|x)) = r(A) = r ⇐⇒ Pn−r x = 0.
Lo que nos da como ecuaciones implı́citas de W el S. E. L.:
Pn−r x = 0.

Nota. 3.2 Al igual que antes las ecuaciones implı́citas de W NO son únicas. Además, si
dim(W ) = r entonces W ⊆ Rn tiene n − r ecs. implı́citas linealmente independientes.

4 Operaciones con variedades


Definición. 4.1 Dadas L1 , L2 ⊆ Rn variedades lineales, definimos:
L1 ∩ L2 = {u ∈ Rn : u ∈ L1 y u ∈ L2 }
L1 + L2 = {u ∈ Rn : ∃ v1 ∈ L1 , ∃ v2 ∈ L2 , u = v1 + v2 }.
L1 ∩ L2 se denomina variedad intersección de L1 y L2 . L1 + L2 se denomina variedad suma.

Proposición. 4.2 Si L1 , L2 ⊆ Rn son v. l., entonces L1 ∩ L2 y L1 + L2 también son variedades


lineales. Además, L1 + L2 es la menor variedad lineal que contiene a L1 y a L2 .

Definición. 4.3 Dadas L, L1 , L2 ⊆ Rn , diremos que L es suma directa de L1 y L2 , y lo denotamos


por L = L1 ⊕ L2 , si
L1 + L2 = L y L1 ∩ L2 = {0}.

Proposición. 4.4 Dadas L, L1 , L2 ⊆ Rn , entonces L = L1 ⊕ L2 si y sólo si


∀ x ∈ L, ∃! x1 ∈ L1 , ∃! x2 ∈ L2 : x = x1 + x2 .

Proposición. 4.5 Dada L ⊆ Rn , una variedad lineal, existe una variedad L0 ⊆ Rn tal que:
Rn = L ⊕ L0 .
Dicha variedad L0 se denomina v. l. complementaria de L.

Nota. 4.6 La variedad complementaria no es única.

Teorema. 4.7 (Fórmula de la dimensión)


Dadas las variedades lineales L1 , L2 ∈ Rn , se verifica:
dim(L1 + L2 ) = dim(L1 ) + dim(L2 ) − dim(L1 ∩ L2 ).
En particular, si L = L1 ⊕ L2 , entonces
dim(L) = dim(L1 ) + dim(L2 ).
TEORÍA DE ÁLGEBRA: Tema 6. DIPLOMATURA DE ESTADÍSTICA 1

Tema 6: Métodos directos para la resolución de S.E.L.


1 Descomposición LR
Sea A ∈ Mn tal que det(A) 6= 0, es decir, el S. E. L. (S) : Ax = b es compatible determinado.
Supongamos que el método de Gauss puede ser aplicado a (S) sin necesidad de intercam-
biar filas. En estas condiciones el método de Gauss puede describirse como sigue:
(1) (1) (1)
Paso 1: Si escribimos A = A(1) y b = b(1) existen m2 , . . . , mn−1 , mn ∈ R tales que el sistema
(S) : A(1) x = b(1) es equivalente a
(S2 ) : A(2) x = b(2)
siendo
(1) (1) (1)
A(2) = Fn1 (mn ) · F(n−1)1 (mn−1 ) · · · F21 (m2 ) · A(1)
(1) (1) (1)
b(2) = Fn1 (mn ) · F(n−1)1 (mn−1 ) · · · F21 (m2 ) · b(1)
A(2) tiene ceros bajo la diagonal en su primera columna y, si definimos
(1) (1) (1)
F (1) = Fn1 (mn ) · F(n−1)1 (mn−1 ) · · · F21 (m2 ) entonces
 
1 0 0 ... 0
 m(1) 1 0 . . . 0 
 2 
 (1)
(1) m 0 1 ... 0

F =  .3

 . .. .. . . .. 
.

 . . . . 
(1)
mn 0 0 ... 1
y A(2) = F (1) A(1) , b(2) = F (1) b(1) .
Paso k: Supongamos construido el sistema
(Sk ) : A(k) x = b(k)
tal que A(k) tiene ceros bajo la diagonal en sus primeras k − 1 columnas. Puesto que podemos
(k) (k) (k)
aplicar el método de Gauss sin intercambiar filas, existen mk+1 , . . . , mn−1 , mn ∈ R tales
que el sistema
(Sk ) : A(k) x = b(k)
es equivalente a
(Sk+1 ) : A(k+1) x = b(k+1)
siendo
(k) (k) (k)
A(k+1) = Fnk (mn ) · F(n−1)k (mn−1 ) · · · F(k+1)k (mk+1 ) · A(k)
(k) (k) (k)
b(k) = Fnk (mn ) · F(n−1)k (mn−1 ) · · · F(k+1)k (mk+1 ) · b(k)
A(k+1) tiene ceros bajo la diagonal en sus k primeras columnas y si definimos
(k) (k)
F (k) = Fnk (m(k)
n ) · F(n−1)k (mn−1 ) · · · F(k+1)k (mk+1 )

entonces  
k)
 1 ... 0 0 ... 0 
 .. . . .. .. .. .. 

 . . . . . . 
 0 ... 1 0 ... 0 
F (k)
 
=
 0 ... 0 1 ... 0  
(k)
0 ... 0 mk+1 ... 0 
 

 .. . . .. .. .. .. 
. . . . . . 
 

(k)
0 ... 0 mn ... 1
TEORÍA DE ÁLGEBRA: Tema 6. DIPLOMATURA DE ESTADÍSTICA 2

y A(k+1) = F (k) A(k) , b(k+1) = F (k) b(k) .

Al cabo de n − 1 pasos obtenemos un sistema


(Sn ) : A(n) x = b(n)
triangular superior tal que A(n) = F (n−1) F (n−2) · · · F (1) A. Sea
T = F (n−1) F (n−2) · · · F (1) .
Claramente, T es triangular inferior con 10 s en la diagonal, por serlo cada una de las F (i) , luego
L = T −1 también es triangular inferior con 1’s en la diagonal. De hecho,
 
1 0 0 ... 0
 −m(1) 1 0 ... 0 
 2 
(1) (2)
−m −m 1 . . . 0
 
L=  3 3 
.. .. .. .. .. 
. . 
 
 . . .
(1) (2) (3)
−mn −mn −mn ... 1

Sea ahora, R = A(n) . Entonces,


R = TA ⇐⇒ A = LR,
siendo R regular y triangular superior y L triangular inferior con unos en la diagonal. Hemos probado
ası́, el siguiente

Teorema. 1.1 Dado un S. E. L. (S) : Ax = b tal que A ∈ Mn y det(A) 6= 0 si podemos aplicar el


método de Gauss a (S) sin necesidad de intercambiar filas, existe una matriz triangular inferior con
diagonal unidad, L, y una matriz regular y triangular superior, R, tal que
A = LR.
Decimos en tal caso que A posee factorización (o descomposición) LR.

Teorema. 1.2 Sea A una matriz cuadrada regular. Si existe la descomposición LR de A entonces
es única.

Nota. 1.3 Dado un sistema de ecuaciones lineales (S) : Ax = b, si la matriz A posee factorización
LR entonces podemos resolverlo del siguiente modo:

1) Calculamos la factorización LR de A.
2) Resolvemos el sistema Ly = b.
3) Una vez obtenida la solución y, resolvemos el sistema Rx = y.

Esto proporciona una solución de (S), ya que tenemos


Ax = b ⇐⇒ L |{z}
Rx = b ⇐⇒ Ly = b.
=y

La ventaja de este método, a la hora de resolver varios S. E. L.,


(SL1 ) : Ax = b1 , . . . , (SLr ) = Ax = br
con la misma matriz de coeficientes, A, es evidente, puesto que, una vez calculada la factorización
LR de A, lo que puede hacerse de una vez por todas, resolver cada uno de los sistemas (SLi ), sólo
requiere una aplicación del método de bajada (para resolver Ly = bi ) y una aplicación del método
de subida (para resolver Rx = y), es decir, sólo del orden de 2n2 operaciones para cada uno de ellos
, una vez factorizada A.
TEORÍA DE ÁLGEBRA: Tema 6. DIPLOMATURA DE ESTADÍSTICA 3

Número de operaciones.- Veamos el número de operaciones necesarias para resolver Ly = b.


i − 1 multiplicaciones, i − 2 sumas, 1 resta
Para despejar yi de ai1 y1 + . . . + aii yi = bi hacen falta P
n
y 1 división, luego en total tenemos 2(i−1)+1. Por tanto i=1 (2(i−1)+1) = 2(n−1)n/2+n = n2 .
Ahora bien, como los aii son 1, nos ahorramos n divisiones, luego necesitamos n2 − n.
Para resolver Rx = y ya se vió en el tema 4 que hacı́an falta n2 operaciones.
Por lo tanto para resolver cada nuevo sistema necesitamos 2n2 − n operaciones en lugar de las
(4n + 9n2 − 7n)/6 necesarias por el método de Gauss (ver tema 4).
3

A continuación veremos condiciones suficientes para garantizar la existencia de la descomposición


LR.

Definición. 1.4 Sea A = (aij ) ∈ Mn , llamaremos submatriz fundamental de A de orden k, (1 ≤


k ≤ n), a la matriz  
a11 . . . a1k
Ak =  ... .. .. 

. . 
ak1 ... akk

Teorema. 1.5 Sea A una matriz regular de orden n. Son equivalentes:

1) Existe la descomposición LR de A.
2) det(Ak ) 6= 0, ∀k = 1, . . . , n.

Definición. 1.6 Una matriz A ∈ Mn simétrica se denomina definida positiva (resp. semidefinida
positiva) si:
∀x ∈ Rn , x 6= 0, xt Ax > 0 (resp. xt Ax ≥ 0).

Teorema. 1.7 Sea A ∈ Mn simétrica. Son equivalentes:

1) A es definida positiva.
2) det(Ak ) > 0, ∀k = 1, . . . , n.

Nota. 1.8 De paso hemos demostrado que A simétrica es definida positiva si y solo si todos los
pivotes (sin intercambio de filas) son mayores que 0.

Del teorema anterior se sigue:

Teorema. 1.9 Si A es simétrica definida positiva entonces existe la descomposición LR de A.

A continuación veremos como obtener la descomposición LR de una matriz de manera directa:


Cálculo directo de la factorización LR:
Sea A ∈ Mn tal que existen L = (lij ) ∈ Mn triangular inferior con diagonal unidad y R =
(rij ) ∈ Mn regular y triangular superior tales que A = LR, es decir,
     
a11 a12 . . . a1n 1 0 ... 0 r11 r12 . . . r1n
 a21 a22 . . . a2n   l21 1 ...0   0 r22 . . . r2n 
..  =  ..  ·  ..
     
 .. .. .. .. .. .. .. .. .. 
 . . . .   . . ..   . . . . 
an1 an2 ... ann ln1 ln2 . . . 1 0 0 . . . rnn

Multiplicando la primera fila de L por R obtenemos:

r1k = a1k , ∀k = 1, . . . , n.
TEORÍA DE ÁLGEBRA: Tema 6. DIPLOMATURA DE ESTADÍSTICA 4

Además, ∀ i = 1, . . . , n, li1 r11 = ai1 , luego


ai1
∀i = 1, . . . , n, li1 = .
a11
Multiplicando la segunda fila de L por R:

∀i = 2, . . . , n, l21 r1i + r2i = a2i

lo que nos permite obtener la segunda fila de R

∀i = 2, . . . , n, r2i = a2i − l21 r1i .

Además, ∀i = 3, . . . , n, li1 r12 + li2 r22 = ai2 , luego


1
∀i = 3, . . . , n, li2 = (ai2 − li1 r12 ) .
r22
En general,
p−1
X
∀ p = 2, . . . , n, ∀ k = p, . . . , n, rpk = apk − lpi rik .
i=1

lo que nos da la p-ésima fila de R, y la p-ésima columna de L:


p−1
1 X
∀ p = 2, . . . , n, ∀ k = p + 1, . . . , n, lkp = (akp − lki rip ).
rpp i=1

2 Factorización de Cholesky
Definición. 2.1 Diremos que una matriz A ∈ Mn , simétrica, posee factorización de Cholesky si
existe una matriz B ∈ Mn , triangular inferior con elementos positivos en la diagonal, tal que

A = BB t .

Proposición. 2.2 La factorización de Cholesky, si existe, es única.

Teorema. 2.3 Si A ∈ Mn es simétrica definida positiva, entonces posee descomposición de Cholesky.

Cálculo directo de la factorización de Cholesky:


Sea A = (aij ) ∈ Mn simétrica definida positiva y B = (bij ) ∈ Mn triangular inferior con
diagonal positiva tal que A = BB t . Entonces,
     
a11 a12 . . . a1n b11 0 ... 0 b11 b21 . . . bn1
 a21 a22 . . . a2n   b21 b22 . . . 0   0 b22 . . . bn2 
=  ·  ..
     
 .. .. .. ..   .. .. . . .. .. .. .. 
 . . . .   . . . .   . . . . 
an1 an2 ... ann bn1 bn2 ... bnn 0 0 ... bnn

Por tanto, ∀ p = 2, . . . , n, ∀ k = p + 1, . . . , n, tenemos


p−1 p−1
X 1 X
bpp = (app − b2pi )1/2 y bkp = (akp − bpi bki )
i=1
bpp i=1
TEORÍA DE ÁLGEBRA: Tema 6. DIPLOMATURA DE ESTADÍSTICA 5

3 Aritmética de punto flotante. Errores de redondeo


El punto flotante es un método para representar números en la memoria de un ordenador. Básica-
mente consiste en lo siguiente:
Un número N ∈ R se representa por
±f.10e
donde:

f se denomina mantisa y, normalmente, aunque dependiendo del ordenador, está formado


por 16 dı́gitos, siendo 0 ≤ f < 1.
e se denomina caracterı́stica y está comprendido, dependiendo de cada ordenador, entre
−308 y 308.

Obviamente, este método tiene varias limitaciones:

1) Sólo pueden representarse una cantidad finita de números reales (de hecho, sólo podemos
representar números racionales).
2) Hay números que no pueden ser representados de manera exacta, con los consiguientes prob-
lemas a la hora de realizar cálculos de manera efectiva.

Para evitar este tipo de problemas suele aumentarse, si es posible, el tamaño de la mantisa, o
emplear el redondeo a una cantidad fija de dı́gitos en la mantisa, a la hora de almacenar números
en la memoria. Una forma de redondear a t dı́gitos es la siguiente:
Dado un número real N con más de t dı́gitos, si el dı́gito t + 1 de N es 5, 6, 7, 8 ó 9, se aumenta
el dı́gito t en una unidad y se desprecian los restantes, a partir de t. Si el dı́gito t + 1 es 0, 1, 2, 3 ó
4 despreciamos todos los dı́gitos a partir de t.
Este modo de proceder provoca algunos resultados indeseados cuando se realiza una gran cantidad
de operaciones, ya que los errores de redondeo se acumulan alejando mucho el resultado final del
que se habrı́a obtenido si los cáculos hubiesen sido exactos. Como ejemplo consideremos el sistema:

x1 − x2 = 0
(S) :
0.01x1 + x2 = 1

(S) es compatible determinado y su solución exacta es


1
x1 = x2 = ≈ 0.9
1.01
Si al resolverlo utilizamos un ordenador que trabaja en punto flotante redondeando a 2 dı́gitos,
obtendremos como solución, aplicando el método de Gauss,

x1 = x2 = 1

la cual es una solución relativamente aceptable. Sin embargo, intercambiando las ecuaciones de (S),
obtendrı́amos el sistema: 
0.01x1 + x2 = 1
x1 − x2 = 0
y, al resolverlo utilizando de nuevo el método de Gauss, halları́amos como solución

x1 = 0 x2 = 1

que está bastante lejos de la solución exacta. La clave de esta fuerte diferencia se encuentra en que
al resolver el segundo sistema hemos utilizado un pivote, 0.01, muy pequeño.
TEORÍA DE ÁLGEBRA: Tema 6. DIPLOMATURA DE ESTADÍSTICA 6

4 Método de Gauss con pivote parcial y total


En muchas ocasiones, al aplicar el método de Gauss a la resolución de un sistema de ecuaciones
resulta necesario el intercambio de filas. Además, como hemos visto en la sección anterior, una
elección de pivotes adecuada puede reducir notablemente los errores de redondeo. Por ello, en
la práctica se utilizan varias estrategias a la hora de elegir los pivotes en el método de Gauss.
Básicamente, tenemos dos posibilidades:

a) Pivote parcial: Se trata de aplicar el método de Gauss eligiendo como pivote, en cada etapa,
el elemento que posee mayor valor absoluto de entre los que se encuentran bajo la diagonal en
la correspondiente colummna. Esto obliga en general a realizar intercambios de filas.
b) Pivote total: Se trata de elegir como pivote, en cada etapa k, el elemento de mayor valor
absoluto de entre los que se encuentran en la submatriz determinada por la intersección de las
k últimas filas y las k últimas columnas. En consecuencia, debemos realizar intercambios de
filas y de columnas.

Los siguientes resultados nos proporcionan la base teórica necesaria para estos métodos:

Teorema. 4.1 (del pivote parcial)


Sea A ∈ Mn regular. Existe una matriz de permutación P ∈ Mn tal que P A posee factorización
LR.

Nota. 4.2 En general, dada A ∈ Mn , si tenemos P A = LR, resolver el sistema (S) : Ax = b es


equivalente a resolver
(S 0 ) : P Ax = P b,
lo cual puede hacerse mediante la descomposición LR que posee P A,

LRx = P b.

Teorema. 4.3 (del pivote total)


Dada A ∈ Mn regular, existen P, Q ∈ Mn matrices de permutación tales que P AQ posee factor-
ización LR.

Nota. 4.4 Dado el sistema (S) : Ax = b, si P AQ = LR podemos resolverlo del siguiente modo:

1) Resolvemos LRy = P b.
2) Una vez obtenida y calcular x = Qy.

Esto nos proporciona la solución de (S) ya que:

Ax = b ⇐⇒ P Ax = P b ⇐⇒ P AQy = P b.
TEORÍA DE ÁLGEBRA I: Tema 4. DIPLOMATURA DE ESTADÍSTICA 1

Tema 4: Estructura vectorial de Rn.


1 Definiciones y propiedades
Definición. 1.1 Denotaremos por Rn al conjunto de todas las n-tuplas de números reales, es decir:

Rn = { (a1 , . . . , an ) : ai ∈ R, i = 1, . . . , n}.

Notaremos los elementos de Rn por a, b, c, etc. y los denominaremos vectores. Además dado
a = (a1 , . . . , an ), para cada i = 1, . . . , n, el número ai se denominará componente i-ésima de a.

Nota. 1.2 Observemos que dados a, b ∈ Rn se tiene

a=b ⇐⇒ ai = bi ∀ i = 1, . . . , n.

En particular, identificaremos cada vector a ∈ Rn , con una matriz columna (de orden n × 1).

Definición. 1.3 Dados a = (a1 , . . . , an ), b = (b1 , . . . , bn ) ∈ Rn definimos la suma de a y b como


el vector
a + b = (a1 + b1 , . . . , an + bn ).

Es fácil comprobar que la suma tiene las siguientes propiedades:

Proposición. 1.4 Dados a, b, c∈ Rn se verifica:

a) Propiedad asociativa:
a + (b + c) = (a + b) + c.

b) Prop. conmutativa:
a + b = b + a.

c) Elemento neutro: existe 0 ∈ Rn tal que

0 + a = a + 0 = a.

d) Elemento opuesto: dado a∈ Rn existe −a ∈ Rn tal que

(−a) + a = a + (−a) = 0.

Definición. 1.5 Dados α ∈ R y a ∈ Rn definimos:

αa = (αa1 , . . . , αan ).

De nuevo resulta fácil establecer las siguientes propiedades:

Proposición. 1.6 Dados α, β ∈ R y a, b ∈ Rn , se verifica:

1. (α + β)a = αa + βa
2. α(a + b) = αa + αb
3. α(βa) = (αβ)a
4. 1a = a
TEORÍA DE ÁLGEBRA I: Tema 4. DIPLOMATURA DE ESTADÍSTICA 2

Se dice que Rn es un espacio vectorial sobre R.

Proposición. 1.7 Dados α, β ∈ R y a, b ∈ Rn , se verifica:

1. 0a = 0 y α0 = 0
2. (−1)a = −a
3. αa = 0 ⇒ (α = 0 ó a = 0)
4. αa = βa y a 6= 0 ⇒ α = β
5. αa = αb y α 6= 0 =⇒ a=b
6. α(−a) = −(αa) = (−α)a

2 Dependencia lineal
Definición. 2.1 Dados a1 , . . . , ar ∈ Rn una combinación lineal de a1 , . . . , ar es un vector del tipo:

α1 a1 + · · · + αr ar

para ciertos α1 , . . . , αr ∈ R.

Definición. 2.2 Diremos que a1 , . . . , ar ∈ Rn son linealmente dependientes si el vector 0 puede


expresarse como una combinación lineal, no trivial, de ellos, es decir, si existen λ1 , . . . , λr ∈ R no
todos nulos, tales que:
λ1 a1 + · · · + λr ar = 0.
Diremos que a1 , . . . , ar ∈ Rn son linealmente independientes, si

λ1 a1 + · · · + λr ar = 0 =⇒ λ1 = 0, . . . , λr = 0.

Proposición. 2.3 Los vectores a1 , . . . , ar ∈ Rn son linealmente dependientes si y sólo si uno de


ellos es combinación lineal de los demás.

Proposición. 2.4 Sean H, H 0 ⊆ Rn dos conjuntos finitos. Se verifica:

i) Si 0 ∈ H entonces H es linealmente dependiente.


ii) Si H es lin. dep. y H ⊆ H 0 entonces H 0 es lin. dep.
iii) Si H es lin. indep. y H 0 ⊆ H entonces H 0 es lin. indep.

Obviamente el hecho de que un conjunto de vectores sea linealmente dependiente, o indepen-


diente, no depende del orden de dichos vectores. Además tenemos las siguientes propiedades, que
nos permitirán desarrollar un método para estudiar la dependencia lineal de un conjunto finito de
vectores:

Proposición. 2.5 Sea H = {a1 , . . . , ar } ⊆ Rn y α ∈ R, α 6= 0. Se verifica:

a) Fijado i = 1, . . . , r si H 0 = {a1 , . . . , αai , . . . , ar }, entonces

H es l. d. (o l. i.) ⇐⇒ H 0 es l. d. (o l. i.).
TEORÍA DE ÁLGEBRA I: Tema 4. DIPLOMATURA DE ESTADÍSTICA 3

b) Fijados i, j = 1, . . . , r, i 6= j si

H 00 = {a1 , . . . , ai−1 , ai + αaj , ai+1 , . . . , ar },

entonces
H es l. d. (o l. i.) ⇐⇒ H 00 es l. d. (o l. i.).

Definición. 2.6 Diremos que H = {a1 , . . . , ar } es escalonado si la matriz cuyas filas son a1 , . . . , ar
es escalonada por filas.

Proposición. 2.7 Si H = {a1 , . . . , ar } es escalonado y todos los vectores son distintos de 0, en-
tonces los vectores a1 , . . . , ar son linealmente independientes.

Utilizando estos dos resultados, a la hora de determinar la dependencia, o independencia, lineal


de un conjunto finito de vectores, podemos razonar como sigue:
Sea H = {a1 , . . . , am } ⊆ Rn y sea A ∈ Mm×n la matriz que tiene como filas los vectores de H.
Sabemos que A es equivalente por filas a una matriz escalonada E.
Podemos asegurar entonces que:

i) H es l. i. si y sólo si los vectores formados por las filas de E son l. i.


ii) Las filas de E son l. i. si y sólo si ninguna de ellas es nula.

3 Variedades lineales. Bases


Definición. 3.1 Dado L ⊆ Rn , decimos que L es una variedad lineal (o subespacio vectorial) de
Rn si L 6= ∅ y verifica:

1) ∀ x, y ∈ L, x − y ∈ L.
2) ∀ α ∈ R, ∀x ∈ Rn , αx ∈ L.

Lema. 3.2 Dada una variedad L de Rn , se verifica:

1) 0 ∈ L.
2) ∀ x ∈ L, −x ∈ L.
3) ∀ x, y ∈ L, x + y ∈ L.
4) ∀ α, β ∈ R, ∀ x, y ∈ L, αx + βy ∈ L.

Definición. 3.3 Sea H ⊆ Rn . Definimos la variedad lineal generada por H , como

L(H) = { α1 a1 + · · · + αr ar : α1 , . . . , αr ∈ R, a1 , . . . , ar ∈ H, r ∈ N},

es decir, L(H) es el conjunto formado por todas las posibles combinaciones lineales de elementos de
H. Por definición, si H = ∅ entonces L(H) = {0}.

Lema. 3.4 Dado H ⊆ Rn , L(H) es la menor variedad lineal que contiene a H.

Proposición. 3.5 1. L({a1 , . . . , ai , . . . , aj , . . . , ar }) = L({a1 , . . . , aj , . . . , ai , . . . , ar })


2. Sea α 6= 0, entonces L({a1 , . . . , ai , . . . , ar }) = L({a1 , . . . , αai , . . . , ar })
TEORÍA DE ÁLGEBRA I: Tema 4. DIPLOMATURA DE ESTADÍSTICA 4

3. Sea α ∈ R e i 6= j, entonces L({a1 , . . . , ai , . . . , aj , . . . , ar }) = L({a1 , . . . , ai +αaj , . . . , aj , . . . , ar })


Pr
4. L({a1 , . . . , ar }) = L({a1 , . . . , ar , i=1 λi ai })

Proposición. 3.6 Sean H, F ⊆ Rn . Se verifica:

1) H ⊆ L(H).
2) Si H ⊆ F entonces L(H) ⊆ L(F ).
3) L(L(H)) = L(H).

Definición. 3.7 Sea W ⊆ Rn una variedad lineal y H ⊆ W tal que L(H) = W . Diremos entonces
que H genera W , o que H es un conjunto de generadores de W .

Definición. 3.8 (base)


Sea W ⊆ Rn una variedad lineal y B = {u1 , . . . , ur } ⊆ W . Diremos que B es una base de W si:

1) B es linealmente independiente.
2) L(B) = W .

Ejemplo.- Una base de Rm es (1, . . . , 0), (0, 1, . . . , 0), . . . , (0, . . . , 1).


En todo lo que sigue V será una variedad lineal de Rm , distinta de la variedad lineal {0}.

Lema. 3.9 Sean v1 , v2 , . . . , vn ∈ V linealmente independientes y v ∈ V . Se verifica una de las dos


posibilidades:

1. v ∈ L(v1 , . . . , vn ) y v1 , v2 , . . . , vn , v son linealmente dependientes.


2. v1 , v2 , . . . , vn , v son linealmente independientes.

Lema. 3.10 Sean A ⊆ S ⊆ V subconjuntos finitos de V con A linealmente independiente y S


generador de V . Entonces existe una base B de V , tal que A ⊆ B ⊆ S.

Lema. 3.11 1. Todo conjunto finito de generadores de V contiene una base de V .


2. Todo subconjunto finito de V linealmente independiente puede ser ampliado a una base de V .

Lema. 3.12 (del intercambio) Sea x ∈ V , x 6= 0 y b1 , . . . , br ∈ V vectores linealmente independi-


entes tales que x ∈ L({b1 , . . . , br }), entonces, existe un i : 1 ≤ i ≤ r, tal que

(i (i
1) bi ∈ L({b1 , . . . , x, . . . , br }), y por tanto L({b1 , . . . , x, . . . , br }) = L({b1 , . . . , br }).
(i
2) {b1 , . . . , x, . . . , br } es linealmente independiente.

Proposición. 3.13 Sea V ⊆ Rn una variedad lineal y B = {u1 , . . . , um } una base de V . Si


{v1 , . . . , vr } ⊆ V son linealmente independientes, entonces m ≥ r. Además, si m = r entonces
{v1 , . . . , vr } es una base de V .

Corolario. 3.14 Sea V ⊆ Rn una variedad lineal y B = {u1 , . . . , um } una base de V . Se verifica:

a) Todas la bases de V tienen m elementos.

b) Todo subconjunto de V linealmente independiente con m elementos es una base de V .


TEORÍA DE ÁLGEBRA I: Tema 4. DIPLOMATURA DE ESTADÍSTICA 5

c) Todo conjunto con más de m vectores es linealmente dependiente.

d) Todo sistema de generadores tiene al menos m elementos y si tiene m es una base.

Sean v1 , . . . , vn vectores linealmente independientes de V . Se dice que forman un conjunto


máximo de vectores de V linealmente independientes, si, dado cualquier elemento w ∈ V , los
vectores v1 , . . . , vn , w son linealmente dependientes.
Un conjunto de vectores S = {v1 , . . . , vn } de V se dice generador mı́nimo de V , si todo subcon-
junto propio de S no es generador.

Proposición. 3.15 a) Si S es un conjunto máximo de vectores linealmente independientes de


V , entonces S es una base de V .
b) Si S es un conjunto de vectores de V generador mı́nimo, entonces S es una base de V .

Teorema. 3.16 Toda variedad lineal de Rn , no trivial, es decir, distinta de {0}, posee una base
con m ≤ n elementos.

Dado que todas las bases de una variedad lineal tienen el mismo número de elementos podemos
dar la siguiente

Definición. 3.17 Dada una variedad lineal W ⊆ Rn llamaremos dimensión de W , dim(W ), al


número de elementos de una base de W . Por definición, dim({0}) = 0.

Lema. 3.18 Sea W ⊆ Rn una variedad lineal y B = {u1 , . . . , um } una base de W . Entonces, dado
v ∈ W , existen unos únicos α1 , . . . , αm ∈ Rm tales que
m
X
v= αi ui .
i=1

Definición. 3.19 Sea W ⊆ Rn una variedad lineal y B = {u1 , . . . , um } una base de W . Dado
v ∈ W llamaremos coordenadas de v respecto de B al único elemento vB = (α1 , . . . , αm ) ∈ Rm tal
que
Xm
v= αi ui .
i=1

Proposición. 3.20 Sea W ⊆ Rn una variedad lineal y B = {u1 , . . . , um } una base de W . Se


verifica:

1) 0B = (0, . . . , 0) ∈ Rm .
2) ∀ v ∈ W, ∀ α ∈ R, (αv)B = αvB .
3) ∀ v, w ∈ W, (v + w)B = vB + wB .

4) Si A = {v1 , . . . , vr } ⊆ W y A0 = {v1B , . . . , vr B } ⊆ Rm entonces

A es l. d. (resp. l. i.) ⇐⇒ A0 es l. d. (resp. l. i.).


TEORÍA DE ÁLGEBRA I: Tema 4. DIPLOMATURA DE ESTADÍSTICA 6

4 Cambio de base
Sea L ⊆ Rn una v. l. y B1 = {u1 , . . . , um }, B2 = {v1 , . . . , vm } dos bases de L. Entonces, dado
x ∈ L existen (α1 , . . . , αm ), (β1 , . . . , βm ) ∈ Rm tales que:

xB1 = (α1 , . . . , αm ) y xB2 = (β1 , . . . , βm ).

Sin embargo, ¿qué relación existe entre xB1 y xB2 ? Para resolver esta cuestión, expresamos los
vectores de una de las bases, por ejemplo B2 , como combinación lineal de los vectores de la otra
base, B1 , de este modo, para cada j = 1, . . . , m,
m
X
vj = pij ui , es decir, (vj )B1 = (p1j , . . . , pmj ).
i=1

Sea P = (pij ) ∈ Mm la matriz que se obtiene colocando por columnas las coordenadas de los
vectores de B2 respecto de B1 , esto es,

P = [(v1 )B1 |(v2 )B1 | · · · |(vm )B1 ].

Entonces, dado x ∈ L, si xB1 = (α1 , . . . , αm ) y xB2 = (β1 , . . . , βm ) tendremos


 
m
X Xm Xm m X
X m Xm Xm
x= βj vj = βj pij ui = βj pij ui =  pij βj  ui
j=1 j=1 i=1 j=1 i=1 i=1 j=1

Puesto que las coordenadas de un vector respecto de una base son únicas resulta
m
X
∀i = 1, . . . , m, αi = pij βj .
j=1

Matricialmente,
∀x ∈ L, xB1 = P xB2 .

5 Rango
Definición. 5.1 Dado H = {a1 , . . . , ar } ⊆ Rn , llamamos rango de H, rang(H), al número máximo
de vectores linealmente independientes contenidos en H.

Proposición. 5.2 Dado H = {a1 , . . . , ar } ⊆ Rn , r(H) = dimL(H).

Proposición. 5.3 1. Sea H = {a1 , . . . , ai , . . . , ar }, H 0 = {a1 , . . . , αai , . . . , ar }, siendo α 6= 0,


entonces r(H) = r(H 0 ).
2. Sea H = {a1 , . . . , ai , . . . , ar }, H 0 = {a1 , . . . , ai + αaj , . . . , ar }, siendo i 6= j entonces r(H) =
r(H 0 ).

Definición. 5.4 Dada A ∈ Mm×n definimos:

• El espacio fila de A, F (A), es la variedad lineal de Rn generada por las filas de A. F (A) =
{xt A : x ∈ Rm } o bien escritos por columnas como F (A) = {At x : x ∈ Rm }.

• El espacio columna de A es la v. l. de Rm , generada por las columnas de A. C(A) = {Ax :


x ∈ Rn }.
TEORÍA DE ÁLGEBRA I: Tema 4. DIPLOMATURA DE ESTADÍSTICA 7

Definición. 5.5 Sea A ∈ Mm×n .

a) Definimos el rango por filas de A como el rango del subconjunto de Rn formado por las filas
de A, consideradas como vectores de Rn , es decir rf (A) = dim(F (A)).
b) Definimos el rango por columnas de A como el rango del subconjunto de Rm formado por las
columnas de A, consideradas como vectores de Rm , es decir rc (A) = dim(C(A)).

Definición. 5.6 Llamaremos menor de una matriz A al determinante de cualquiera de sus subma-
trices cuadradas.

Definición. 5.7 Definimos el rango por menores de una matriz como el mayor de los órdenes de
sus menores no nulos y lo denotaremos por rm (A).

Proposición. 5.8 Si un menor de orden r 6= 0 de A es distinto de 0, y todos los menores de orden


r + 1 de A son 0, entonces rm (A) = r:

Proposición. 5.9 1. Si B es equivalente por filas a A, entonces F (B) = F (A) y por tanto
rf (B) = rf (A). Si B es escalonada por filas, rf (B) = número de filas no nulas de B.
2. Si B es equivalente por columnas a A, entonces C(B) = C(A) y por tanto rc (B) = rc (A). Si
B es escalonada por columnas, rc (B) = número de columnas no nulas de B.

Proposición. 5.10 Si se hace una transformación elemental (por filas o columnas) en A obteniendo
B, entonces rm (B) = rm (A).

Proposición. 5.11 Si A es escalonada por filas (columnas), entonces rm (A) =número de filas
(columnas) no nulas de A.

Proposición. 5.12 Sea A ∈ Mm×n . Entonces rf (A) = rm (A).

Proposición. 5.13 Sea A ∈ Mm×n . Entonces rc (A) = rm (A).

Teorema. 5.14 Sea A ∈ Mm×n . Entonces rf (A) = rm (A) = rc (A).

Definición. 5.15 Se define el rango de una matriz A, como su rango por filas, o su rango por
columnas o su rango por menores. Dicho número se denotará por r(A).

Dada A ∈ Mm×n sabemos que existen matrices regulares P ∈ Mm y Q ∈ Mn tales que


 
Ir Θ
P AQ =
Θ Θ

Podemos asegurar entonces: r(A) = r.

Teorema. 5.16 Dadas A, B ∈ Mm×n . A y B son equivalentes ⇔ r(A) = r(B).

Proposición. 5.17 Se tienen las siguientes propiedades:

a) Si A ∈ Mn , entonces
A es regular ⇐⇒ r(A) = n.

b) Dada A ∈ Mm×n , si P ∈ Mm y Q ∈ Mn son regulares, entonces

r(P AQ) = r(A).


TEORÍA DE ÁLGEBRA I: Tema 4. DIPLOMATURA DE ESTADÍSTICA 8

c) Para toda A ∈ Mm×n , r(A) = r(At ).


d) Si A ∈ Mm×p y B ∈ Mp×n , entonces

r(AB) ≤ min(r(A), r(B)).

Proposición. 5.18 Si en una matriz A un menor de orden r es distinto de cero y los orlados con la
fila p y restantes columnas son cero, entonces la fila p es combinación lineal de las filas que entran
en el menor.
TEORÍA DE ÁLGEBRA II: Tema 1. DIPLOMATURA DE ESTADÍSTICA 1

Tema 1: Aplicaciones lineales


1 Definiciones y propiedades generales
Definición. 1.1 Dada f : Rn → Rm diremos que f es lineal si:

i) ∀u, v ∈ Rn , f (u + v) = f (u) + f (v).


ii) ∀λ ∈ R, ∀u ∈ Rn , f (λu) = λf (u).

Como ejemplos de aplicaciones lineales tenemos:

1) La aplicación identidad, id : Rn → Rn , definida por

∀x ∈ Rn , id(x) = x.

2) La aplicación nula, θ : Rn → Rm , definida por

∀x ∈ Rn , θ(x) = 0.

Sin embargo, los ejemplos mas caracterı́sticos se obtienen a partir del siguiente

Lema. 1.2 Dada A ∈ Mm×n , la aplicación f : Rn → Rm definida por

∀x ∈ Rn , f (x) = Ax,

es lineal.

Proposición. 1.3 Sea f : Rn → Rm una aplicación lineal. Se verifica:

1) ∀x ∈ Rn , f (−x) = −f (x).
2) ∀x, y ∈ Rn , f (x − y) = f (x) − f (y).
3) f (0) = 0.
4) Dados x1 , . . . , xr ∈ Rn y α1 , . . . , αr ∈ R se verifica:

Xr r
X
f( αi xi ) = αi f (xi ).
i=1 i=1

Definición. 1.4 Dada f : Rn → Rm diremos que f es un isomorfismo si f es lineal y biyectiva.

Proposición. 1.5 Se verifica:

1) Si f : Rn → Rp y g : Rp → Rm son aplicaciones lineales, entonces la aplicación h = g ◦ f :


Rn → Rm también es lineal.
2) Si f : Rn → Rm es un isomorfismo, entonces también lo es su aplicación inversa f −1 : Rm →
Rn .
TEORÍA DE ÁLGEBRA II: Tema 1. DIPLOMATURA DE ESTADÍSTICA 2

2 Determinación de aplicaciones lineales


En esta sección veremos qué datos son necesarios para conocer todos los valores de una aplicación
lineal y, por tanto, para que ésta quede determinada totalmente.
Sea f : Rn → Rm lineal y B = {a1 , . . . , an } una base de Rn . Entonces, dado x ∈ Rn , existen
unos únicos α1 , . . . , αn ∈ R tales que:
X n
x= αi ai .
i=1

Por tanto,
Xn n
X
f (x) = f ( αi ai ) = αi f (ai ).
i=1 i=1

Es decir, el valor de f sobre un vector cualquiera, x ∈ Rn , queda determinado una vez que los valores
de f sobre una base de Rn son conocidos. De hecho tenemos,

Proposición. 2.1 Sea B = {a1 , . . . , an } una base de Rn y consideremos y1 , . . . , yn ∈ Rm . Entonces


existe una única aplicación lineal f : Rn → Rm tal que:

∀i = 1, . . . , n, f (ai ) = yi .

A continuación pasaremos a estudiar el modo de determinar las propiedades (inyectiva, sobreyec-


tiva etc.) de una aplicación lineal.

Proposición. 2.2 Sea f : Rn → Rm . Se verifica:

i) Si L1 ⊆ Rn es una variedad lineal, entonces,

f (L1 ) = {f (x) ∈ Rm : x ∈ L1 }

es una variedad lineal de Rm .


ii) Si L2 ⊆ Rm es una variedad lineal, entonces,

f −1 (L2 ) = {x ∈ Rn : f (x) ∈ L2 }

es una variedad lineal de Rn .

Definición. 2.3 Sea f : Rn → Rm lineal. Definimos la imagen de f como la variedad lineal de Rm ,

Im(f ) = f (Rn ) = {y ∈ Rm : ∃x ∈ Rn , f (x) = y}.

El núcleo de f se define como la siguiente variedad lineal de Rn

N (f ) = f −1 ({0}) = {x ∈ Rn : f (x) = 0}.

Proposición. 2.4 Sea f : Rn → Rm una aplicación lineal, L ⊆ Rn una variedad lineal y x1 , . . . , xp ∈


Rn . Se verifica:

1) Si {x1 , . . . , xp } es l. d. entonces

{f (x1 ), . . . , f (xp )} es l. d.

2) Si {f (x1 ), . . . , f (xp )} es l.i. entonces

{x1 , . . . , xp } es l.i.
TEORÍA DE ÁLGEBRA II: Tema 1. DIPLOMATURA DE ESTADÍSTICA 3

3) Si {x1 , . . . , xp } genera L entonces

{f (x1 ), . . . , f (xp )}

genera f (L). En particular, si {x1 , . . . , xp } generan Rn , entonces

{f (x1 ), . . . , f (xp )}

generan Im(f ) = f (Rn ).

Nota. 2.5 Si {x1 , . . . , xp } ⊆ Rn es l.i. y f : Rn → Rm es lineal, en general, {f (x1 ), . . . , f (xp )}


puede ser linealmente dependiente.

Proposición. 2.6 Sea f : Rn → Rm lineal, entonces:

f es inyectiva ⇐⇒ N (f ) = {0}
f es sobreyectiva ⇐⇒ Im(f ) = Rm

Corolario. 2.7 Si f : Rn → Rm es lineal y sobreyectiva y {x1 , . . . , xp } generan Rn , entonces

{f (x1 ), . . . , f (xp )}

generan Rm .

Proposición. 2.8 Sea f : Rn → Rm una aplicación lineal inyectiva. Se verifica:

1) Si {x1 , . . . , xp } ⊆ Rn son l.i. entonces,

{f (x1 ), . . . , f (xp )}

son l.i.
2) Si {x1 , . . . , xp } ⊆ Rn es una base de L entonces,

{f (x1 ), . . . , f (xp )}

es base de f (L). En particular, si {x1 , . . . , xn } es base de Rn , entonces

{f (x1 ), . . . , f (xn )}

es base de Im(f ).

Corolario. 2.9 Si f : Rn → Rm es un isomorfismo y {x1 , . . . , xn } ⊆ Rn , tenemos

{x1 , . . . , xn } es base de Rn ⇐⇒ {f (x1 ), . . . , f (xn )} es base de Rm .

En particular, n = m.

Definición. 2.10 Dada f : Rn → Rm lineal, llamaremos rango de f al número

rang(f ) = dim(Im(f )).

Proposición. 2.11 Dada f : Rn → Rm lineal, se verifica:

dim(N (f )) + dim(Im(f )) = n.

Proposición. 2.12 Sea f : Rn → Rm lineal. Se verifica:


TEORÍA DE ÁLGEBRA II: Tema 1. DIPLOMATURA DE ESTADÍSTICA 4

i) f es inyectiva ⇐⇒ rang(f ) = n.
ii) f es sobreyectiva ⇐⇒ rang(f ) = m.

Corolario. 2.13 Sea f : Rn → Rn lineal. Son equivalentes:

1) f es biyectiva.
2) f es sobreyectiva.
3) f es inyectiva.
4) rang(f ) = n.

3 Matriz asociada a una aplicación lineal


Sea f : Rn → Rm lineal, Bn = {a1 , . . . , an } y Bm = {b1 , . . . , bm } bases de Rn y Rm , respectivamen-
te. Entonces, dado x ∈ Rn , tendremos f (x) ∈ Rm luego

xBn = (α1 , . . . , αn ) y (f (x))Bm = (β1 , . . . , βm ).

¿Qúe relación existe entre (α1 , . . . , αn ) y (β1 , . . . , βm )?


Sea para cada j = 1, . . . , n, (f (aj ))Bm = (a1j , . . . , amj ), es decir,
m
X
f (aj ) = aij bi .
i=1

Entonces,
Xn
f (x) = f( αj aj )
j=1
n
X
= αj f (aj )
j=1
Xnm
X
= αj aij bi
j=1  i=1 
Xm Xn
=  αj aij  bi .
i=1 j=1

Dado que (f (x))Bm = (β1 , . . . , βm ) tenemos,


n
X
∀i = 1, . . . , m, βi = αj aij .
j=1

Matricialmente, esto puede expresarse del siguiente modo:


Sea A = (aij ) ∈ Mm×n , es decir,

A = [(f (a1 ))Bm | . . . |(f (an ))Bm ].

Entonces,
(f (x))Bm = AxBn .
Podemos establecer, de este modo, el siguiente resultado:
TEORÍA DE ÁLGEBRA II: Tema 1. DIPLOMATURA DE ESTADÍSTICA 5

Teorema. 3.1 Sea f : Rn → Rm lineal, Bn una base de Rn y Bm una base de Rm . Entonces, existe
una única matriz A ∈ Mm×n tal que

∀x ∈ Rn , (f (x))Bm = AxBn .

La matriz A se denotará por [f, Bn , Bm ] y se denominará matriz de f respecto de las bases Bn y Bm .

Teorema. 3.2 Sea f : Rn → Rm , g : Rn → Rm y h : Rm → Rp lineales, Bn una base de Rn , Bm


una base de Rm y Bp una base de Rp . Se tiene:

1. [f + g, Bn , Bm ] = [f, Bn , Bm ] + [g, Bn , Bm ].
2. [αf, Bn , Bm ] = α[f, Bn , Bm ]
3. [h ◦ f, Bn , Bp ] = [h, Bm , Bp ][f, Bn , Bm ]

Proposición. 3.3 Sea f : Rn → Rm lineal y Bn , Bm bases de Rn y Rm respectivamente. Entonces,

rang(f ) = r([f, Bn , Bm ]).

Proposición. 3.4 Sea A ∈ Mm×n y f : Rn → Rm la aplicación lineal definida por

∀x ∈ Rn , f (x) = Ax.

Sean Cn y Cm las bases canónicas de Rn y Rm respectivamente. Entonces,

[f, Cn , Cm ] = A.

Proposición. 3.5 Sea A ∈ Mn y f : Rn → Rn la aplicación lineal dada por f (x) = Ax. Son
equivalentes:

i) A es regular.
ii) f es un isomorfismo.
iii) r(A) = n.

4 Matrices semejantes
Dada f : Rn → Rn lineal (un endomorfismo) y dos bases de Rn ,

B = {b1 , . . . , bn } y C = {c1 , . . . , cn },

sean A = [f, B] = [f, B, B] y A0 = [f, C] = [f, C, C].


¿Qué relación existe entre A y A0 ?
Sabemos que, dado x ∈ Rn ,

(f (x))B = AxB y (f (x))C = A0 xC .

Además, si P = [(b1 )C | . . . |(bn )C ] ∈ Mn entonces,

∀x ∈ Rn , xC = P xB .

Ası́, por una parte, tenemos


(f (x))C = A0 xC = A0 P xB
TEORÍA DE ÁLGEBRA II: Tema 1. DIPLOMATURA DE ESTADÍSTICA 6

y, por otra,
(f (x))C = P (f (x))B ,
luego, igualando, obtenemos
∀x ∈ Rn , P (f (x))B = A0 P xB ,
y de aquı́,
∀x ∈ Rn , (f (x))B = P −1 A0 P xB .
Hemos probado, ası́, que
[f, B] = A = P −1 A0 P = P −1 [f, C]P.

Este resultado da pié a introducir la siguiente

Definición. 4.1 Dadas A, B ∈ Mn , diremos que A y B son semejantes si existe P ∈ Mn regular,


tal que
A = P −1 BP.

Proposición. 4.2 Dadas A, B ∈ Mn , son equivalentes:

a) A es semejante a B.
b) Existe un endomorfismo f : Rn → Rn y dos bases, B y C, de Rn , tales que:

A = [f, B] y B = [f, C].

5 Matrices idempotentes y ortogonales


Definición. 5.1 Dada una matriz A ∈ Mn , diremos que A es idempotente si A2 = A.

Proposición. 5.2 Sean A, B ∈ Mn idempotentes. Se verifica:

a) A + B es idempotente si y sólo si AB + BA = θ.
b) Si AB = BA entonces AB es idempotente.
(El recı́proco no es cierto, en general).
c) I − A es idempotente.

Definición. 5.3 Dada una matriz A ∈ Mn , diremos que A es ortogonal si:

At A = AAt = I.

Proposición. 5.4 Sean A, B ∈ Mn . Se verifica:

a) A es ortogonal si y sólo si A es regular y A−1 = At .


b) Si A es ortogonal, entonces A−1 es ortogonal.
c) Si A y B son ortogonales, entonces AB es ortogonal.
d) Si A es ortogonal, entonces det(A) = ±1.

Nota. 5.5 En general, la suma de matrices ortogonales no es ortogonal.

Proposición. 5.6 Una matriz A ∈ Mn es ortogonal si y sólo si sus filas (o columnas) forman una
base ortonormal de Rn .
TEORÍA DE ÁLGEBRA II: Tema 1. DIPLOMATURA DE ESTADÍSTICA 7

6 Aplicaciones ortogonales
Definición. 6.1 Dada f : Rn → Rm , diremos que f es ortogonal si:

i) f es una aplicación lineal y


ii) f conserva el producto escalar, es decir,

∀x, y ∈ Rn , f (x) · f (y) = x · y.

Un ejemplo tı́pico de aplicación ortogonal nos lo da el siguiente

Lema. 6.2 Dada A ∈ Mn , una matriz ortogonal, la aplicación f : Rn → Rn definida por

∀x ∈ Rn , f (x) = Ax,

es ortogonal.

Proposición. 6.3 Sea f : Rn → Rm una aplicación ortogonal. Se verifica:

1) ∀x ∈ Rn , kf (x)k = kxk.
2) Si x, y ∈ Rn son ortogonales, entonces f (x) y f (y) son ortogonales.
3) Si {u1 , . . . , uk } ⊆ Rn es un sistema ortogonal (resp. ortonormal) entonces

{f (u1 ), . . . , f (uk )} ⊆ Rm ,

es ortogonal (resp. ortonormal).


4) f es inyectiva.

Proposición. 6.4 Sean f : Rp → Rm y g : Rn → Rp dos aplicaciones ortogonales, entonces la


composición f ◦ g : Rn → Rm también es ortogonal.

Los siguientes resultados nos permiten caracterizar las aplicaciones ortogonales.

Proposición. 6.5 Sea f : Rn → Rm una aplicación lineal. Son equivalentes:

1) f es ortogonal.
2) ∀x ∈ Rn , kf (x)k = kxk.
3) Existe una base, B = {u1 , . . . , un }, de Rn , ortonormal, tal que

{f (u1 ), . . . , f (un )} ⊆ Rm

es un sistema ortonormal.

4) Para toda base, B = {u1 , . . . , un }, de Rn , ortonormal,

{f (u1 ), . . . , f (un )} ⊆ Rm

es un sistema ortonormal.

De manera similar al caso general de una aplicación lineal obtenemos:


TEORÍA DE ÁLGEBRA II: Tema 1. DIPLOMATURA DE ESTADÍSTICA 8

Proposición. 6.6 Sea B = {u1 , . . . , un } una B.O.N. de Rn y {v1 , . . . , vn } un sistema ortonormal


de Rm , entonces existe una única aplicación ortogonal f : Rn → Rm tal que:

∀i = 1, . . . , n, f (ui ) = vi .

Naturalmente, puesto que toda aplicación ortogonal, de Rn en Rm , es lineal, dada una base
de Rn y otra de Rm , podemos asociar a dicha aplicación su matriz respecto de estas bases. Sin
embargo, cuando se trata de un endomorfismo, si la base fijada es ortonormal, podemos obtener
algunas propiedades más.
Sea f : Rn → Rn una aplicación ortogonal y B una B.O.N. de Rn . Sea A = [f, B] ∈ Mn , es
decir,
∀x ∈ Rn , (f (x))B = AxB .
Entonces, dados ∀x, y ∈ Rn ,

f (x) · f (y) = (f (x))B · (f (y))B = (AxB )t · (AyB ) = (xB )t At AyB .

Además,
f (x) · f (y) = x · y = (xB )t · yB .
Por tanto, igualando, obtenemos:

∀x, y ∈ Rn , (xB )t At AyB = (xB )t · yB

y, en consecuencia, At A = I. Gracias a esto, tenemos:

Proposición. 6.7 Sea f : Rn → Rn lineal, entonces, f es ortogonal si y sólo si la matriz de f


respecto de una base ortonormal es ortogonal.

7 Proyección sobre una variedad lineal.


Matrices de proyección
En esta sección introducimos una nueva clase de aplicaciones lineales que generalizan la proyección
ortogonal.

Definición. 7.1 Sean L1 , L2 ⊆ Rn dos variedades lineales tales que

Rn = L1 ⊕ L2 .

Entonces,
∀ v ∈ Rn , ∃!v1 ∈ L1 , ∃!v2 ∈ L2 , v = v1 + v2 .
Definimos la proyección sobre L1 , paralela a L2 , como el endomorfismo, f , de Rn , definido, para
cada v ∈ Rn , por
f (v) = v1 .

Proposición. 7.2 Sean L1 , L2 ⊆ Rn variedades lineales complementarias y sea f : Rn → Rn , la


proyección sobre L1 , paralela a L2 . Entonces,

1) f es lineal.
2) f 2 = f ◦ f = f .

3) Im(f ) = L1 y N (f ) = L2 .
TEORÍA DE ÁLGEBRA II: Tema 1. DIPLOMATURA DE ESTADÍSTICA 9

Proposición. 7.3 Sea f un endomorfismo de Rn . Entonces f es una proyección si y solo si f 2 = f .

Definición. 7.4 Sea A ∈ Mn . Diremos que A es una matriz de proyección si y sólo si existe una
base B de Rn y una proyección f tal que A = [f, B].

Proposición. 7.5 Sea A ∈ Mn . Son equivalentes:

1) A es una matriz de proyección.


2) A es idempotente.

Definición. 7.6 Dada una proyección, f , sobre una variedad L1 ⊆ Rn , paralela a L2 ⊆ Rn , se


denomina proyección complementaria de f , a la aplicación lineal g = id − f : Rn → Rn . (De hecho,
id − f es la proyección sobre L2 , paralela a L1 ).

Definición. 7.7 Diremos que una aplicación lineal f : Rn → Rn es una proyección ortogonal, si
existe una v.l. L ⊆ Rn tal que f es la proyección sobre L paralela a L⊥ .

Proposición. 7.8 Sea f : Rn → Rn una proyección y B = {u1 , . . . , un } una base de Rn . Son


equivalentes:

1) f es una proyección ortogonal.


2) ∀i = 1, . . . , n, ∀j = 1, . . . , n, f (ui ) · g(uj ) = 0,
siendo g = id − f la proyección complementaria de f .

Proposición. 7.9 Sea f : Rn → Rn lineal, B una B.O.N. de Rn y sea A = [f, B]. Son equivalentes:

1) f es una proyección ortogonal.


2) A es idempotente y simétrica.
TEORÍA DE ÁLGEBRA: Tema 7. DIPLOMATURA DE ESTADÍSTICA 1

Tema 7: Estructura euclı́dea de Rn


1 Producto escalar
Definición. 1.1 Dados x = (x1 , . . . , xn ), y = (y1 , . . . , yn ) ∈ Rn definimos el producto escalar de x
e y como el número
X n
x·y = xi yi .
i=1

Proposición. 1.2 Dados u, v, w ∈ Rn , α ∈ R, se verifica:

1) u · u ≥ 0
2) u · u = 0 ⇐⇒ u=0
3) u · v = v · u
4) u · (v + w) = u · v + u · w
5) u · (αv) = α(u · v)

Definición. 1.3 Dado u = (u1 , . . . , un ) ∈ Rn definimos la norma de u como,


u
! 12
√ X
kuk = u · u = u2i .
i=1

Proposición. 1.4 Dado u ∈ Rn y α ∈ R, se verifica:

1) kuk ≥ 0
2) kuk = 0 ⇐⇒ u=0
3) kαuk = |α|kuk
1
4) u es un vector unitario, es decir, de norma 1.
kuk

Proposición. 1.5 (Desigualdad de Cauchy-Schwartz)


∀u, v ∈ Rn , |u · v| ≤ kukkvk
es decir, si u = (u1 , . . . , un ) y v = (v1 , . . . , vn ),
n n
! 21 n ! 12
X X X
ui vi ≤ u2i vi2 .



i=1 i=1 i=1

Además, dicha desigualdad es una igualdad si y sólo si u y v son proporcionales.

Teorema. 1.6 (Desigualdad triangular)


∀u, v ∈ Rn , ku + vk ≤ kuk + kvk
Además, dicha desigualdad es una igualdad si y sólo si existe α ∈ R, α ≥ 0 tal que u = αv.

Corolario. 1.7 (Teorema de Pitágoras)


∀u, v ∈ Rn , u·v =0 ⇐⇒ ku + vk2 = kuk2 + kvk2 .
TEORÍA DE ÁLGEBRA: Tema 7. DIPLOMATURA DE ESTADÍSTICA 2

2 Ortogonalidad
Definición. 2.1 Dados u 6= 0, v 6= 0 ∈ Rn , definimos el ángulo entre u y v como el número
\
α = (u, v) dado por:
u·v
cos α =
kukkvk

Definición. 2.2 Dados u, v ∈ Rn , decimos que u y v son ortogonales, y lo denotamos por u ⊥ v,


si u · v = 0.

Lema. 2.3 Dados u, v ∈ Rn , u, v 6= 0,

\ π
u⊥v ⇐⇒ (u, v) = .
2

Definición. 2.4 Dados u = (u1 , . . . , un ), v = (v1 , . . . , vn ) ∈ Rn , definimos la distancia entre u y v


como el número ! 21
X n
2
dist(u, v) = ku − vk = (ui − vi ) .
i=1

3 Bases ortonormales. Método de Gram-Schmidt


Definición. 3.1 Un conjunto {a1 , . . . ar } ⊆ Rn es un sistema ortogonal si

∀i, j = 1, . . . r, i 6= j, ai · aj = 0.

Definición. 3.2 Un conjunto {a1 , . . . ar } ⊆ Rn es un sistema ortonormal si



1 si i = j
∀i, j = 1, . . . , r ai · aj =
0 si i 6= j

En otras palabras, el conjunto dado es ortonormal si es ortogonal y todos sus elementos tienen norma
1.

Proposición. 3.3 Si {a1 , . . . ar } ⊆ Rn es un sistema ortonormal entonces es linealmente indepen-


diente.

Nota. 3.4 La proposición es válida también para sistemas ortogonales, con tal de ser todos los
vectores distintos de 0.

Definición. 3.5 Sea W ⊆ Rn una v.l. y B = {u1 , . . . , ur } una base de W . Diremos que B es una
base ortogonal de W , abreviadamente B.O.G., si B es un sistema ortogonal. Análogamente, diremos
que B una base ortonormal de W , abreviado B.O.N., si es un sistema ortonormal.

Proposición. 3.6 Sea W ⊆ Rn una v.l. y B = {u1 , . . . , ur } una base de W . Sea A = (aij ) ∈ Mr
la matriz simétrica definida por

∀i, j = 1, . . . r, aij = ui · uj .

Entonces, dados u, v ∈ W con uB = (α1 , . . . , αr ) vB = (β1 , . . . , βr ) se tiene


r
X
u·v = aij αi βj = utB AvB .
i,j=1
TEORÍA DE ÁLGEBRA: Tema 7. DIPLOMATURA DE ESTADÍSTICA 3

En particular, si B es B.O.N., tenemos


r
X
u·v = αi βi = utB vB .
i=1

A continuación veremos un método para obtener una base ortonormal a partir de una base
cualquiera.
Método de ortonormalización de Gram-Schmidt:
Sea W ⊆ Rn una v.l. y B = {a1 , . . . , ar } una base de W . El método de Gram-Schmidt construye
una B.O.N. de W , B 0 = {u1 , . . . , ur }, tal que

L({a1 }) = L({u1 })
L({a1 , a2 }) = L({u1 , u2 })
..
.
L({a1 , . . . , ar }) = L({u1 , . . . , ur }).

Proposición. 3.7 Dada W ⊆ Rn una variedad lineal y una base {a1 , . . . , ar }, construimos una
base ortogonal {z1 , . . . , zr }, tal que L(a1 ) = L(z1 ), . . . , L(a1 , . . . , ai ) = L(z1 , . . . , zi )

Para obtener una BON basta con tomar:


1
uk = zk , k = 1, . . . , r
kzk k

4 Cambio de bases ortonormales. Matrices ortogonales


Definición. 4.1 Diremos que A ∈ Mn es ortogonal si At = A−1 , es decir,

At A = AAt = I.

Proposición. 4.2 Sea A = [a1 | . . . |an ] ∈ Mn ortogonal. Entonces,

{a1 , . . . , an }

es una base ortonormal de Rn .

Proposición. 4.3 Si A ∈ Mn es una matriz ortogonal sus filas forman una base ortonormal de Rn .

Teorema. 4.4 Sean B y B 0 dos bases ortonormales de Rn y A ∈ Mn la matriz de cambio de base,

xB = AxB0 .

Entonces, A es ortogonal.

5 Complemento ortogonal de una variedad


Definición. 5.1 Sean W y W 0 dos subconjuntos de Rn . Diremos que W y W 0 son ortogonales, y
lo denotamos por W ⊥ W 0 , si:

∀x ∈ W, ∀y ∈ W 0 , x · y = 0.
TEORÍA DE ÁLGEBRA: Tema 7. DIPLOMATURA DE ESTADÍSTICA 4

Proposición. 5.2 Se verifica:

1) Si x ∈ Rn y W = L({a1 , . . . , am }) ⊆ Rn entonces,

{x} ⊥ W ⇐⇒ ∀i = 1, . . . , m, x · ai = 0.

2) Si H, H 0 ⊆ Rn , H ⊥ H0 ⇐⇒ L(H) ⊥ L(H 0 ).
3) Si L y W son v.l. de Rn ,
L⊥W =⇒ L ∩ W = {0}.

Definición. 5.3 Dado H ⊆ Rn , definimos el complemento ortogonal de H como

H ⊥ = {x ∈ Rn : ∀y ∈ H, x · y = 0}.

Proposición. 5.4 Sean H, G ⊆ Rn . Se verifica:

1) H ⊥ es una v.l. de Rn .
2) H ⊥ H ⊥ y H ⊆ (H ⊥ )⊥ .
3) H ⊥ es el mayor subespacio de Rn ortogonal a H.
4) H ⊆ G =⇒ G⊥ ⊆ H ⊥ .

Teorema. 5.5 Si L ⊆ Rn es una v.l. entonces

Rn = L ⊕ L⊥ .

En particular, dim(L⊥ ) = n − dim(L) y (L⊥ )⊥ = L.

Proposición. 5.6 Dada una v.l. L ⊆ Rn , L⊥ es la única variedad lineal de Rn tal que:

Rn = L ⊕ L⊥ y L ⊥ L⊥ .

En particular, si L es una variedad lineal (L⊥ )⊥ = L.

6 Proyección ortogonal
Definición. 6.1 Dada L ⊆ Rn v.l. y x ∈ Rn , puesto que Rn = L ⊕ L⊥ , existen unos únicos x1 ∈ L
y x2 ∈ L⊥ , tales que
x = x1 + x2 .
x1 se denomina proyección ortogonal de x sobre L.

Teorema. 6.2 Sea L ⊆ Rn una v.l. y x ∈ Rn , x1 ∈ L. Son equivalentes:

1) x1 es la proyección ortogonal de x sobre L.

2) ∀y ∈ L, x · y = x1 · y.
3) ∀y ∈ L, kx − yk ≥ kx − x1 k.
La igualdad se da si sólo si y = x1 .
TEORÍA DE ÁLGEBRA: Tema 7. DIPLOMATURA DE ESTADÍSTICA 5

Nota. 6.3 Dados x ∈ Rn y una v.l. L ⊆ Rn , sea x1 la proyección ortogonal de x sobre L, entonces,
para todo y ∈ L tenemos

dist(x, y) = kx − yk ≥ kx − x1 k = dist(x, x1 ),

es decir, la proyección ortogonal de x sobre L es el vector de L más próximo a x.

Definición. 6.4 Dada una v.l. L ⊆ Rn y x ∈ Rn decimos que u ∈ L da la distancia mı́nima de x


a L si:
∀v ∈ L, kx − uk ≤ kx − vk.
Definimos la distancia de x a L como

dist(x, L) = kx − uk = min{kx − vk : v ∈ L}.

Nota. 6.5 Acabamos de probar que la proyección ortogonal es el vector (es único) que da la dis-
tancia mı́nima.

7 Pseudosoluciones
Definición. 7.1 Dado un S. E. L. (S) : Ax = b, con A ∈ Mm×n , diremos que x0 ∈ Rn es una
pseudosolución de (S) si:
∀u ∈ Rn , kAu − bk ≥ kAx0 − bk.

Proposición. 7.2 Sea (S) : Ax = b, con A ∈ Mm×n y b ∈ Rn . Se verifica:

1) Si (S) es compatible, toda solución de (S) es una pseudosolución.


2) (S) es compatible ⇐⇒ b ∈ C(A).
3) u0 ∈ Rn es una pseudosolución de (S) si y sólo si Au0 es la proyección ortogonal de b sobre
C(A).

Definición. 7.3 Dado (S) : Ax = b, llamaremos sistema normal asociado a (S), al sistema:

(S 0 ) : At Ax = At b.

Proposición. 7.4 Dado (S) : Ax = b, u0 ∈ Rn es una pseudosolución de (S) si y sólo si es una


solución del sistema normal asociado, es decir,

u0 es pseudosolución ⇐⇒ At Au0 = At b.

En particular, deducimos que el sistema normal asociado siempre es compatible.

Puesto que las pseudosoluciones de un sistema son la soluciones del sistema normal asociado
(que siempre es compatible) en general, pueden existir más de una pseudosolución. Los siguientes
resultados aclaran cuando es ası́.

Lema. 7.5 Dada A ∈ Mm×n se verifica:

r(A) = r(At A).

Proposición. 7.6 Dados A ∈ Mm×n , (S) : Ax = b y (S 0 ) : At Ax = At b el sistema normal


asociado, se tiene:
TEORÍA DE ÁLGEBRA: Tema 7. DIPLOMATURA DE ESTADÍSTICA 6

• Si r(A) = n entonces (S 0 ) es compatible determinado y, por tanto, (S) posee una única
pseudosolución
x0 = (At A)−1 At b.
• Si r(A) < n entonces (S 0 ) es compatible indeterminado y, por tanto, existen infinitas pseu-
dosoluciones.

De este modo, en ciertas ocasiones existen infinitas pseudosoluciones para un S.E.L. dado, por
lo que podemos preguntarnos cual de ellas es, en cierto sentido, la mejor. A continuación veremos
un criterio para elegir dicha pseudosolución.

Definición. 7.7 Dado (S) : Ax = b con A ∈ Mm×n llamaremos pseudosolución óptima de (S) a
la pseudosolución, x0 , de norma mı́nima, es decir,
kx0 k = mı́nimo({kxk : At Ax = At b}).

Proposición. 7.8 Dada A ∈ Mm×n se verifica


N (A) = F (A)⊥ .
En particular, Rn = F (A) ⊕ N (A).

Teorema. 7.9 La pseudosolución óptima (es decir, de norma mı́nima) del sistema (S) : Ax = b, es
la única psedosolución x0 de (S) tal que
x0 ∈ F (A).
Más aún, x0 es la proyección ortogonal sobre F (A) de una pseudosolución cualquiera de (S).

8 Cálculo de la proyección ortogonal


Sea L ⊆ Rn una variedad lineal con dim(L) = r y b ∈ Rn . Queremos hallar la proyección ortogonal
de b sobre L. Para ello disponemos de dos métodos.

1) Sea B = {u1 , . . . , ur } una B.O.N. de L. Entonces podemos razonar como sigue:


Puesto que b ∈ Rn = L ⊕ L⊥ , tenemos
b = b0 + v,
siendo b0 ∈ L la proyección ortogonal de b sobre L y v ∈ L⊥ . Puesto que B es B.O.N., se
tiene
X r
b0 = λi ui
i=1
donde ∀i = 1, . . . , r, λi = b0 · ui = b · ui . Luego,
r
X
b0 = (b · ui )ui .
i=1

2) Supongamos ahora que poseemos una base A = {a1 , . . . , ar } no necesariamente ortogonal,


entonces la matriz
A = [a1 | . . . |ar ] ∈ Mn×r
es tal que r(A) = r y C(A) = L, por ser B una base de L. En consecuencia, (S) : Ax = b,
posee una única pseudosolución x0 ∈ Rr . En tales circunstancias, sabemos que Ax0 es la
proyección ortogonal de b sobre C(A) = L.
Resumiendo, podemos calcular la proyección ortogonal de b sobre L del siguiente modo:
TEORÍA DE ÁLGEBRA: Tema 7. DIPLOMATURA DE ESTADÍSTICA 7

1) Obtener una base A = {a1 , . . . , ar } de L.


2) Plantear el sistema (S) : Ax = b con A = [a1 | . . . |ar ] ∈ Mn×r .
3) Obtener una pseudosolución x0 de (S).
4) b0 = Ax0 es la proyección ortogonal de b sobre L.

9 Ajuste de datos por mı́nimos cuadrados


Supongamos que tenemos cierta cantidad de datos

(t1 , y1 ), (t2 , y2 ), . . . , (tm , ym ),

siendo ti 6= tj para i 6= j, y queremos hallar la “mejor” relación del tipo y = at + b a la hora de


describirlos. Es decir, pretendemos que, para cada ti , el valor

ati + b

sea lo mas parecido posible (en algún sentido) al valor yi . Una forma de proceder es la siguiente:
Consideremos el S.E.L. 

 y1 = t1 a + b
 y2

= t2 a + b
(S) : ..


 .
ym = tm a + b

Matricialmente,    
t1 1 y1
 t2 1 
 a
  y2 
(S) :  =
  
.. .. ..
 b
 
 . .  . 
tm 1 ym
donde a y b son incognitas.
Normalmente (S) será incompatible y, por tanto, deberemos conformarnos con sus pseudosolu-
ciones, esto es, las soluciones del sistema normal asociado
 Xm m
X   Xm 
t2i ti     ti y i
 a
 
0  i=1 i=1  i=1
(S ) :  X = X

m m
 b
 
  
ti m yi
i=1 i=1

Una solución (a0 , b0 ) de (S 0 ) tiene la propiedad de hacer


   
t1 1   y1
..  a0 − 

 .. .. 

. .  b0  . 

tm 1 ym

mı́nima, en otras palabras


m
X
E2 = [(a0 ti + b0 ) − yi ]2
i=1

es mı́nimo.
Geométricamente, y = a0 t+b0 nos da la recta que mejor se ajusta a los puntos (t1 , y1 ), . . . , (tm , ym ).
TEORÍA DE ÁLGEBRA: Tema 7. DIPLOMATURA DE ESTADÍSTICA 8

Nota. 9.1 El ajuste de datos por el método de mı́nimos cuadrados no se restringe sólo a rectas,
puesto que, en general, podemos ajustar datos por mı́nimos cuadrados utilizando para ello parábolas,
polinomios de grado fijo u otro tipo de funciones. Por ejemplo, si pretendemos ajustar los datos

(t1 , y1 ), (t2 , y2 ), . . . , (tm , ym ),

mediante una parábola,


y = at2 + bt + c,
bastará considerar el sistema
t21
   
t1 1   y1
 t22 t2 1  a  y2 
(S) :   b =
   
.. .. .. .. 
 . . . 
c
 . 
t2m tm 1 ym

y razonar como antes, resolviendo el sistema normal asociado (S 0 ).