Dos vectores sor ortogonales si y sólo si su producto escalar es cero, 1.2 Dependencia lineal
es decir: x, y ∈ Rn son ortogonales ⇔ x y = 0.
Un conjunto de vectores x1 , x2 , . . . , xp es linealmente
Observemos que si x y = 0, entonces cos θ = 0 ⇒ θ = π/2.
independiente si la única combinación lineal nula es aquella en la
Desigualdad de Cauchy-Schwarz: que todos los escalares son idénticamente cero, es decir,
p
x, y ∈ Rn , |x y| ≤ x y x1 , x2 , . . . , xp son l.i. ⇔ ci xi = 0 ⇒ ci = 0 para i = 1, . . . , p.
i=1
Demostración:
En caso contrario diremos que el conjunto de vectores es
puesto que | cos θ| ≤ 1, se tiene que
linealmente dependiente (l.d.).
|x y|
| cos θ| = ≤ 1. En Estadı́stica un conjunto de vectores l.i. corresponde a un conjunto
x y
de variables que no están relacionadas linealmente de forma exacta.
Diplomatura en Estadı́stica 5 Diplomatura en Estadı́stica 6
Sobre las matrices cuadradas podemos definir dos medidas escalares donde mij es el menor del elemento aij , es decir el determinante de
que resumen su tamaño global: el determinante y la traza. Ambas la matriz de orden n − 1 que resulta de eliminar la fila i-ésima y la
columna j-ésima de la matriz A.
son medidas relativas, puesto que se modifican cuando se multiplica
la matriz por una constante. Se denomina adjunto de aij al escalar (−1)i+j mij .
Se verifica que cuánto mayor es el determinante de una matriz, mayor
es la independencia entre los vectores que la forman.
Diplomatura en Estadı́stica 9 Diplomatura en Estadı́stica 10
1. tr(A + B) = tr(A) + tr(B), siempre que A y B sean matrices 1. Si A, B, C son matrices cuadradas de orden n, tales que B y C
cuadradas del mismo orden, son no singulares (es decir, rang(B) = rang(C) = n), entonces:
Formas cuadráticas
Si transformamos un vector x mediante una transformación lineal
y = B x, la norma al cuadrado del nuevo vector será:
Diremos que una matriz A es semidefinida positiva si cualquier
y2 = y y = x B B x = x A x ≥ 0, forma cuadrática formada a partir de ella es un número no negativo,
para cualquier x = 0, es decir:
donde A = B B es una matriz cuadrada y simétrica.
Llamaremos forma cuadrática a una expresión escalar del tipo A ≥ 0 ⇔ x A x ≥ 0, ∀x = 0.
x A x, donde x es un vector y A es una matriz cuadrada y simétrica.
Si la forma cuadrática es siempre un número positivo, diremos que A
La forma cuadrática es siempre un escalar.
es definida positiva, es decir:
Su expresión general es:
A > 0 ⇔ x A x > 0, ∀x = 0.
n
n
n
x A x = aii x2i + 2 aij xi xj ,
i=1 i=1 j=i+1
Matriz inversa
Matrices ortogonales
Sea A una matriz de orden n no singular. Definimos la inversa de A
Las matrices ortogonales son matrices cuadradas que pueden
como una matriz A−1 de orden n tal que:
representar un giro en el espacio o una simetrı́a respecto de un plano.
A−1 A = A A−1 = I.
Una matriz Tn×n es ortogonal si T T = T T = I.
−1 1
La matriz inversa de calcula: A = Adj(A ), donde Adj(·)
det(A) De la definición se verifica que T−1 = T .
denota la matriz de adjuntos.
De la definición también se deduce que det(T) = ±1, puesto que
⎫
det(T T) = det(T ) det(T) = (det(T))2 ⎬
Propiedades de la matriz inversa
⇒ det(T) = ±1.
Si A y B son dos matrices cuadradas del mismo orden y no sigulares: det(T T) = det(I) = 1 ⎭
1. (A B)−1 = B−1 A−1 ,
La condición T T = T T = I implica que los vectores columna (o
2. (A )−1 = (A−1 ) ,
fila) que forman T son ortogonales ente sı́ y de norma unidad. Por
1
3. det(A−1 ) = , tanto, son vectores ortonormales y forman una base ortonormal de
det(A)
Rn .
4. si A es simétrica, también lo es A−1 .
Diplomatura en Estadı́stica 17 Diplomatura en Estadı́stica 18
3.1 Definición
3 Vectores y valores propios
Sea An×n una matriz cuadrada de orden n. Un vector u ∈ Rn ,
Los valores propios (o autovalores) son las medidas básicas de u = 0, diremos que es un vector propio (o autovector) de A de
tamaño de una matriz, que no se ven alteradas si se hace un cambio valor propio (o autovalor) λ ∈ R si:
de coordenadas, es decir, una rotación de los ejes.
A u = λ u.
Las medidas globales de tamaño de una matriz, la traza y el
determinante, son función de los valores propios y, por tanto, son Para evitar indeterminaciones, supondremos que u = 1.
invariantes frente a transformaciones que preserven los valores Cálculo de los valores y vectores propios
propios.
Los valores propios de A se obtienen a partir de la ecuación
Los vectores propios representan las direcciones caracterı́sticas de la caracterı́stica de la matriz, det(A − λ I) = 0, que da lugar a un
matriz y al transformarlos por la matriz son invariantes en cuanto a polinomio de grado n en λ.
la dirección que representan, pero no son invariantes en cuanto a su
Los vectores propios de A se obtienen resolviendo el sistema de
longitud (norma).
ecuaciones homogéneo, (A − λ I) u = 0.
simétrica. A A− A = A.
Sea An×p con rang(A) = r ≤ min(n, p). La descomposición en
En general, existen muchas matrices que verifican esta condición, es
valores singulares de A es:
decir, que no la inversa generalizada de una matriz no es única.
A = U D1/2 V ,
Inversa generalizada de Moore-Penrose
1/2
donde Un×r y Vr×p son matrices ortogonales, y Dr×r es una matriz Se denomina g-inversa de Moore-Penrose de la matriz A a la
diagonal.
matriz A+
p×n que verifica:
La diagonal de D1/2 contiene los valores singulares, que son las
A A+ A = A (que es una g-inversa),
raı́ces cuadradas (positivas) de los valores propios no nulos de A A
(o de A A). Las columnas de U contienen los vectores propios de y además que A+ A A+ = A+ , y que las matrices A+ A y A A+ son
valor propio no nulo de A A y las columnas de V contienen los simétricas. Esto garantiza la unicidad de la g-inversa de
vectores propios de valor propio no nulo de A A. Moore-Penrose.
4 Proyección ortogonal
A partir de la descomposición en valores singulares de la matriz A: Diremos que una matriz A cuadrada y simétrica es idempotente si
A2 = A A = A = A A .
A = U D1/2 V ,
Se verifica que:
se construye la g-inversa de Moore-Penrose como A+ = V D−1/2 U . 1. Una matriz idempotente o bien es singular (det(A) = 0) o bien es
Ejercicio: la matriz identidad.
Comprobar que ası́ definida, A+ = V D−1/2 U , cumple las 2. Los valores propios de una matriz idempotente son cero o la
propiedades A A+ A = A y A+ A A+ = A+ , y además las matrices unidad. Por tanto, si A es idempotente, A ≥ 0.
3. Si A es idempotente, también lo es I − A, puesto que
A+ A y A A+ son simétricas.
(I − A)(I − A) = I − A − A + A2 = I − A.
4. Si A es una matriz idempotente simétrica, rang(A) = tr(A).
Diplomatura en Estadı́stica 29 Diplomatura en Estadı́stica 30
Ejemplo:
Sea Ep un espacio de dimensión 1 engendrado por el vector x. La
4.2 Proyección ortogonal proyección ortogonal del vector y sobre la dirección del vector x es
v = x c, c ∈ R.
Dado un vector y ∈ Rn , diremos que v es la proyección ortogonal
de y sobre el subespacio Ep ⊂ Rn de dimensión p < n si verifica: Para determinar c, imponemos que el vector diferencia w = y − v sea
1. y = v + w, para v ∈ Ep , ortogonal a v, y por tanto también a x:
2. v w = 0, para todo v ∈ Ep . x (y − v) = 0; x y − x v = 0; x y − x x c = 0;
1
Interpretación: El vector y puede descomponerse como suma de dos x y = c x x; x x )−1 x y =
c = ( x y ∈ R.
x2
vectores perpendiculares: v ∈ Ep , que es la proyección de y sobre Ep , x2
y w ∈ En−p , que es un vector ortogonal a todos los vectores de Ep , es Sustituyendo el valor de c en el vector v tenemos que:
decir, que pertenece al espacio complemento ortogonal de Ep . x y
v = x(x x)−1 x y = x = P y,
x2
donde P = x(x x)−1 x = x x /x2 es el proyector ortogonal.
Diplomatura en Estadı́stica 31