Anda di halaman 1dari 20

Captulo 1.

lgebra Matricial - JMRA - Cinvestav


4
CAPTULO 1
LGEBRA MATRICIAL
1.1 El Estudio de Sistemas
El estudio y diseo de un sistema fsico puede llevarse a cabo mediante mtodos empricos. Se
aplican varias seales al sistema y se miden sus respuestas. Si el funcionamiento no es satisfactorio,
se ajustan algunos de sus parmetros o se conectan compensadores para mejorar su funcionamiento.
Esto es una tcnica emprica.
El mtodo emprico puede ser insatisfactorio si las especificaciones de funcionamiento son muy
estrictas (p.ej., aplicaciones militares o de aeronutica). Tambin puede ser inadecuado si el sistema
fsico es muy complicado, caro o peligroso. Por lo tanto, en general estamos interesados ms bien
en mtodos analticos, que nos permitan tener una concepcin ms clara del sistema fsico antes de
tratar de manejarlo.
El desarrollo de mtodos analticos se puede dar en varias etapas, de las cuales las principales son:
Modelado
Desarrollo de ecuaciones matemticas
Anlisis
Diseo
El modelado es un problema muy importante, porque permite hacer una abstraccin del sistema fsico
para poder representarlo mediante expresiones matemticas que lo describen. Dependiendo del
problema que se desea analizar, una forma de ecuacin (lineal, no-lineal, diferencial) puede preferirse
a otra.
Un aspecto determinante es la validez del modelo. Es muy difcil desde un punto de vista prctico,
lograr abstraer toda la complejidad de un sistema fsico con unas cuantas expresiones. Normalmente
el modelo logrado tendr algunas limitantes, como por ejemplo: a) el rango de frecuencias de inters;
b) la inclusin o exclusin de no-linealidades.
Las expresiones matemticas a las que se circunscribe este curso son de cualquiera de dos tipos:
y(s) = G(s) u(s) : para cuando se manejan relaciones entrada-salida nicamente
Captulo 1. lgebra Matricial - JMRA - Cinvestav
5
(1.2)
: cuando la descripcin del modelo es en forma de variables de estado.
G(s) es una matriz funcin de transferencia, cuyos elementos se limitan a funciones racionales; x son
las variables de estado; y son las salidas observadas; u son la entradas impulsoras independientes.
1.2 Dependencia e Independencia Lineal
1 2 n 1 2 n
Def. Sea x , x , ..., x = X , se dice que el conjunto {x , x , ..., x } es linealmente dependiente si
i
y slo si " = R, i = 1, ..., n, no todos cero, t.q.
1 1 2 2 n n
" x + " x + ... + " x = 0 (1.1)
i
Es claro que (1.1) se satisface para V " = 0, pero puede ser que se satisfaga para otro conjunto de
i 1 2 n
"'s , en cuyo caso el conjunto {x , x , ..., x } es linealmente dependiente.
i
El conjunto es linealmente independiente si (1) se satisface slo para V " = 0.
i i 1 2 n
Def. Si el nico conjunto de "'s que satisfacen (1.1) es "'s = 0,entonces el conjunto {x , x , ..., x }
es linealmente independiente.
1 2 n
Equivalentemente: {x , x , ..., x } es linealmente independiente si
Los elementos del vector " = F .
n
2 n 1
Si {0, x , ..., x } el conjunto es dependiente porque la ec. (1.1) se satisface para cualquier " . Si los
1 2 n
vectores {x , x , ..., x } son linealmente dependientes entonces al menos uno de ellos puede
expresarse como combinacin de los dems. Pero no necesariamente cada uno de ellos puede
expresarse como combinacin lineal de los dems.
1 2 n
Nota: la dependencia lineal depende, no solo del conjunto {x , x , ..., x }, sino tambin del campo
en que estn definidos.
1 2
Ejemplo: El conjunto de vectores {x , x }
Captulo 1. lgebra Matricial - JMRA - Cinvestav
6
es linealmente dependiente en el campo de las funciones racionales,
1 1 2 2 1 2
" x + " x = 0 si " = -1 y " = (s + 3) / (s + 2).
Sin embargo, el mismo conjunto de vectores es linealmente independiente en el campo de los
1 2
nmeros reales; no existe " , " = R diferentes de cero, t.q.
1 1 2 2
" x + " x = 0.
1.3 Dimensin
Def. El mximo nmero de vectores linealmente independientes en X se llama la dimensin de X.
Esto nos lleva a la definicin de la base del espacio vectorial.
1 2 n
Def. Un conjunto de vectores {x , x , ..., x } linealmente independiente de X se dice que es una base
si V x = X se puede expresar unvocamente como
i
" = R, son nicos
al vector " se le denomina la representacin de x en esa base.
Teorema. En un espacio vectorial X de dimensin n, cualquier conjunto de n vectores linealmente
independientes es una base.
1 2 n
prueba: Sea {e , e , ..., e } linealmente independiente, esto es,
1 1 2 2 n n
" e + " e + ... + " e = 0 (1.3)
1 2 n
" = 0, " = 0, ... , " = 0
1 1 2 n
{x , e , e , ..., e } es necesariamente linealmente dependiente. Esto es,
0 1 n
" , " , ... , " no todos cero t.q. (*)
0 1 1 1 2 2 n n
" x + " e + " e + ... + " e = 0 (1.4)
Por contradiccin.
0 i
Supongamos " 0, (1.4) se convierte en (1.3). Pero en (1.3) se dice que " 's = 0, con lo que se viola
0
la condicin (*). " - 0 necesariamente.
Captulo 1. lgebra Matricial - JMRA - Cinvestav
7
(1.5)
De (1.4):
1 2 n
Esto es, x se expresa como combinacin lineal de los e's. Para que el conjunto {e , e , ..., e } sea una
base la combinacin (1.5) ser nica.
Supongamos que x se puede representar de otra manera:
Por lo tanto,
1 2 n
pero {e , e , ..., e } es linealmente independiente, por lo que y la representacin es nica.
1 2 3
Ejemplo Sean los vectores Sean los vectores y , y , y , representados en diferentes bases. Eljase la
1 2 1 2
base [x , x ], entonces los vectores y e y tienen una representacin dada por:
1 2 1 2
se puede definir la matriz L con las representaciones de y e y en la base [x , x ],
Captulo 1. lgebra Matricial - JMRA - Cinvestav
8
1 3 1 3
Si se elige la base [x , x ], entonces los vectores y e y tienen una representacin dada por:
1 3 1 3
se puede definir la matriz L para las representaciones de y e y en la base [x , x ],
Ejemplo: Considere la siguiente matriz con coeficientes en R:
Entonces,
puede mostrarse que: A b = 5 A b - 15 A b + 17 b
3 2
Ya que los vectores b, A b y A b son linealmente independientes, califican como una base. La
2
representacin de A respecto a esta base es:
Captulo 1. lgebra Matricial - JMRA - Cinvestav
9
Por lo tanto, la representacin de la matriz A respecto a la base {b, Ab, A b} es:
2
Puede mostrarse que existe una matriz Q, no-singular t.q. L = Q A Q.
-1
Sea A = R , si existe un vector b = R t.q.: b, Ab, ..., A b son linealmente independientes, y
n x n n x 1 n-1
si
la representacin de A con respecto a esta base { b, Ab, ..., A b} es
n-1
Esta forma de matriz de denomina "compaa" (companion matrix, en ingls).
1.4 Sistemas de ecuaciones algebraicas
Enseguida se presenta un resumen de los principales subespacios asociados a la matriz A del
problema A x = b.
Una pregunta que debemos hacernos antes de intentar resolver el problema es: tiene
solucin?. Las definiciones que se presentan sirven para dar una respuesta en este sentido.
Def. La imagen (rango) del operador A = R , J(A), se define como:
m x n
J(A) = {y = R : y = A x, x = R }
m n
Captulo 1. lgebra Matricial - JMRA - Cinvestav
10
Teorema. J(A) es una subespacio.
1 2
Sean y , y = J(A), y A es un operador lineal:
1 1 2 2
y = A x , y = A x
1 1 2 2
pero, la combinacin " y + " y = J(A) ?
1 1 2 2 1 1 2 2 1 1 2 2 1 2
por linealidad, A(" x + " x ) = " A x + " A x = " y + " y , V y , y = J(A),
1 2
V " , " = F.
1 1 2 2
" y + " y = J(A)
Observaciones:
J(A) es el conjunto de todas las combinaciones lineales de las columnas de A
J(A) es un espacio vectorial
Estas dos condiciones nos dicen que la dimensin de J(A) es el mximo nmero de
collumnas linealmente independientes de A.
Def. El rango de la matriz A, D(A), es el mximo nmero de columnas linealmente
independientes de A = dim J(A).
D(A) tambin es el nmero de renglones linealmente independientes de A.
Def. Una matriz cuadrada se dice no-singular iff det(A) - 0.
Teorema. Sea la ec. matricial Ax = y, A = R ; A: R R ,
m x n n m
i) Dados A, y , x = R t.q. Ax = y, iff
n
D(A) = D([A | y]) y = J(A)
ii) Dada A, x = R V y = R , iff
n m
J(A) = R D(A) = m
m
Def. El espacio nulo del operador A, 0(A) o Ker(A), se define como
0(A) = { x = R : A x = 0 }
n
0(A) es un subespacio.
La nulidad de A <(A) = dim [ 0(A) ].
Captulo 1. lgebra Matricial - JMRA - Cinvestav
11
Existen varias relaciones tiles para la resolucin de algunos problemas, como por ejemplo:
D(A) + <(A) = n (nmero de columnas de A)
Desigualdad de Sylvester: si A = R , B = R entonces se cumple que
q x n n x p
D(A) + D(B) - n D(AB) min(D(A), D(B))
Si A = R , B = R , C = R , B y C no-singulares, entonces
n x m n x n m x m
D(A) = D(BA) = D(AC) = D(BAC)
1.5 Resumen de relaciones y definiciones tiles
Propiedad de transpuestas
1 2 n n n-1 1
(A A ... A ) = A A ... A
t t t t
(A + B) = A + B
t t t
tr(A ) = tr(A)
t
D(A) = D(A )
t
Transpuesta conjugada compleja
i j
B = A b =
*
(A B) = B A
* * *
(A + B) = A + B
* * *
Tipos de matrices
Simtrica : A = A
t
Hermtica : A = A
*
Antisimtrica : A = - A
t
Captulo 1. lgebra Matricial - JMRA - Cinvestav
12
Normal : A A = A A
* *
Ortogonal : A A = A A = I
t t
Unitaria : A A = A A = I
* *
Lemma de inversin de matrices
[A + B C D] = A - A B [D A B + C ] D A
- 1 - 1 - 1 - 1 - 1 - 1 - 1
Inversin de matrices a bloques
Si A = R y B = R se cumple que:
n x m m x n
1.6 Factorizacin LU
Captulo 1. lgebra Matricial - JMRA - Cinvestav
13
ste mtodo debe su nombre a que la solucin de un conjunto lineal de ecuaciones algebricas, se
basa en la descomposicin de la matriz de coeficientes original, A, en el producto de dos matrices
L y U. Esto es,
A = LU (1.6.1)
donde,
L es una matriz triangular inferior
U es una matriz triangular superior, con todos los elementos de la diagonal principal iguales a la
unidad.
Por ejemplo, para una matriz A = C :
3x3
(1.6.2)
Si se efecta la multiplicacin de L y U, igualando los elementos de se producto con los de la matriz
A correspondientes, se obtiene:
11 11 12 11 12 13 11 13
a = l a = l u a = l u
21 21 22 21 12 22 23 21 13 22 23
a = l a = l u + l a = l u + l u
31 31 32 31 12 32 33 31 13 32 23 33
a = l a = l u + l a = l u + l u + l
De aqu que ls elementos de L y U aon en ste caso:
11 11 12 12 11 13 13 11
l = a u = a / l u = a / l
21 21 22 21 12 22 23 21 13 23 22
l = a l = -l u + a u = (-l u + a ) / l
31 31 32 31 12 32 33 31 13 32 23 33
l = a l = -l u + a l = -l u - l u + a
Si el sistema de ecuaciones original se escribe como sigue:
Ax = b (1.6.3)
y se sustituye la factorizacin,
LU x = b (1.6.4)
Definiendo de la ec. (1.6.4),
U x = y (1.6.5)
resulta,
L y = b (1.6.6)
Captulo 1. lgebra Matricial - JMRA - Cinvestav
14
Regresando al ejemplo,
11 1 1 1 1 11
l y = b > y = b / l
21 1 22 2 2 2 2 21 1 22
l y + l y = b > y = ( b - l y ) / l
31 1 32 2 33 3 3 3 3 31 1 32 2 33
l y + l y + l y = b > y = ( b - l y - l y ) / l
Una vez conocidas L y U, el algoritmo de solucin consiste en calcular los valores del vector y
mediante sustitucin progresiva sobre la ec. (1.6.5). Enseguida se resuelve (1.6.4) por sustitucin
regresiva para calcular los valores del vector de incgnitas x:
1 12 2 13 3 1 1 1 12 2 13 3
x + u x + u x = y > x = y - u x - u x
2 23 3 2 2 2 23 3
x + u x = y > x = y - u x
3 3 3 3
x = y > x = y
La determinacin de los elementos de las matrices L y U se realiza eficientemente aplicando una
forma modificada del mtodo de eliminacin de Gauss.
Se observa que el mtodo de descomposicin LU opera slo sobre la matriz de coeficientes, sin
modificar el vector de excitacin b; por lo que resulta superior al mtodo de eliminacin Gaussiana.
Ejemplo. Resolver el sistema sigueinte factorizando la matriz A en su forma LU,
Las matrices de factores resultan,
El primer paso es aplicar la sustitucin regresiva:
L y = b
Captulo 1. lgebra Matricial - JMRA - Cinvestav
15
de donde,
El segundo paso es resolver para el vector de incgnitas x mediante sustitucin regresiva:
U x = y
por lo cual,
1.7 Factorizacin LDU
En el caso especial en el que la matriz A es simtrica, es posible obtener una ventaja adicional al
descomponer la matriz L en dos matrices factores L D. ste mtodo se conoce como factorizacin
LDU, y expresa la matriz de coeficientes original A como el producto de tres matrices:
A = L D U (1.7.6)
donde:
L es una matriz triangular inferior con los elementos de la diagonal principal iguales a la unidad.
U es una matriz triangular superior con los elementos de la diagonal principal iguales a la unidad.
D es una matriz diagonal.
Los elementos de la matriz diagonal D son simplemente los elementos de la diagonal principal de
la matriz L. La nueva matriz L se obtiene a partir de L dividiendo los elementos de cada columna
entre el elemento de la diagonal principal de la misma. La matriz L resulta ser la transpuesta de U,
por lo que slo es necesario almacenar una de ellas, con el consiguiente ahorro de memoria.
Captulo 1. lgebra Matricial - JMRA - Cinvestav
16
Susituyendo (1.7.6) en (1.6.1) se tiene:
L D U x = b (1.7.7)
Definiendo,
U x = y (1.7.8)
D y = y (1.7.9)
Entonces,
L y = b (1.7.10)
El algoritmo resulta ser: se resuelve (1.7.10) para el vector y mediante sustitucin progresiva.
Enseguida se resuelve (1.7.9) para el vector y, mediante simples divisiones. Finalmente, mediante
sustitucin regresiva, se resuelve (1.7.8) para el vector de incgnitas x.
Ejemplo. Factorizar la matriz L del ejemplo anterior en las matrices LD. Compruebe que L = U .
T
La matriz L es,
L =
Al dividir los elementos de cada columna por el elemento de la diagonal principal correspondiente,
resultan los elementos de L; los elementos de D son los de la diagonal principal de L,
1.8 Matriz Inversa Dispersa
Una matriz dispersa es aquella en la que el nmero de elementos iguales a cero es mucho mayor que
aquellos diferentes de cero. Por lo general, la inversa de una matriz dispersa resulta ser una matriz
llena. El algoritmo para calcular la matriz inversa dispersa permite obtener aquellos elementos
diferentes de cero en la matriz original, ms los creados como resultado de la factorizacin, y as
poder generar cualquier elemento de ella.
Sea
A = LDU (1.8.11)
Captulo 1. lgebra Matricial - JMRA - Cinvestav
17
Al multiplicar una matriz por su inversa se obtiene la matriz identidad,
A A = I (1.8.12)
-1
de modo que,
(L D U ) A = I (1.8.13)
-1
Definiendo,
W = (L D) (1.8.14)
-1
entonces
W = L D
-1
Por lo cual (1.8.13) resulta,
U A = W
-1
Sumando y restando A ,
-1
U A + A - A = W
-1 -1 -1
De donde,
A = W + (I - U)A
-1 -1
si se define T = I - U,
A = W + T A
-1 -1
Por ejemplo, para una cuadrada matriz de dimensin 3 se tendra una estructura como la siguiente:
ij
El procedimiento para obtener los elementos g de A en forma secuencial, por sustitucin regresiva
-1
es el siguiente:
33 33
g = w
23 23 33
g = t g
13 12 23 13 33
g = t g + t g
etc.
El algoritmo para calcular la inversa dispersa es til, por ejemplo, en estudios de fallas en los que
no es necesario obtener todos los elementos de la matriz de impedancias para realizar el anlisis
Captulo 1. lgebra Matricial - JMRA - Cinvestav
18
requerido.
1.9 Ejemplo de Bifactorizacin
Sea la matriz,
Se sabe que mediante operaciones elementales es posible calcular la matriz inversa. Esto es,
Donde las matrices L y R son elementales.
de modo que
Captulo 1. lgebra Matricial - JMRA - Cinvestav
19
Captulo 1. lgebra Matricial - JMRA - Cinvestav
20
1.10 Transformaciones matriciales
Una transformacin matricial lineal, T, se define como una correspondencia que aplica o mapea cada
1 1 2
vector x = C een el vector Tx = C , de manera que para todos los vectores x , x y los escalares 8 ,
n m
2
8 se cumple:
1 + 2 1 2 1 2 1 2
T(8 x 8 x ) = 8 T(x ) + 8 T(x ) (1.10.15)
La utilidad de las transformaciones matriciales para el anlisis de SEP, se encuentra en el hecho de
que es posible lograr una representacin ms simple de algunos problemas, sin cambiar las
caractersticas bsicas del mismo.
Sean T y R matrices de transformacin no-singulares, aplicadas a los vectores de voltaje y corriente
N N
en las fases (V e I ). Las relaciones que se establecen entre los vectores de fase y los vectores
m m
transformados (V e I ) son:
Captulo 1. lgebra Matricial - JMRA - Cinvestav
21
m N m N
T V = V > V = T V (1.10.16)
-1
m N m N
R I = I > I = R I (1.10.17)
-1
La relacin voltaje-corriente en las fases es:
N N N
V = [ Z ] I (1.10.18)
de modo que,
m N m
T V = [ Z ] R I
Premultiplicando por la inversa de T,
m N m
T T V = T [ Z ] R I (1.10.19)
-1 -1
m N m
V = T [ Z ] R I (1.10.20)
-1
Se define la matriz de impedancias transformada como:
m N
Z = T [ Z ] R
-1
Por lo que (1.10.20) se reduce a :
m m m
V = [ Z ] I (1.10.21)
que es la relacin voltaje-corriente en el sistema de referencia transformado. Las ecuaciones
m N
(1.10.18) y (1.10.21) tienen la misma estructura, y las matrices Z y Z son equivalentes. Si TR =
-1
I, entonces T y R son una transformacin de similaridad.
-1
Algunas propiedades de las transformaciones de similaridad son las siguientes:
m N
a) [ Z ] = T [ Z ] T
k -1 k
m N
b) [ Z ] = T [ Z ] T
-1 -1 -1
m N
c) | Z | = | Z |
Una caracterstica deseable en una transformacin de similaridad es el hecho de poder diagonalizar,
T [ Z ] T = D (1.10.22)
-1
As que,
T [ Z ] = D T (1.10.23)
-1 -1
Transponiendo
Z [T ] = [T ] D
t -1 t -1 t
Ya que Z es simtrica, y definiendo
Z [Q] = [Q] D (1.10.24)
t t
Captulo 1. lgebra Matricial - JMRA - Cinvestav
22
Por ejemplo,
As que,
(25)
ste es un problema de valores y vectores propios, en el que se requiere que para no tener una
solucin trivial,
(26)
i
De la ecuacin caracterstica de (1.10.26) se obtienen los elementos diagonales d , comnocidos como
los valores propios:
1 d m
d = z + 2 z
2 d m
d = z - z
3 d m
d = z - z
Sustituyendo cada uno de stos valores propios en (1.10.25), es posible determinar los vectores
i
caractersticos q . Resumiendo,
a) Los elementos de la primera fila deben ser iguales:
11 12 13
q = q = q
b) La suma de los elementos de la segunda o tercera fila entre s debe ser igual a cero:
21 22 23
q + q + q = 0
31 32 33
q + q + q = 0
Siguiendo stas reglas es posible construir una matriz de transformacin que diagonalice la matriz
simtrica original. Dos de las matrices de transformacin de mayor utilidad en el anlisis de SEP, y
s
que cumplen las restricciones anteriores, son la de componentes simtricas (T ) y la transformacin
c
de Clarke, (T ):
Captulo 1. lgebra Matricial - JMRA - Cinvestav
23
(1.10.27)
El operador a = 1 .120.
La transformacin de Clarke se utiliza tambin en el anlisis de fallas en condiciones asimtricas,
y se expresa mediante:
(1.10.28)
1.11 Reduccin de Kron
Sea el sistema de ecuaciones:
V = Z I (1.11.29)
Se efecta una particin de la matriz Z, de tal forma que,
(1.11.30)
2
Si V = 0,
2 D C 1
I = - Z Z I (1.11.31)
-1
Sustituyendo en (1.11.30),
1 A 1 B 2
V = Z I + Z I
1 A B D C 1
V = [ Z - Z Z Z ] I
-1
Que puede reescribirse como,
1 eq 1
V = Z I (1.11.32)
As, el sistema de ecuaciones original (1.11.29) se ha reducido al sistema equivalente (1.11.32).

Anda mungkin juga menyukai