4 CAPTULO 1 LGEBRA MATRICIAL 1.1 El Estudio de Sistemas El estudio y diseo de un sistema fsico puede llevarse a cabo mediante mtodos empricos. Se aplican varias seales al sistema y se miden sus respuestas. Si el funcionamiento no es satisfactorio, se ajustan algunos de sus parmetros o se conectan compensadores para mejorar su funcionamiento. Esto es una tcnica emprica. El mtodo emprico puede ser insatisfactorio si las especificaciones de funcionamiento son muy estrictas (p.ej., aplicaciones militares o de aeronutica). Tambin puede ser inadecuado si el sistema fsico es muy complicado, caro o peligroso. Por lo tanto, en general estamos interesados ms bien en mtodos analticos, que nos permitan tener una concepcin ms clara del sistema fsico antes de tratar de manejarlo. El desarrollo de mtodos analticos se puede dar en varias etapas, de las cuales las principales son: Modelado Desarrollo de ecuaciones matemticas Anlisis Diseo El modelado es un problema muy importante, porque permite hacer una abstraccin del sistema fsico para poder representarlo mediante expresiones matemticas que lo describen. Dependiendo del problema que se desea analizar, una forma de ecuacin (lineal, no-lineal, diferencial) puede preferirse a otra. Un aspecto determinante es la validez del modelo. Es muy difcil desde un punto de vista prctico, lograr abstraer toda la complejidad de un sistema fsico con unas cuantas expresiones. Normalmente el modelo logrado tendr algunas limitantes, como por ejemplo: a) el rango de frecuencias de inters; b) la inclusin o exclusin de no-linealidades. Las expresiones matemticas a las que se circunscribe este curso son de cualquiera de dos tipos: y(s) = G(s) u(s) : para cuando se manejan relaciones entrada-salida nicamente Captulo 1. lgebra Matricial - JMRA - Cinvestav 5 (1.2) : cuando la descripcin del modelo es en forma de variables de estado. G(s) es una matriz funcin de transferencia, cuyos elementos se limitan a funciones racionales; x son las variables de estado; y son las salidas observadas; u son la entradas impulsoras independientes. 1.2 Dependencia e Independencia Lineal 1 2 n 1 2 n Def. Sea x , x , ..., x = X , se dice que el conjunto {x , x , ..., x } es linealmente dependiente si i y slo si " = R, i = 1, ..., n, no todos cero, t.q. 1 1 2 2 n n " x + " x + ... + " x = 0 (1.1) i Es claro que (1.1) se satisface para V " = 0, pero puede ser que se satisfaga para otro conjunto de i 1 2 n "'s , en cuyo caso el conjunto {x , x , ..., x } es linealmente dependiente. i El conjunto es linealmente independiente si (1) se satisface slo para V " = 0. i i 1 2 n Def. Si el nico conjunto de "'s que satisfacen (1.1) es "'s = 0,entonces el conjunto {x , x , ..., x } es linealmente independiente. 1 2 n Equivalentemente: {x , x , ..., x } es linealmente independiente si Los elementos del vector " = F . n 2 n 1 Si {0, x , ..., x } el conjunto es dependiente porque la ec. (1.1) se satisface para cualquier " . Si los 1 2 n vectores {x , x , ..., x } son linealmente dependientes entonces al menos uno de ellos puede expresarse como combinacin de los dems. Pero no necesariamente cada uno de ellos puede expresarse como combinacin lineal de los dems. 1 2 n Nota: la dependencia lineal depende, no solo del conjunto {x , x , ..., x }, sino tambin del campo en que estn definidos. 1 2 Ejemplo: El conjunto de vectores {x , x } Captulo 1. lgebra Matricial - JMRA - Cinvestav 6 es linealmente dependiente en el campo de las funciones racionales, 1 1 2 2 1 2 " x + " x = 0 si " = -1 y " = (s + 3) / (s + 2). Sin embargo, el mismo conjunto de vectores es linealmente independiente en el campo de los 1 2 nmeros reales; no existe " , " = R diferentes de cero, t.q. 1 1 2 2 " x + " x = 0. 1.3 Dimensin Def. El mximo nmero de vectores linealmente independientes en X se llama la dimensin de X. Esto nos lleva a la definicin de la base del espacio vectorial. 1 2 n Def. Un conjunto de vectores {x , x , ..., x } linealmente independiente de X se dice que es una base si V x = X se puede expresar unvocamente como i " = R, son nicos al vector " se le denomina la representacin de x en esa base. Teorema. En un espacio vectorial X de dimensin n, cualquier conjunto de n vectores linealmente independientes es una base. 1 2 n prueba: Sea {e , e , ..., e } linealmente independiente, esto es, 1 1 2 2 n n " e + " e + ... + " e = 0 (1.3) 1 2 n " = 0, " = 0, ... , " = 0 1 1 2 n {x , e , e , ..., e } es necesariamente linealmente dependiente. Esto es, 0 1 n " , " , ... , " no todos cero t.q. (*) 0 1 1 1 2 2 n n " x + " e + " e + ... + " e = 0 (1.4) Por contradiccin. 0 i Supongamos " 0, (1.4) se convierte en (1.3). Pero en (1.3) se dice que " 's = 0, con lo que se viola 0 la condicin (*). " - 0 necesariamente. Captulo 1. lgebra Matricial - JMRA - Cinvestav 7 (1.5) De (1.4): 1 2 n Esto es, x se expresa como combinacin lineal de los e's. Para que el conjunto {e , e , ..., e } sea una base la combinacin (1.5) ser nica. Supongamos que x se puede representar de otra manera: Por lo tanto, 1 2 n pero {e , e , ..., e } es linealmente independiente, por lo que y la representacin es nica. 1 2 3 Ejemplo Sean los vectores Sean los vectores y , y , y , representados en diferentes bases. Eljase la 1 2 1 2 base [x , x ], entonces los vectores y e y tienen una representacin dada por: 1 2 1 2 se puede definir la matriz L con las representaciones de y e y en la base [x , x ], Captulo 1. lgebra Matricial - JMRA - Cinvestav 8 1 3 1 3 Si se elige la base [x , x ], entonces los vectores y e y tienen una representacin dada por: 1 3 1 3 se puede definir la matriz L para las representaciones de y e y en la base [x , x ], Ejemplo: Considere la siguiente matriz con coeficientes en R: Entonces, puede mostrarse que: A b = 5 A b - 15 A b + 17 b 3 2 Ya que los vectores b, A b y A b son linealmente independientes, califican como una base. La 2 representacin de A respecto a esta base es: Captulo 1. lgebra Matricial - JMRA - Cinvestav 9 Por lo tanto, la representacin de la matriz A respecto a la base {b, Ab, A b} es: 2 Puede mostrarse que existe una matriz Q, no-singular t.q. L = Q A Q. -1 Sea A = R , si existe un vector b = R t.q.: b, Ab, ..., A b son linealmente independientes, y n x n n x 1 n-1 si la representacin de A con respecto a esta base { b, Ab, ..., A b} es n-1 Esta forma de matriz de denomina "compaa" (companion matrix, en ingls). 1.4 Sistemas de ecuaciones algebraicas Enseguida se presenta un resumen de los principales subespacios asociados a la matriz A del problema A x = b. Una pregunta que debemos hacernos antes de intentar resolver el problema es: tiene solucin?. Las definiciones que se presentan sirven para dar una respuesta en este sentido. Def. La imagen (rango) del operador A = R , J(A), se define como: m x n J(A) = {y = R : y = A x, x = R } m n Captulo 1. lgebra Matricial - JMRA - Cinvestav 10 Teorema. J(A) es una subespacio. 1 2 Sean y , y = J(A), y A es un operador lineal: 1 1 2 2 y = A x , y = A x 1 1 2 2 pero, la combinacin " y + " y = J(A) ? 1 1 2 2 1 1 2 2 1 1 2 2 1 2 por linealidad, A(" x + " x ) = " A x + " A x = " y + " y , V y , y = J(A), 1 2 V " , " = F. 1 1 2 2 " y + " y = J(A) Observaciones: J(A) es el conjunto de todas las combinaciones lineales de las columnas de A J(A) es un espacio vectorial Estas dos condiciones nos dicen que la dimensin de J(A) es el mximo nmero de collumnas linealmente independientes de A. Def. El rango de la matriz A, D(A), es el mximo nmero de columnas linealmente independientes de A = dim J(A). D(A) tambin es el nmero de renglones linealmente independientes de A. Def. Una matriz cuadrada se dice no-singular iff det(A) - 0. Teorema. Sea la ec. matricial Ax = y, A = R ; A: R R , m x n n m i) Dados A, y , x = R t.q. Ax = y, iff n D(A) = D([A | y]) y = J(A) ii) Dada A, x = R V y = R , iff n m J(A) = R D(A) = m m Def. El espacio nulo del operador A, 0(A) o Ker(A), se define como 0(A) = { x = R : A x = 0 } n 0(A) es un subespacio. La nulidad de A <(A) = dim [ 0(A) ]. Captulo 1. lgebra Matricial - JMRA - Cinvestav 11 Existen varias relaciones tiles para la resolucin de algunos problemas, como por ejemplo: D(A) + <(A) = n (nmero de columnas de A) Desigualdad de Sylvester: si A = R , B = R entonces se cumple que q x n n x p D(A) + D(B) - n D(AB) min(D(A), D(B)) Si A = R , B = R , C = R , B y C no-singulares, entonces n x m n x n m x m D(A) = D(BA) = D(AC) = D(BAC) 1.5 Resumen de relaciones y definiciones tiles Propiedad de transpuestas 1 2 n n n-1 1 (A A ... A ) = A A ... A t t t t (A + B) = A + B t t t tr(A ) = tr(A) t D(A) = D(A ) t Transpuesta conjugada compleja i j B = A b = * (A B) = B A * * * (A + B) = A + B * * * Tipos de matrices Simtrica : A = A t Hermtica : A = A * Antisimtrica : A = - A t Captulo 1. lgebra Matricial - JMRA - Cinvestav 12 Normal : A A = A A * * Ortogonal : A A = A A = I t t Unitaria : A A = A A = I * * Lemma de inversin de matrices [A + B C D] = A - A B [D A B + C ] D A - 1 - 1 - 1 - 1 - 1 - 1 - 1 Inversin de matrices a bloques Si A = R y B = R se cumple que: n x m m x n 1.6 Factorizacin LU Captulo 1. lgebra Matricial - JMRA - Cinvestav 13 ste mtodo debe su nombre a que la solucin de un conjunto lineal de ecuaciones algebricas, se basa en la descomposicin de la matriz de coeficientes original, A, en el producto de dos matrices L y U. Esto es, A = LU (1.6.1) donde, L es una matriz triangular inferior U es una matriz triangular superior, con todos los elementos de la diagonal principal iguales a la unidad. Por ejemplo, para una matriz A = C : 3x3 (1.6.2) Si se efecta la multiplicacin de L y U, igualando los elementos de se producto con los de la matriz A correspondientes, se obtiene: 11 11 12 11 12 13 11 13 a = l a = l u a = l u 21 21 22 21 12 22 23 21 13 22 23 a = l a = l u + l a = l u + l u 31 31 32 31 12 32 33 31 13 32 23 33 a = l a = l u + l a = l u + l u + l De aqu que ls elementos de L y U aon en ste caso: 11 11 12 12 11 13 13 11 l = a u = a / l u = a / l 21 21 22 21 12 22 23 21 13 23 22 l = a l = -l u + a u = (-l u + a ) / l 31 31 32 31 12 32 33 31 13 32 23 33 l = a l = -l u + a l = -l u - l u + a Si el sistema de ecuaciones original se escribe como sigue: Ax = b (1.6.3) y se sustituye la factorizacin, LU x = b (1.6.4) Definiendo de la ec. (1.6.4), U x = y (1.6.5) resulta, L y = b (1.6.6) Captulo 1. lgebra Matricial - JMRA - Cinvestav 14 Regresando al ejemplo, 11 1 1 1 1 11 l y = b > y = b / l 21 1 22 2 2 2 2 21 1 22 l y + l y = b > y = ( b - l y ) / l 31 1 32 2 33 3 3 3 3 31 1 32 2 33 l y + l y + l y = b > y = ( b - l y - l y ) / l Una vez conocidas L y U, el algoritmo de solucin consiste en calcular los valores del vector y mediante sustitucin progresiva sobre la ec. (1.6.5). Enseguida se resuelve (1.6.4) por sustitucin regresiva para calcular los valores del vector de incgnitas x: 1 12 2 13 3 1 1 1 12 2 13 3 x + u x + u x = y > x = y - u x - u x 2 23 3 2 2 2 23 3 x + u x = y > x = y - u x 3 3 3 3 x = y > x = y La determinacin de los elementos de las matrices L y U se realiza eficientemente aplicando una forma modificada del mtodo de eliminacin de Gauss. Se observa que el mtodo de descomposicin LU opera slo sobre la matriz de coeficientes, sin modificar el vector de excitacin b; por lo que resulta superior al mtodo de eliminacin Gaussiana. Ejemplo. Resolver el sistema sigueinte factorizando la matriz A en su forma LU, Las matrices de factores resultan, El primer paso es aplicar la sustitucin regresiva: L y = b Captulo 1. lgebra Matricial - JMRA - Cinvestav 15 de donde, El segundo paso es resolver para el vector de incgnitas x mediante sustitucin regresiva: U x = y por lo cual, 1.7 Factorizacin LDU En el caso especial en el que la matriz A es simtrica, es posible obtener una ventaja adicional al descomponer la matriz L en dos matrices factores L D. ste mtodo se conoce como factorizacin LDU, y expresa la matriz de coeficientes original A como el producto de tres matrices: A = L D U (1.7.6) donde: L es una matriz triangular inferior con los elementos de la diagonal principal iguales a la unidad. U es una matriz triangular superior con los elementos de la diagonal principal iguales a la unidad. D es una matriz diagonal. Los elementos de la matriz diagonal D son simplemente los elementos de la diagonal principal de la matriz L. La nueva matriz L se obtiene a partir de L dividiendo los elementos de cada columna entre el elemento de la diagonal principal de la misma. La matriz L resulta ser la transpuesta de U, por lo que slo es necesario almacenar una de ellas, con el consiguiente ahorro de memoria. Captulo 1. lgebra Matricial - JMRA - Cinvestav 16 Susituyendo (1.7.6) en (1.6.1) se tiene: L D U x = b (1.7.7) Definiendo, U x = y (1.7.8) D y = y (1.7.9) Entonces, L y = b (1.7.10) El algoritmo resulta ser: se resuelve (1.7.10) para el vector y mediante sustitucin progresiva. Enseguida se resuelve (1.7.9) para el vector y, mediante simples divisiones. Finalmente, mediante sustitucin regresiva, se resuelve (1.7.8) para el vector de incgnitas x. Ejemplo. Factorizar la matriz L del ejemplo anterior en las matrices LD. Compruebe que L = U . T La matriz L es, L = Al dividir los elementos de cada columna por el elemento de la diagonal principal correspondiente, resultan los elementos de L; los elementos de D son los de la diagonal principal de L, 1.8 Matriz Inversa Dispersa Una matriz dispersa es aquella en la que el nmero de elementos iguales a cero es mucho mayor que aquellos diferentes de cero. Por lo general, la inversa de una matriz dispersa resulta ser una matriz llena. El algoritmo para calcular la matriz inversa dispersa permite obtener aquellos elementos diferentes de cero en la matriz original, ms los creados como resultado de la factorizacin, y as poder generar cualquier elemento de ella. Sea A = LDU (1.8.11) Captulo 1. lgebra Matricial - JMRA - Cinvestav 17 Al multiplicar una matriz por su inversa se obtiene la matriz identidad, A A = I (1.8.12) -1 de modo que, (L D U ) A = I (1.8.13) -1 Definiendo, W = (L D) (1.8.14) -1 entonces W = L D -1 Por lo cual (1.8.13) resulta, U A = W -1 Sumando y restando A , -1 U A + A - A = W -1 -1 -1 De donde, A = W + (I - U)A -1 -1 si se define T = I - U, A = W + T A -1 -1 Por ejemplo, para una cuadrada matriz de dimensin 3 se tendra una estructura como la siguiente: ij El procedimiento para obtener los elementos g de A en forma secuencial, por sustitucin regresiva -1 es el siguiente: 33 33 g = w 23 23 33 g = t g 13 12 23 13 33 g = t g + t g etc. El algoritmo para calcular la inversa dispersa es til, por ejemplo, en estudios de fallas en los que no es necesario obtener todos los elementos de la matriz de impedancias para realizar el anlisis Captulo 1. lgebra Matricial - JMRA - Cinvestav 18 requerido. 1.9 Ejemplo de Bifactorizacin Sea la matriz, Se sabe que mediante operaciones elementales es posible calcular la matriz inversa. Esto es, Donde las matrices L y R son elementales. de modo que Captulo 1. lgebra Matricial - JMRA - Cinvestav 19 Captulo 1. lgebra Matricial - JMRA - Cinvestav 20 1.10 Transformaciones matriciales Una transformacin matricial lineal, T, se define como una correspondencia que aplica o mapea cada 1 1 2 vector x = C een el vector Tx = C , de manera que para todos los vectores x , x y los escalares 8 , n m 2 8 se cumple: 1 + 2 1 2 1 2 1 2 T(8 x 8 x ) = 8 T(x ) + 8 T(x ) (1.10.15) La utilidad de las transformaciones matriciales para el anlisis de SEP, se encuentra en el hecho de que es posible lograr una representacin ms simple de algunos problemas, sin cambiar las caractersticas bsicas del mismo. Sean T y R matrices de transformacin no-singulares, aplicadas a los vectores de voltaje y corriente N N en las fases (V e I ). Las relaciones que se establecen entre los vectores de fase y los vectores m m transformados (V e I ) son: Captulo 1. lgebra Matricial - JMRA - Cinvestav 21 m N m N T V = V > V = T V (1.10.16) -1 m N m N R I = I > I = R I (1.10.17) -1 La relacin voltaje-corriente en las fases es: N N N V = [ Z ] I (1.10.18) de modo que, m N m T V = [ Z ] R I Premultiplicando por la inversa de T, m N m T T V = T [ Z ] R I (1.10.19) -1 -1 m N m V = T [ Z ] R I (1.10.20) -1 Se define la matriz de impedancias transformada como: m N Z = T [ Z ] R -1 Por lo que (1.10.20) se reduce a : m m m V = [ Z ] I (1.10.21) que es la relacin voltaje-corriente en el sistema de referencia transformado. Las ecuaciones m N (1.10.18) y (1.10.21) tienen la misma estructura, y las matrices Z y Z son equivalentes. Si TR = -1 I, entonces T y R son una transformacin de similaridad. -1 Algunas propiedades de las transformaciones de similaridad son las siguientes: m N a) [ Z ] = T [ Z ] T k -1 k m N b) [ Z ] = T [ Z ] T -1 -1 -1 m N c) | Z | = | Z | Una caracterstica deseable en una transformacin de similaridad es el hecho de poder diagonalizar, T [ Z ] T = D (1.10.22) -1 As que, T [ Z ] = D T (1.10.23) -1 -1 Transponiendo Z [T ] = [T ] D t -1 t -1 t Ya que Z es simtrica, y definiendo Z [Q] = [Q] D (1.10.24) t t Captulo 1. lgebra Matricial - JMRA - Cinvestav 22 Por ejemplo, As que, (25) ste es un problema de valores y vectores propios, en el que se requiere que para no tener una solucin trivial, (26) i De la ecuacin caracterstica de (1.10.26) se obtienen los elementos diagonales d , comnocidos como los valores propios: 1 d m d = z + 2 z 2 d m d = z - z 3 d m d = z - z Sustituyendo cada uno de stos valores propios en (1.10.25), es posible determinar los vectores i caractersticos q . Resumiendo, a) Los elementos de la primera fila deben ser iguales: 11 12 13 q = q = q b) La suma de los elementos de la segunda o tercera fila entre s debe ser igual a cero: 21 22 23 q + q + q = 0 31 32 33 q + q + q = 0 Siguiendo stas reglas es posible construir una matriz de transformacin que diagonalice la matriz simtrica original. Dos de las matrices de transformacin de mayor utilidad en el anlisis de SEP, y s que cumplen las restricciones anteriores, son la de componentes simtricas (T ) y la transformacin c de Clarke, (T ): Captulo 1. lgebra Matricial - JMRA - Cinvestav 23 (1.10.27) El operador a = 1 .120. La transformacin de Clarke se utiliza tambin en el anlisis de fallas en condiciones asimtricas, y se expresa mediante: (1.10.28) 1.11 Reduccin de Kron Sea el sistema de ecuaciones: V = Z I (1.11.29) Se efecta una particin de la matriz Z, de tal forma que, (1.11.30) 2 Si V = 0, 2 D C 1 I = - Z Z I (1.11.31) -1 Sustituyendo en (1.11.30), 1 A 1 B 2 V = Z I + Z I 1 A B D C 1 V = [ Z - Z Z Z ] I -1 Que puede reescribirse como, 1 eq 1 V = Z I (1.11.32) As, el sistema de ecuaciones original (1.11.29) se ha reducido al sistema equivalente (1.11.32).