Definicin de matriz
Se llama matriz de orden mn a todo conjunto rectangular de elementos aij dispuestos en m lneas horizontales (filas) y n verticales (columnas) de la forma:
Abreviadamente suele expresarse en la forma A =(aij), con i =1, 2, ..., m, j =1, 2, ..., n. Los subndices indican la posicin del elemento dentro de la matriz, el primero denota la fila (i) y el segundo la columna (j). Por ejemplo el elemento a25 ser el elemento de la fila 2 y columna 5. Dos matrices son iguales cuando tienen la misma dimensin y los elementos que ocupan el mismo lugar en ambas son iguales.
A=
, B=
A + B =
A=
B=
B=
A=
, B=
A + B=
Ejemplo 2
A - B= .
Producto De Matrices.
Dos matrices A y B se dicen multiplicables si el nmero de columnas de A coincide con el nmero de filas de B. Mm x n x Mn x p = M m x p El elemento cij de la matriz producto se obtiene multiplicando cada elemento de la fila i de la matriz A por cada elemento de la columna j de la matriz B y sumndolos.
1. Dadas
(a)Describir los vectores filas y los vectores columnas de Los vectores filas de columnas de son: y (b)Hallar , , son: y son: y y
(a)
(b)
Matriz inversa
El producto de una matriz por su inversa es igual al matriz identidad. A A-1 = A-1 A = I Se puede calcular la matriz inversa por dos mtodos:
Ejemplo
1. Calculamos el determinante de la matriz, en el caso que el determinante sea nulo la matriz no tendr inversa.
2. Hallamos la matriz adjunta, que es aquella en la que cada elemento se sustituye por su adjunto.
4. La matriz inversa es igual al inverso del valor de su determinante por la matriz traspuesta de la adjunta.
2 Utilizando el mtodo Gauss vamos a transformar la mitad izquierda, A, en la matriz identidad, que ahora est a la derecha, y la matriz que resulte en el lado derecho ser la matriz inversa: A-1. F2 - F1 F1 + F2
F3 + F2
(-1) F2
F2 - F3
(A t)-1 = (A -1)t
Donde:
A= X=
B= es la matriz de trminos independientes. Luego un sistema lineal de ecuaciones se puede expresar matricialmente como AX=B Si la matriz de coeficientes es invertible, es decir, posee inversa entonces el sistema tiene solucin AX=B => A-1AX=A-1B => X=A-1B. Por tanto resolver un sistema de ecuaciones a travs de matrices consiste en poner el sistema en forma matricial. La solucin, si la hay, ser el producto de la inversa de la matriz de coeficiente (A-1) por la matriz de trminos independientes (B).
Ejemplo
Determinante
Una matriz de orden uno, es un caso trivial, pero lo trataremos para completar todos los casos. Una matriz de orden uno puede ser tratada como un escalar, pero aqu la consideraremos una matriz cuadrada de orden uno:
En este ltimo caso, para acordarnos de todos los productos posibles y sus correspondientes signos se suele usar la Regla de Sarrus, que consiste en un esquema grfico para los productos positivos y otro para los negativos:
1.|At|= |A|
2. |A|=0
Si:
F3 = F1 + F2
5. Si a los elementos de una lnea se le suman los elementos de otra paralela multiplicados previamente por un n real el valor del determinante no vara.
6. Si se multiplica un determinante por un nmero real, queda multiplicado por dicho nmero cualquier lnea, pero slo una.
7. Si todos los elementos de una fila o columna estn formados por dos sumandos, dicho determinante se descompone en la suma de dos determinantes.
Regla de Cramer
La regla de Cramer es un teorema en lgebra lineal, que da la solucin de un sistema lineal de ecuaciones en trminos de determinantes. Recibe este nombre en honor a Gabriel Cramer (1704 - 1752), quien public la regla en su Introduction l'analyse des lignes
courbes algbriques de 1750, aunque Colin Maclaurin tambin public el mtodo en su Treatise of Geometry de 1748 (y probablemente saba del mtodo desde 1729).1 La regla de Cramer es de importancia terica porque da una expresin explcita para la solucin del sistema. Sin embargo, para sistemas de ecuaciones lineales de ms de tres ecuaciones su aplicacin para la resolucin del mismo resulta excesivamente costosa: computacionalmente, es ineficiente para grandes matrices y por ello no es usado en aplicaciones prcticas que pueden implicar muchas ecuaciones. Sin embargo, como no es necesario pivotar matrices, es ms eficiente que la eliminacin gaussiana para matrices pequeas, particularmente cuando son usadas operaciones SIMD. Si es un sistema de ecuaciones. es la matriz de coeficientes del sistema,
es el vector columna de las incgnitas y es el vector columna de los trminos independientes. Entonces la solucin al sistema se presenta as:
donde es la matriz resultante de reemplazar la j-sima columna de por el vector columna . Hgase notar que para que el sistema sea compatible determinado, el determinante de la matriz ha de ser no nulo.
Ejemplo
Ejemplo 1Vase a continuacin el procedimiento que debe seguirse para utilizar la regla de Cramer. Sea un sistema que cumple las dos condiciones necesarias:
Lo primero ser reescribir el sistema mediante la matriz de los coeficientes y calcular su determinante para asegurarnos que es distinto de cero:
Y el determinante es:
Definimos ahora los determinantes que resultan de cambiar la columna i de la matriz de coeficientes por la columna de trminos independientes. Calculemos dichos determinantes:
La regla de Cramer dice que la soluciones del sistema de ecuaciones son En este caso, pues,