Las matrices y los determinantes son herramientas del álgebra que facilitan el ordenamiento de
datos, así como su manejo.
Una matriz es una tabla bidimensional de números en cantidades abstractas que pueden sumar y
multiplicar.
Las matrices se utilizan para describir sistemas de ecuaciones lineales, y registrar los datos que
dependen de varios parámetros.
Una matriz es una tabla cuadrada o rectangular de datos (llamados elementos) ordenados en filas y
columnas, donde una fila es cada una de las líneas horizontales de la matriz y una columna es cada
una de las líneas verticales. A una matriz con m filas y n columnas se le denomina matriz m-por-n
(escrito m×n), y a m y n dimensiones de la matriz.
• A tiene 2 filas y 2 columnas, diremos que su tamaño es (2x2). Qué elemento es a21?.
• B tiene 2 filas y 3 columnas, diremos que su tamaño es (2x3). Qué elemento es b23?.
• C tiene 4 filas y 3 columnas, diremos que su tamaño es (4x3). Qué elemento es c42?.
TIPOS DE MATRIZ
OPERATORIA CON MATRICES
SUMA DE MATRICES
Como en los números reales, los enteros, los racionales y otros elementos matemáticos, en las
matrices también está definida la operación suma (y resta). Más formalmente, podemos decir que
se trata de una operación binaria interna en el grupo de las matrices de la misma dimensión con
coeficientes complejos. Esto es, la suma de matrices es una operación entre dos matrices de la
misma dimensión y su resultado es otra matriz también de la misma dimensión, ya sean matrices
cuadradas o rectangulares.
Es decir, A+B=B+A
El producto de una matriz A=(ai,j) por un escalar αα se define como α⋅A=(α⋅ai,j) . Es decir, se calcula
multiplicando todos los elementos de la matriz por el escalar.
es conmutativa: α⋅A=A⋅α
MATRIZ TRANSPUESTA
La matriz transpuesta (o traspuesta) de la matriz A se denota por At y es la matriz que tiene por filas
a las columnas de A.
OBSERVACIONES
Y PROPIEDADES DE AT
Probablemente, las matrices son el primer contacto que se tiene con elementos matemáticos cuyo
producto no es conmutativo. Es decir, si A y B son dos matrices, no siempre se cumple A⋅B=B⋅A.
Como consecuencia, se pierden algunos resultados como, por ejemplo, la fórmula de Newton para
el cuadrado de un binomio, que establece que para números reales.
(a+b)2=a2+2ab+b2
Como para poder calcular el producto de matrices A⋅B se requiere el número de columnas de A sea
el mismo que el número de filas de B, en ocasiones ni siquiera podemos considerar el producto B⋅A.
a)
b)
c)
d)
e)
DETERMINANTES
La función determinante es de gran importancia en el álgebra ya que, por ejemplo, nos permite
saber si un matriz es regular (si tiene inversa) y, por tanto, si un sistema de ecuaciones lineales tiene
solución. Además, en el caso de que el sistema de ecuaciones tenga una única solución, podemos
calcularla aplicando determinantes (regla de Cramer). Otras aplicaciones: el cálculo del producto
vectorial de dos vectores y determinar si un conjunto de vectores es linealmente independiente.
Las filas de una matriz o sus columnas son linealmente dependientes si, y sólo si, su
determinante es 0.
La función determinante se define para matrices cuadradas. Su definición formal (como función
multilineal alternada) es complicada, pero existen reglas y métodos para calcular los determinantes.
a) b)
Regla de Sarrus
a) Sarrus
b) Laplace
Matriz Adjunta
Ejemplos.
Matriz inversa
Uno de los tipos de matrices más conocidos que existen son las matrices inversas. La matriz inversa
es un punto de paso obligatorio en el álgebra lineal, pero debemos ir con cuidado porque no siempre
existe, así que debemos asegurarnos de que es una matriz invertible antes de calcularla, se
recomienda calcular antes el determinante.
Llamamos matriz invertible a una matriz, cuando existe otra matriz que puede ser considera su
inversa. Es decir, que una matriz es invertible si se puede calcular su inversa, de forma que la matriz
por su inversa de lugar a una matriz identidad. Esto significa que A x A-1 = I. También se dice que una
matriz invertible es una matriz regular, no singular, o no degenerada. No existe la posibilidad de que
una matriz posea más de una inversa.
donde
|A| es el determinante de A
a)
b)
MÉTODO MATRICIAL (MATRÍZ INVERSA) PARA EL DESARROLLO DE SISTEMAS DE ECUACIONES
LINEALES
Una de las aplicaciones más importantes del álgebra matricial es la resolución de sistemas de
ecuaciones lineales (SEL). Sin duda, el resultado más relevante es el teorema de Rouché-Frobenius,
que nos permite clasificar el SEL a partir del rango de la matriz ampliada del SEL.
Asumimos que ya conocemos el concepto de matriz y sus operaciones básicas (suma, resta,
producto, transpuesta, determinante, matriz inversa, rango, etc.).
Ejemplo:
Ahora tú resuelve.