(x,
[1]
de nmeros reales x e y, con las operaciones de suma y producto que especificaremos ms
adelante. Se suelen identificar los pares (x, 0) con los nmeros reales x.
El conjunto de los nmeros complejos contiene, por tanto, a los nmeros reales como
subconjunto. los nmeros complejos de la forma (0, y) se llaman nmeros imaginarios
puros.Los nmeros reales x e y en la expresion [1] se conocen, respectivamente,
como parte real y parte imaginaria de z. Escribiremos:
Re z
y
x, Im z
[2]
Dos nmeros complejos (x1, y1) y (x2, y2) se dicen iguales si tienen iguales las partes real y
imaginaria. Es decir:
(x1, y1)
si x1= x2
=
e
(x2, y2)
si
y1 = y2
slo
[3]
La suma z1 + z2 y el producto z1z2 de dos nmeros complejos z1 = (x1, y1) y z2 = (x2, y2) se
definen por las ecuaciones:
(x1, y1)
y2)
(x2, y2)
(x1 + x2, y1 +
[4]
(x1, y1)
(x1x2 - y1 y2 + x1, y2)
[5]
(x2, y2)
y)
(x,
0)
(0,
1)(y,
0).
[6]
Ntese que las operaciones definidas por las ecuaciones [4] y [5] son las usuales cuando
se restringen a los nmeros reales:
(x1, 0) + (x2, 0) = (x1 + x2, 0),
(x1, 0)(x2, 0) = (x1x2, 0).
El sistema de los nmeros complejos es, en consecuencia, una extensin natural del de los
nmeros reales.
Pensando en un nmero real como x o como (x, 0), y denotando por i el nmero imaginario
puro (0, 1), podemos reescribir la Ecuacion [6] asi*
(x, y)
= x + iy.
[7]
Asimismo, con el convenio z2 = zz, z3 = zz2, etc., hallamos que
i2 = (0,1)(0,1) = (-1, 0);
es decir,
i2 = -1
A la vista de la expresion [7], las Ecuaciones [6] y [7] se convierten en
(x1 + iy1)
+ i(y1 + y2),
[8]
(x2 + iy2)
(x1 + x2)
(x1x2 - y1y2)
1.2.-
Operaciones
fundamentales
con
nmeros complejos.
z2 =
z2 +
z1 ,
z 1 z2 =
[1]
y las asociativas
(z1 +
(z2z3)
z2)
z3 =
z1 +
(z2 +
z3),
(z1z2)
z3 =
[2]
z1
z2)
zz1 +
[3] es
De acuerdo con la ley conmutativa del producto, iy = yi; luego est permitido escribir
z = x + iy o z = x + yi
Adems, por las leyes asociativas, una suma z1 + z2 + z3 o un producto z1z2z3 estn bien
definidos sin parntesis, igual que ocurra con los nmeros reales.
La identidad aditiva 0 = (0, 0) y la identidad multiplicativa 1 = (1, 0) de los nmeros reales
se transfieren al sistema de los nmeros complejos. O sea,
z
z
=
[4]
para todo nmero complejo z. Ms an, 0 y 1 son los nicos nmeros complejos con tales
propiedades. Para establecer la unicidad de 0, supongamos que (u, v) es una identidad
aditiva, y escribamos
(-x,
[5]
que satisface la ecuacin z + (-z) = 0. Adems, hay un slo inverso aditivo para cada z,
pues la ecuacin (x, y) + (u, v) = (0,0) implica que u = -x y v = -y.
Los inversos aditivos se usan para definir la resta:
z1 - z2 = z1 + (-z2).
Luego si z1 = (x1, y1) y z2 = (x2, y2), entonces
z1 - z2 = (x1 - x2, y1 - y2) = (x1 - x2) + i(y1 - y2).
Anlogamente, para todo nmero complejo z = (x, y) no nulo, existe un nmero
complejo z-1 tal que zz-1 = 1. Este inverso multiplicativo es menos obvio que el aditivo. Para
hallarlo, buscamos nmeros reales u, v expresados en trminos de x e y, tales que
(x, y)(u, v) = (1,0).
Forma Polar
Sean r y coordenadas polares del punto (x, y) que corresponde a un nmero complejo no
nulo z = x + iy. Como
x = r cos
y = r sen
Forma exponencial
La ecuacin
ei = cos + i sen
que define el simbolo ei, o exp (i), para todo valor real de , se conoce como frmula de
Euler. Si escribimos un nmero complejo no nulo en forma polar
z = r(cos + i sen ),
la frmula de Euler permite expresar z ms compactamente en forma exponencial:
z = rei
(n = 0, 1, 2 ...)
donde n tiene uno de los valores n = 2, 3, ..., hallando as las races n-simas de la unidad.
Puesto que z 0, podemos escribir z = rei0 y buscar valores de r y tales que
(rei)n = 1,
o sea
rnein = 1ei0.
Ahora bien
rn = 1 y n = 0 + 2k,
donde k es cualquier entero (k = 0, 1, 2,...). Por tanto, r = 1 y = 2k/n; y se deduce
que los nmeros complejos
z = exp(i[2k / n])
(k = 0, 1, 2,...)
son races n-simas de la unidad. Tal como aparecen aqu, en forma exponencial, se ve
inmediatamente que estn en el crculo unidad centrado en el origen y estn
uniformemente espaciados sobre l cada 2 / n radianes. Evidentemente, pues, todas las
races n-simas de la unidad distintas entre s se obtienen escribiendo
z = exp(i[2k / n]) = cos 2k / n + i sen 2k / n
(k = 0, 1, 2,..., n-1)
(n = 0, 1,
(k = 0, 1, 2,..., n-1),
El mtodo anterior puede usarse para hallar las races n-simas de cualquier nmero
complejo no nulo z0 = r0 exp (i0). Tales races, que se obtienen resolviendo la ecuacin
zn = z 0
en z, son los nmeros
ck = nr0 exp[ i(0 / n + 2k / n)]
(k = 0, 1, ..., n -1)
donde nr0 denota la raz n-sima positiva de r0. El nmero nr0 es la longitud de cada radio
vector representante de las n races. Un argumento de la primera raz c0 es 0 / n, y los de
las otras races se obtienen sumando mltiplos enteros de 2 /n. Por consiguiente, al igual
que ocurra con las races n-simas de la unidad, las races para n = 2 estn siempre en
extremos opuestos de un dimetro de un crculo, siendo una de ellas la negativa de la otra;
y cuando n >= 3, estn en los vrtices de un polgono regular de n lados inscrito en el
crculo de radio r0 centrado en el origen.
Si c es cualquier raz n-sima particular de z0, el conjunto de todas las races n-simas se
puede expresar
c, cn, c2n, ..., cn-1n
donde n = exp (i2k / n). Esto es as porque el producto de cualquier nmero complejo no
nulo por n corresponde a aumentar su argumento en 2 / n.
Denotaremos por z1/n0 el conjunto de races n-simas de un nmero complejo no nulo z0. En
particular, si z0 es un nmero real positivo r0, el smbolo r1/n0 denota un conjunto de races,
y el smbolo nr0 se reserva para la raz positiva. Cuando el valor de 0 que se usa
en ck = nr0 exp[ i(0 / n + 2k / n)]
(k = 0, 1, ..., n -1) es el valor principal de arg z0 (-
< 0 <= ), el nmero c0se suele llamar la raz n-sima principal de z0. As pues,
cuando z0 es un nmero real positivo, su raz principal es nr0.
Un resultado importante de esta definicin es que todos los polinomios de grado n tienen
exactamente n soluciones
en
el
campo
complejo,
esto
es,
tiene
exactamente n complejos z que cumplen la igualdad p(z)=0, contados con sus respectivas
multiplicidades. A esto se lo conoce como Teorema Fundamental del lgebra, y demuestra
que los complejos son un cuerpo algebraicamente cerrado. Por esto los matemticos
consideran a los nmeros complejos unos nmeros ms naturales que los nmeros reales a
la hora de resolver ecuaciones.
Ya podemos encontrar todas las soluciones de una ecuacin como:
zn + 23 = 0 z = n-23
Sern n soluciones.
O las soluciones de ecuaciones como:
zn/m +1 = 0 z = n(-1)m
Cualquier complejo elevado a m est univaluado, nos proporcionar un nico valor.
Si m/n es irreducible, tendremos n soluciones. Si es reducible, m/n = p/q, y tendremos q <
n soluciones distintas.
Es importante, por tanto, simplificar m/n siempre.
Adems: supongamos que hemos simplificado hasta alcanzar m/n. Tomemos una solucin
de las n posibles.
Al elevarla a n/m debera darnos z, pero nos dar m valores y solo uno de ellos es z
2.1.- Definicin
lineales.
de
sistemas
de
ecuaciones
Introduccin
Las ecuaciones lineales son una generalizacin de las ecuaciones de rectas en el plano
bidimensional y se utilizan para la resolucin de innumerables problemas en las diferentes
disciplinas del saber humano, tales como la Qumica, la Mecnica, la Economa, las
Ciencias Sociales, la Fsica, la Biologa, etc.
Ecuacin Lineal
Estamos acostumbrados a utilizar ecuaciones del tipo: 4x + y = 16
y la visualizamos
muy fcilmente ya que es una ecuacin lineal en las variables x e y, y su grfica en el
plano cartesiano XY es una recta que pasa por los puntos (0,16) y (4,0). El lgebra lineal
trata de la generalizacin de las ecuaciones lineales a n variables.
Una ecuacin de la forma:
9 x - 2 y = 13; y
x1 + x2 +. . . . . + xn = 0
Estas son tres ecuaciones lineales. Todas las variables de una ecuacin lineal deben ser de
primer grado, es decir, los exponentes de las variables deben ser la unidad, si por ejemplo
alguna variable de la ecuacin estuviese elevado al cuadrado o a cualquier potencia, ya no
sera una ecuacin lineal.
Un Sistema de Ecuaciones Lineales en las variables x1, x2,...., xn es un conjunto finito de
ecuaciones lineales en dichas variables. Ejemplo:
3 x - 5 y + z = 14
x + 3 y - z = 18
Un sistema de m ecuaciones lineales en n variables, o incgnitas, se escribe de la siguiente
manera:
a11 x1
+ a12 x2
+ ...
+ a1n xn
= b1
a21 x1
+ a22x2
+ ...
+ a2n xn
= b2
.
.
.
am1 x1
.
.
.
+ am2x2
.
.
.
+ ...
+ x1, x2,..... , xn xn
.
.
.
= bm
Donde x1, x2,....., xn son las incgnitas y los coeficientes a y b con subndices, son
constantes
numricas
reales.
El primer subndice, i, de los dos que tiene el coeficiente a ij, coloca a aij en la i-sima
ecuacin del sistema. El segundo subndice, j, de los que tiene el coeficiente a ij, coloca a
ste como el coeficiente de la variable j-sima, xj, del sistema. En particular, a21, se
encuentra ubicado en la segunda ecuacin y es el coeficiente de x 1 en dicha ecuacin.
Una sucesin c1, c2,. . ., cn de nmeros reales es una solucin de la ecuacin lineal:
a1x1+a2x2+a3x3+..... + anxn= b
Si:
a1c1+a2c2+a3x3+..... + ancn= b
La coleccin de todas las soluciones de una ecuacin lineal se llama Conjunto Solucin
de la Ecuacin.
a22x2 =
(1)
donde a11, a12, a22, b1 y b2 son nmeros dados. Cada una de estas ecuaciones es la
ecuacin de una lnea recta (en el plano x 1, x2 en vez del plano xy). La pendiente de la
primera recta es -a11/a12 y la pendiente de la segunda es -a21/a22 (si a12 0 y a22 0). Una
solucin del sistema (1) es un par de nmeros, denotados (x 1, x2), que satisface (1). Las
preguntas que surgen naturalmente son: cundo (1) tiene soluciones? y, si las tiene,
cuntas son? Responderemos a estas preguntas despus de ver algunos ejemplos. En
estos ejemplos usaremos dos propiedades importantes del lgebra elemental:
Propiedad A. Si a = b y c = d entonces a + c = b + d.
Propiedad B. Si a = b y c es cualquier nmero real, entonces ca = cb.
Ejemplo 1 Considere el sistema
x1 - x 2 = 7
x1 + x 2 = 5
Si sumamos las dos ecuaciones tenemos, por la propiedad A, la siguiente ecuacin: 2x1 =
12 (o x1 = 6). Entonces, de la segunda ecuacin tenemos x2 = 5 - x1 = 5 - 6 = -1. As, el
par (6, -1)satisface el sistema y por la forma en que encontramos la solucin vemos que es
el nico par de nmeros que lo hace. Esto es, el sistema tiene solucin nica.
Ejemplo 2 Considere el sistema
x1 - x 2 = 7
2x1 - 2x2 = 14
Es claro que estas dos ecuaciones son equivalentes. Para ver esto multiplicamos la primera
por 2. (Esto es vlido por la propiedad B.) Entonces, x1 - x2 = 7 x2 = x1 -7. As, el par (x1,
x1 -7) es una solucin del sistema para cualquier nmero real x 1. Esto es, el sistema tiene
un nmero infinito de soluciones. Por ejemplo, los siguientes pares son soluciones: (7, 0),
(0, -7), (8, 1), (1, -6) y (3, -4).
Ejemplo 3 Considere el sistema
x1 - x 2 = 7
2x1 - 2x2 = 13
Al multiplicar la primera ecuacin por 2 (lo cual est permitido por la Propiedad B) nos da
2x1 - 2x2 = 14. Esto contradice a la segunda ecuacin. As, el sistema no tiene solucin.
2.3.Interpretacin
soluciones.
geomtrica
de
las
a22x2 =
(1)
Es fcil de explicar geomtricamente lo que sucede en los ejemplos del tema anterior.
Primero, recordemos que las ecuaciones del sistema (1) son ecuaciones rectas. Una
solucin de (1) es un punto (x1, x2) que est en ambas rectas.
Si las dos rectas no son paralelas, se intersecan en un solo punto; si son paralelas nunca se
intersecan (no tienen puntos en comn), o son la misma recta (tienen un nmero infinitos
de puntos en comn). En el ejemplo 1 las rectas tienen pendientes 1 y -1,
respectivamente. Por lo tanto, no son paralelas. Slo poseen el punto (6, -1) en comn. En
el ejemplo 2 las rectas son paralelas (pendientes igual a 1) y coincidentes. En el ejemplo 3
las rectas son paralelas y distintas. Estas relaciones se ilustran a continuacin:
Solucin Buscamos tres nmeros x1, x2 y x3 tales que las tres ecuaciones en (1) sean
satisfechas. Nuestro mtodo de solucin consistir en simplificar las ecuaciones de forma
que las soluciones sean fcilmente identificadas. Empezamos por dividir la primera
ecuacin entre 2. Esto da
2x
x1 + +3x3 = 9
2
4x 5x
2 (2
+ +6x3 =
4 )
1
2
3x
+x2 - 2x3 = 4
1
Sumar dos ecuaciones nos lleva a una tercera ecuacin vlida. Esta ecuacin puede
reemplazar en el sistema a cualquiera de las dos ecuaciones usadas para obtenerla.
Empezamos a simplificar el sistema (2) multiplicando por -4 ambos lados de la primera
ecuacin en (2) y sumando esta nueva ecuacin a la segunda. Esto nos da
8x 21x 4x =
36
2
3
1
4x
1
+
-
5x
2
3x
2
+6x3 = 24
- 6x3 =
12
La ecuacin -3x2 - 6x3 = -12 es nuestra segunda nueva ecuacin y ahora el sistema es
x1 +
3x
1
2x
2
3x
2
+ 3x3 = 9
- 6x3 =
12
+x2 - 2x3 = 4
2x
x1 + +3x3 = 9
2
(3
- 6x3 = 1
)
2
2
5x 11x
=2
2
3
3
3x
2x
2
+3x3 = 9
x2 +2x3 = 4
5x 11x =
23
2
3
Multiplicamos la segunda ecuacin por -2 y la sumamos a la primera; luego se multiplica la
segunda ecuacin por 5 y se suma a la tercera:
x1
- 3x3 = 1
x2 + 2x3 = 4
- x3 = -3
- 3x3 = 1
x2 + 2x3 = 4
x3 = 3
= 4
x2
x3
= -2
= 3
sta se la solucin nica al sistema. La escribimos en la forma de vector (4, -2, 3). El
mtodo aqu usado se conoce como mtodo de eliminacin de Gauss-Jordn.
Resumen:
i. Dividimos para hacer igual a 1 el coeficiente de x1 en la primera ecuacin.
ii. "Eliminamos" los trminos en x 1 de la segunda y tercera ecuaciones. Esto es, hicimos los
coeficientes de estos trminos iguales a cero multiplicando la primera ecuacin por
nmeros apropiados y despus sumndola a la segunda y tercera ecuaciones,
respectivamente.
iii. Dividimos para hacer igual a 1 el coeficiente del trmino en x 2 en la segunda ecuacin y
despus usamos sta para eliminar los trminos en x2de la primera y tercera ecuaciones.
iv. Dividimos para hacer igual a 1 el coeficiente del trmino en x 3 de la tercera ecuacin y
despus usamos esta ecuacin para eliminar los trminos en x 3 de la primera y segunda
ecuaciones.
Debemos enfatizar que en cada paso obtuvimos sistemas que son equivalentes. Esto es,
cada sistema tiene el mismo conjunto de soluciones que el sistema anterior.
Mtodo de eliminacin Gauss-Jordn
Ejemplo 2 Resuelva el sistema del Ejemplo 1 reduciendo la matriz de coeficientes a su
forma escalonada
Solucin Empezamos como antes:
Hasta ahora, el proceso es el mismo que se hizo anteriormente. Sin embargo, despus
solamente hacemos cero el numero (-5) abajo del primero 1 del segundo rengln:
Ahora, tanto la matriz aumentada del sistema (como la matriz de coeficientes) estn en
forma escalonada y vemos inmediatamente que x 3 = 3. Usaremos entonces sustitucin
hacia atrs para despejar x2 y luego x1. La segunda ecuacin es x2 + 2x3= 4. As, x2 + 2(3)
= 4 y x2= -2. De igual forma, de la primera ecuacin obtenemos x 1 + 2(-2) + 3(3) = 9
x1 = 4. Por consiguiente hemos obtenido de nuvo la solucin (4, -2, 3). Este mtodo de
solucin se llama eliminacin gaussiana.
2.5.- Aplicaciones.
Determinacin de curvas
Un problema comn en diferentes reas es la determinacin de curvas. Es decir el
problema
de
encontrar
la funcin que pasa por un conjunto de puntos. Usualmente se conoce la naturaleza de la
funcin,
es
decir,
se
conoce la forma que debe tener la funcin. Por ejemplo, lnea recta, parbola o
exponencial
etc.
Lo
que
se
hace para resolver este tipo de problemas es describir la forma ms general de la funcin
mediante
parmetros
constantes. Y posteriormente se determinan estos parmetros haciendo pasar la funcin
por los puntos conocidos.
Ejemplo
Determine la funcin cuadrtica que pasa por los puntos P(1, 4), Q(1, 2), y R(2, 3).
Solucin
La forma ms general de una cuadrtica es:
f(x) = a x2 + b x + c
Donde los coeficientes a, b, y c son constantes numricas. El problema consiste en
determinar
estos
coeficientes.
As pues los parmetros a, b, y c se vuelven ahora las incgnitas. Y para poderlas
determinar requerimos de ecuaciones o igualdades que deben satisfacer. Para determinar
estas
ecuaciones
debemos
usar
los
puntos.
Para que la funcin pase por el punto P(1, 4) se debe cumplir que
f(x = 1) = 4
es decir, se debe cumplir:
a (1)2 + b (1) + c = 4
es decir, se debe cumplir:
a+b+c=4
Procediendo de igual manera con el punto Q (1, 2): formulamos la ecuacin:
ab+c=2
y para R(2, 3):
4a + 2b + c = 3
Resumiendo para que la funcin f(x) = a x2 + b x + c pase por los puntos P, Q, y R deben
cumplirse las ecuaciones:
a+b+c=4
ab+c=2
4a + 2b + c = 3
La solucin a este sistema es:
a = 2/3 , b = 1, y c = 11/3
La misma situacin presentada en el problema de las fracciones parciales que originaba un
sistema inconsistente, se puede presentar en la determinacin de funciones. Y la
conclusin es similar: si el sistema originado es inconsistente lo que se concluye es que no
existe una funcin con esa forma general que pase exactamente por los puntos dados.
x + 2y + 3z = 9
-3y - 6z = -12
3x + y - 2z = 4
Suma -3 veces la "primera ecuacin" a la "tercera":
x + 2y + 3z = 9
-3y - 6z = -12
-5y - 11z = -23
Multiplica por -(1 3) la "segunda ecuacin":
x + 2y + 3z = 9
y + 2z = 4
-5y -11z = -23
Multiplica por -1 la "tercera ecuacin":
x + 2y + 3z = 9
y + 2z = 4
5y +11z = 23
Suma -5 veces la "segunda ecuacin" a la "tercera":
x + 2y + 3z = 9
y + 2z = 4
z=3
Las soluciones del ltimo sistema son fciles de hallar por sustitucin. De la "tercera
ecuacin", vemos que z = 3. Al sustituir "z" con 3 en la "segunda ecuacin", y + 2z =
4 obtenemos y = -2. Por ltimo, encontramos el valor de "x" al sustituir
y = -2
y
z
= 3,
en la "primera ecuacin", x + 2y + 3z = 9 con lo cual x = 4. Por tanto, hay una
solucin:
x = 4,
y = -2,
z = 3.
Si analizamos el mtodo de solucin, vemos que los smbolos usados para las
variables carecen de importancia; debemos tomar en cuenta los coeficientes de las
variables. Puesto que esto es verdadero, es posible simplificar el proceso. En particular,
introducimos un esquema a fin de seguir los coeficientes en forma tal que no haya
necesidad
de
escribir
las
variables.
Con referencia al sistema anterior, primero comprobamos que las variables aparezcan en
el mismo orden en cada ecuacin y que los trminos sin variables estn a la derecha de los
signos de igualdad. En seguida anotamos los nmeros que intervienen en las ecuaciones
de esta forma:
Una
ordenacin
de
nmeros
de
este
tipo
se
llama matriz.
Los renglones (o filas) de la matriz son los nmeros que aparecen uno a continuacin del
otro en sentido horizontal:
1 2 3 4
4 5 6 24
3 1 -2 4
primer rengln R1
segundo rengln R2
tercer rengln R3
Las columnas de la matriz son los nmeros que aparecen uno junto del otro en sentido
vertical
Primera
Segunda
Tercera
Cuarta
columna C1 columna C2 columna C3 columna C4
1
2
3
9
4
5
6
24
3
1
-2
4
La matriz obtenida del sistema de ecuaciones lineales del modo anterior es la matriz del
sistema. Si borramos la ltima columna, la restante ordenacin es la matriz de coeficiente.
En vista de que podemos tener la matriz del sistema a partir de la matriz coeficiente
agregando una columna, le decimos matriz coeficiente aumentada o simplemente matriz
aumentada. Despus, cuando usemos matrices para hallar las soluciones de un sistema de
ecuaciones lineales, introduciremos un segmento de lnea vertical en la matriz aumentada
a fin de indicar dnde apareceran los signos de igualdad en el sistema de ecuaciones
correspondiente.
Sistema
Matriz coeficiente
Matriz aumentada
Definicin de matriz.
Sean m y n enteros positivos. Una matriz de m x n (se lee "m" por "n"), es una matriz de la
siguiente forma, donde cada aij es un numero real.
resta,
producto,
Suma de matrices
Sean A = (aij) y B = (bij) dos matrices de m x n. La suma de A y B es la matriz A + B de m x
n dada por
Resta de matrices
El caso de la resta de matrices es muy similar a la suma de matrices, solo que se aplica la
resta en lugar de la suma.
Producto de dos matrices
Sea A = (aij) una matriz de m x n cuyo i-simo rengln denotamos por ai. Sea B = (bij) una
matriz de n x p cuya jsima columna denotamos por bj. Entonces el producto de A y B es
una matriz C = (cij) de m x p, donde cij = ai*bj
Esto es, el ij-simo elemento de AB es el producto escalar del i-simo rengln de A (ai) y la
j-sima columna de B (bj). Si desarrollamos esto obtenemos
cij = ai1bj1+ai2bj2+...+ainbjn
Advertencia. Dos matrices pueden multiplicarse slo si el nmero de columnas de la
primera es igual al nmero de renglones de la segunda. De otra forma, los
vectores ai y bj tendran diferente nmero de componentes y el producto escalar no estara
definido.
Producto de una matriz por un escalar.
Si A = (aij) es una matriz de m x n y si es un escalar, entonces la matriz A de m x n est
dada por
Triangular superior/inferior
Es una matriz cuadrada que tiene todos los elementos por encima (por debajo) de la
diagonal principal nulos.
Diagonal
Es una matriz cuadrada que tiene todos sus elementos nulos excepto los de la diagonal
principal
Escalar
Es una matriz cuadrada que tiene todos sus elementos nulos excepto los de la diagonal
principal que son iguales
Identidad
Es una matriz cuadrada que tiene todos sus elementos nulos excepto los de la diagonal
principal que son iguales a 1. Tambin se denomina matriz unidad.
Peridica
Una matriz es peridica si existe algn p tal que Ap = A
Nilpotente
Una matriz es nilpotente si existe algn p tal que Ap = 0 (matriz cero).
Idempotente
Una matriz es idempotente si A2 = A
Involutiva
Una matriz es involutiva si A2 = I (matriz identidad).
Transpuesta
Dada una matriz A, se llama traspuesta de A a la matriz que se obtiene cambiando
ordenadamente
las
filas
por
las
columnas.
t
T
Se representa por A A
Simtrica
Es
una
matriz
A = At , aij = aji
cuadrada
que
es
igual
su
traspuesta.
Antisimtrica
Es una matriz cuadrada
A
=
Necesariamente aii = 0
que
es
igual
-A ,
la
opuesta
aij =
de
su
traspuesta.
-aji
Compleja
Al resultado de la suma de una matriz real y una matriz imaginaria se le llama matriz
compleja matriz A + i * matriz B
Matriz
formada
por
nmeros
en
el
campo
de
los
reales
Hermitiana
Una matriz A es hermitiana si coincide con la matriz traspuesta conjugada (se refiere a los
nmeros complejos conjugados)
Antihermitiana
Es antihermtica si es opuesta con la matriz traspuesta conjugada.
Ortogonal
Una matriz ortogonal es necesariamente cuadrada e invertible : A-1 = AT
La
inversa
de
una
matriz
ortogonal
es
una
matriz
ortogonal.
El
producto
de
dos
matrices
ortogonales
es
una
matriz
ortogonal.
El determinante de una matriz ortogonal vale +1 -1.
Matriz inversa
Se motiva la idea de la inversa de una matriz, al ver el inverso multiplicativo de un nmero
real. Si un nmero b es el inverso de un nmero a, entonces
ab = 1 y ba = 1
Por ejemplo, 1/4 es el inverso de 4, ya que
4(1/4) = (1/4)4 = 1
Extendiendo esta idea a las matrices.
DEFINICIN: Sea A una matriz de n x n. Si se puede encontrar una matriz B tal que AB =
BA = In, entonces se dice que A es invertible, y a B se le llama la Inversa de A. Si no existe
esta matriz B, entonces A no tiene inversa.
Ejemplo 1
Solucin
Se tiene que
Por lo que AB = BA = I2, con lo que se demuestra que A tiene como inversa a la matriz B.
La inversa de una matriz invertible es nica.
Demostracin. Sean B y C inversas de A. Entonces AB = BA = In y AC = CA = In.
Multiplicando ambos lados de la ecuacin AB = In por C y usando las propiedades
algebraicas de las matrices.
C(AB) = CIn
(CA)B = C
InB = C
B=C
Por lo tanto, una matriz invertible tiene slo una inversa.
Notacin: Sea A una matriz invertible, su inversa est denotada por A-1.
De manera que AA-1 = A-1A = In
Ahora, se obtiene un mtodo basado en el algoritmo de Gauss-Jordan para encontrar la
inversa de una matriz.
Sea A una matriz invertible. Sean las columnas de A -1, X1, X2, ..., Xn, y las columnas de 1n,
C1, C2, ..., Cn. A-1 e In se escribe en trminos de sus columnas como sigue.
A-1 = [X1 X2 ... Xn] e In = [C1 C2 ... Cn]
Al encontrar X1, X2, ..., Xn, se habr encontrar A-1. Como A A-1 = In, entonces
A[X1 X2 ... Xn] = [C1 C2 ... Cn]
La multiplicacin de matrices realizada en trminos de las columnas, da
Solucin:
Aplicando el mtodo de eliminacin de Gauss-Jordn, se tiene:
De manera que
El mtodo de Gauss-Jordn para calcular la inversa de una matriz dice que A es invertible
si y slo si la forma escalonada reducida de [A:In] es [In:B]. Como [A:In] se transforma en
[In:B], en donde A se transforma en In. Esta observacin lleva al siguiente teorema:
Teorema. Una matriz A de n x n es invertible si y slo si su forma escalonada reducida
es In.
Si la matriz de coeficientes de un sistema de ecuaciones lineales es invertible, entonces se
emplea la matriz inversa para encontrar las soluciones de ste. El siguiente teorema es
fundamental.
Teorema. Sea AX = B un sistema de n ecuaciones lineales con n variables. Si A -1 existe, la
solucin es nica y est dada por X = A-1B.
Definiciones.
Sea
(2)
Mostraremos que A es invertible si y slo si det A 0. Como veremos, este importante
teorema es vlido para matrices de n x n.
Definiremos por induccin el determinante de una matriz de n x n. En otras palabras,
usaremos nuestro conocimiento de un determinante de 2 x 2 para definir un determinante
de 3 x 3; ste para definir el de 4 x 4 y as sucesivamente. Empezaremos por definir un
determinante de x 3.
Entonces
(3)
Notemos el signo menos antes del segundo trmino del lado derecho
Ejemplo 1 Sea
Calcule |A|.
Solucin
O sea
(4)
Escribimos A y junto a ella sus primeras dos columnas
Luego se calculan los seis productos, poniendo signo menos antes de los productos con
flechas que apuntan hacia arriba y efectuamos la suma. Con esto obtenemos la suma de la
Ecuacin 4
Ejemplo 3 Calcule
Solucin Si escribimos
columna de A;
segunda columna de A y
es la matriz que se obtiene si eliminamos el primer
rengln y la tercera columna de A. Si denotamos estas tres matrices como M 11, M12 y M13,
respectivamente, y si A11 = det M11, A12 = -det M12 y A13 = det M13, entonces la Ecuacin (3)
puede ser escrita:
(8)
La expresin del lado derecho de (8) se conoce como desarrollo por cofactores.
Ejemplo. Calcule det A si
Solucin
Propiedad 1
Si cualquier rengln o columna de A es el vector cero, entonces det A = 0.
Demostracin. Supongamos que el i-simo rengln de A contiene nicamente ceros. Es
decir, aij = 0 para j = 1, 2,..., n. Entonces det A = a i1Ai1 + ai2Ai2 +... + ainAin = 0 + 0 +... + 0
= 0. La misma demostracin funciona si la j-sima columna es el vector cero.
Propiedad 2
(1)
Demostracin. Para demostrar (1) expandimos en el i-simo rengln de A:
det B = cai1Ai1 + cai2Ai2 + ... cainAin
= c(ai1Ai1 + ai2Ai2 + ... ainAin) = c det A
Una demostracin anloga funciona para las columnas.
Propiedad 3
Sean
Entonces
det C = det A + det B (4)
En otras palabras, supongamos que A, B y C son idnticas excepto por la j-sima columna
y que j-sima columna de C es la suma de las j-simas columnas de A y B. Entonces det C
= det A + det B. Esto es vlido para renglones
Propiedad 4
si i j
Propiedad 9
det A = det At
Propiedad 10
det AB = det A det B
Es decir: El determinante del producto es el producto de los determinantes.
Adjunto de un elemento
Es el menor complementario con signo positivo o negativo segn sea par o impar la suma
de su nmero de fila y su nmero de columna. Lo representamos por Aij
Matriz adjunta
Es la matriz que se obtiene al sustituir cada elemento por su adjunto.
Matriz inversa
La matriz inversa de A es otra matriz que representamos por A-1 y que verifica:
Solamente tienen inversa las matrices cuadradas cuyo determinante es distinto de cero.
Propiedades de la matriz inversa
La inversa del producto de dos matrices es el producto de las inversas cambiando el orden.
(A*B)-1 = B-1*A-1
Ejemplo: clculo de la inversa de la matriz:
Resolver el sistema
de
ecuaciones
Por consiguiente
Los pasos a seguir para calcular los sistemas de ecuaciones segn la regla de Cramer son
los siguientes:
1. Hallar la matriz ampliada (A | b) asociada al sistema de ecuaciones, esto es: que la
primera columna est formada por las entradas de los coeficientes de la primera incgnita
de las ecuaciones; que la segunda columna la formen las de la segunda incgnita, y as
hasta llegar a la ltima columna, que estar constituida por las entradas de los trminos
independientes de las ecuaciones.
2. Calcular el determinante de A.
3. Aplicar la regla de Cramer, que consiste en:
a) ir sustituyendo la primera columna del det (A) por los trminos independientes;
b) dividir el resultado de este determinante entre el det (A) para hallar el valor de la
primera incgnita;
c) continuar sustituyendo los trminos independientes en las distintas columnas para hallar
el resto de las incgnitas.
Ejemplo:
Sea el sistema de ecuaciones lineales formado por dos ecuaciones con dos incgnitas:
en los negocios. Las grandes empresasm que procesan enormes cantidades de datos
computadorizados, deben protegerse constantemente contra lo que se llama "espionaje
industrial", esto es, el robo de informacin importante por los competidores.
Actualmente, hay muchas tcnicas extremadamente complejas desarrolladas para
garantizar la posibilidad de transmitir grandes cantidades de informacin en forma
confidencial. A esto se lleg despus de investigacin altamente elaborada hecha por
criptgrafos modernos.
Casi todos saben lo que es un criptograma. Se trata de un pasatiempo que aparece en
muchos peridicos. Es comn que se d un mensaje como el siguiente:
KI ZPIIC VPJLP PI PUPJKVG.
Esto se puede descrifrar usando la tabla "descodificadora":
A B C D E F G H I J K L M N O
PMVQKSZOTBWIUJCXEGYLDRHAFN
L M N O P Q R S T
U V W X Y Z
(1)
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26
Supngase que queremos codificar el siguiente mensaje
LAS MATRICES SON AMIGABLES
Descomponemos el mensaje en unidades de igual longitud. Si se escogen longitudes de
dos letras, se obtiene
LA SM AT RI CE SS ON AM IG AB LE SX (2)
La X al final simplemente llena el espacio. Si usamos nuestro cdigo numrico (1),
podemos escribir (2) como un conjunto de vectores de dos componentes
Esto asegurar que A-1 tambin tiene slo componentes enteras. Una matriz con esas
condiciones es
Para continuar, multiplicamos cada uno de los vectores de dos componentes en (3), a la
izquierda, por A. Por ejemplo,
Multiplicando cada uno de los vectores en (4) por A-1 se obtendrn los vectores en (3), que
se pueden convertir directamente por medio de (1) en el mensaje (2). En este contexto, la
matriz A se denomina matriz codificadora, y la matriz A-1 recibe el nombre de matriz
descodificadora.
4.1.- Definicin
propiedades.
de
espacio
vectorial
sus
(1)
Sean
(2)
Corolario. Un conjunto linealmente independiente de vectores en n contiene, a lo
sumo, n vectores.
Nota. Podemos expresar el corolario como sigue: Si se tienen n vectores-n linealmente
independientes, no es posible agregar ms vectores sin hacer que el conjunto obtenido sea
linealmente dependiente.
Teorema 3. Sea
de soluciones. Aqu,
Teorema 4. Sean v1, v2, ..., vn, n vectores en n, y sea A una matriz de n x n cuyas
columnas son v1, v2, ..., vn. Entonces v1, v2, ..., vn, son linealmente independientes si y slo
si la nica solucin al sistema homogneo Ax = 0 es la solucin trivial x = 0.
Demostracin. Esto es el Teorema 3 en el caso en que m = n.
Teorema 5. Sea A una matriz de n x n. Entonces A 0 si y solamente si las columnas
de A son linealmente independientes.
Teorema 6. Sea A una matriz de n x n. Entonces cada uno de los siguientes siete
enunciados implica a los otros seis (esto es, si uno se verifica, todos son ciertos).
i. A es invertible.
ii. La nica solucin al sistema homogneo Ax = 0 es la solucin trivial (x = 0).
iii. El sistema Ax = b posee una solucin nica para todo n-vector b.
iv. A es equivalente por filas a la matriz identidad In
Base
Un conjunto de vectores {v1, v2,..., vn} forma una base para V si
i. {v1, v2,..., vn} es linealmente independiente.
ii.{v1, v2, ..., vn} genera V.
As pues,
Todo conjunto de n vectores linealmente independientes enn es una base en n
En n definimos
Como los trminos ei son las columnas de la matriz identidad (cuyo determinante es 1),
entonces {e1, e2, ..., en} es linealmente independiente y, por tanto, constituye una base
en n. Esta entidad especial se llama base cannica en n.
Teorema 1. Si {v1, v2,..., vn} es una base de V y si v V, entonces existe un conjunto
nico de escalares c1, c2, ..., cn tales que v= c1v1, c2v2, ..., cnvn.
Teorema 2. Si {u1, u2,..., un} y {v1, v2,..., vn} son bases del espacio vectorial V,
entonces m = n; esto es, cualesquiera dos bases en un espacio vectorial V poseen el
mismo nmero de vectores.
Dimensin
del
espacio
vectorial V de
dimensin
finito.
dim H dim V
Demostracin. Sea dim V = n. Cualquier conjunto de vectores en H linealmente
independiente, lo es tambien en V. Por el Teorema 3, cualquier conjunto linealmente
independiente en H, cuando ms, contiene n vectores. As pues, H es de dimensin finita.
Ms an, como una base en H es un conjunto linealmente independiente, se ve que
dim H n.
Teorema 5. Cualesquiera n vectores linealmente
vectorial V de dimensin n, constituyen una base.
independientes
en
un
espacio
Cambio de base
Sea x un vector que en base B 1 (de vectores unitarios u1, u2, ...) ser igual a m1u1+ m2u2 +
m3u3 + ... El mismo vector, utilizando otra base B 2 (de vectores unitarios v1, v2, ...) ser
n1v1+ n2v2 + n3v3 + ...
Supongamos que u1, u2, ... se representan en la base B2 de esta forma:
u1 = a11v1 + a21v2 + ... + an1vn
u2 = a12v1 + a22v2 + ... + an2vn
.............................................................
un = a1nv1 + a2nv2 + ... + annvn
Por lo tanto, sustituyendo estas ecuaciones en la frmula original nos queda:
x = m1(a11v1 + a21v2 + ... + an1vn ) + m2(a12v1 + a22v2 + ... + an2vn) + ...
Reordenando queda:
x = (m1a11 + m2a12 + ... + mna1n)v1 + ... + (m1an1 + m2an2 + ... + mnann)vn
Comparando con la frmula x = n1v1+ n2v2 + n3v3 +... deducimos que:
n1 = m1a11 + m2a12 + ... + mna1n
n2 = m1a21 + m2a22 + ... + mna2n
.................................................................
nn = m1ann + m2an2 + ... + mnann
Esto se puede expresar de forma matricial:
n1
n2 =
.....
nn
el
producto
interior,
proyecta
el
Transformacin lineal.
Definicin. Sean V y W espacios vectoriales. Una transformacin lineal T de V en W es una
funcin que asigna a cada vector v V un nico vector Tv W y que satisface para cada u
y v en V y cada escalar ,
T (u + v) = Tu + Tv (1)
T (v) = Tv (2)
Notacin. Escribimos T: V W para indicar que T transforma V en W.
Terminologa. Las transformaciones lineales se llaman, con frecuencia, operadores lineales.
Tambin, las funciones que satisfacen (1) y (2) se denominan funciones lineales.
Propiedades bsicas de las transformaciones lineales.
Teorema 1. Sea T: V W una transformacin lineal. Entonces para todos los vectores u, v,
v1, v2, ..., vn en V y todos los escalares 1, 2, ..., n:
i. T (0) = 0
ii. T (u - v) = Tu - Tv
iii. T (1v1, 2v2...nvn) = 1Tv1+ 2Tv2+ ... + nTvn
Nota. En la parte (i) el 0 de la izquierda, es el vector cero en V mientras que el 0 del lado
derecho, es el vector cero en W.
Teorema 2. Sea V un espacio vectorial de dimensin finita con base B={v1, v2, ..., vn}.
Sean w1, w2, ..., wn n vectores en W. Suponga que T1 y T2 son dos transformaciones lineales
de V en W tales que T1vi= T2vi = wi para i = 1, 2, ..., n.
Entonces para cualquier vector v V, T1v = T2v. Es decir T1 = T2.
Teorema 3. Sea V un espacio vectorial de dimensin finita con base B = {v1, v2,..., vn}. Sea
tambin W un espacio vectorial que contiene a los n vectores w1, w2,..., wn. Entonces
existe una nica transformacin lineal T: V W tal que Tvi = wi para i = 1, 2,..., n.
Rotacin
Sea 0 < 2 un ngulo medido en radianes. La Transformacin de T : R2 R2 que gira
sobre un vector = (u1, u2) es un ngulo , para obtener un vector T () = (v1, v2).
Usando las funciones trigonomtricas, tenemos que:
v1 = ||T ()|| cos ( + ) = |||| (cos cos - sen sen )
v2 = ||T ()|| sen ( + ) = |||| (sen cos + cos sen )
Como u1 = |||| = cos y u2 = |||| = sen se obtiene:
v1 = u1 cos u2 sen
v2 = u2 cos u1 sen
Por lo tanto la Transformacin T: R2 R2 debe estar definida tal que:
T (u1, u2) = (u1 cos u2 sen , u2 cos u1 sen ).
Esta transformacin se llama la rotacin por un ngulo y es lineal, ya que:
T [(u1, u2) + (v1, v2)] = T (u1 + v1, u2 + v2)
= ((u1 + v1) cos (u2 + v2) sen , (u2 + v2) cos + (u1 + v1) sen )
=(u1 cos - u2 sen , u2 cos + u1 sen )+(v1 cos - v2 sen , v2 cos + v1 sen )
= T (u1, u2) + T (v1, v2)
Transformacin de Reflexin:
La Transformacin de T: R2 R2 que a cada vector = (u1, u2) lo refleja sobre el eje x,
para obtener un vector T () = (v1, v2).
En este caso, la situacin es ms sencilla ya que claramente tenemos dos tringulos
rectngulos que son congruentes, de donde T queda definida como sigue:
T (u1, u2) = (u1, -u2)
Kernel
Definicin. Sean V y W espacios vectoriales y sea T : V W una transformacin lineal.
Entonces:
El kernel (o ncleo) de T, denotado como ker T, est dado por
ker T = {v V: Tv = 0}
Obervacin. Note que ker T es no vaco ya que por el Teorema 1 de las Transformaciones
lineales, T(0) = 0 de manera que 0 ker T para toda transformacin lineal T. Ser
interesante encontrar otros vectores en V que sean "mapeados al cero". De nuevo, ntese
que cuando escribimos T(0) = 0, el 0 de la izquierda est en V, y el 0 de la derecha est
en W.
Imagen de una transformacin lineal.
Definicin. Sean V y W espacios vectoriales y sea T : V W una transformacin lineal.
Entonces:
imag V = { w W: w = Tv para alguna v V}
Observacin. El concepto imag T es simplemente el conjunto de "imgenes" de vectores
en V bajo la transformacin T. De hecho, si w = Tv, diremos que w es tambin la imagen
de v bajo T.
Teorema. Si T : V W es una transformacin lineal, entonces:
i. ker T es un subespacio de V.
ii. imag T es un subespacio de W.
Demostracin.
i. Sean u y v en ker T; entonces T(u + v) = Tu + Tv = 0 + 0 = 0 y T(u) = Tu = 0 = 0
de modo que u + v y u estn en ker T.
de aqu deducimos que la i-sima componente deT(v) es ai1x1 + ai2x2 + ai3x3 + ... + ainxn
Si definimos A = (aij) M (m, n, ) entonces, dado que la i-sima componente de
Entonces
Verificacin:
5.5.- Transformaciones
ecuaciones lineales.
lineales
sistemas
de
Las transformaciones lineales junto con los conceptos de ncleo y rango desempean un
papel importante en el anlisis de sistemas de ecuaciones lineales. Se ver que estos
sistemas permiten visualizar los conjuntos de soluciones.
Un sistema de m ecuaciones lineales con n variables se puede expresar en forma matricial
de la siguiente manera:
Ax = y
A es una matriz de m x n; sta es la matriz de coeficientes del sistema. El conjunto de
soluciones es el conjunto de x que satisface esta ecuacin. Ahora cuenta con una forma
elegante de visualizar este conjunto solucin. Sea T: Rn Rm la transformacin lineal
definida por A. El sistema de ecuaciones se puede escribir de la siguiente manera:
T(x) = y
El conjunto de soluciones es el conjunto de vectores en Rn transformado por T en el
vector y. Si y no pertenece al rango de T. Entonces el sistema no tiene solucin. Vase la
siguiente figura:
Ecuaciones homogneas
Esta forma de ver los sistemas de ecuaciones lineales nos lleva al siguiente resultado.
Teorema 1. El conjunto de soluciones de un sistema homogneo de m ecuaciones lineales
con n variables, Ax = 0, es un subespacio de Rn.
Demostracin. Sea T la transformacin lineal de Rn en R, definida por A. El conjunto de
soluciones es el conjunto de vectores en Rn transformado por T en el vector cero. El
conjunto de soluciones es el ncleo de la transformacin y por consiguiente, un
subespacio.
Ecuaciones no homogneas
Ahora ver que el conjunto de soluciones de un sistema de ecuaciones lineales no
homogneas no forma un subespacio.
Sea Ax = y (y
0)
un
sistema
Sea x1 y x2 soluciones. Por lo tanto,
de
ecuaciones
lineales
no
homogneo.
Ax1 = y y Ax2= y
Si se suman estas ecuaciones, se obtiene
Ax1+ Ax2= 2y
A(x1 +x2)= 2y
Por lo tanto, x1 + x2 no satisfacen a Ax = y. No se trata de una solucin. El conjunto de
soluciones no es cerrado bajo la adicin; por consiguiente, no es un subespacio.
Sea T: V V una transformacin lineal. En una gran variedad de aplicaciones, resulta til
encontrar un vector v enV tal que Tv y v sean paralelos. Esto es, buscamos un vector v y
un escalar tal que
Tv = v (1)
Si v 0 y satisface (1) entonces se denomina valor caracterstico de T y v se
llama vector caracterstico de T correspondiente al valor caracterstico de . Si V es de
dimensin finita, entonces T puede representarse por una matriz AT. Por esta razn
discutiremos valores y vectores caractersticos de matrices de n x n.
homogneo
(A -iI)v =
correspondiente
Ejemplo.
cada
valor
Diagonalizacin de matrices
Qu
es
diagonalizar
una
matriz?
Para estudiar una matriz suele ser conveniente expresarla de forma lo ms sencilla posible.
Diagonalizar una matriz A es precisamente eso: escribirla de manera simple encontrando
una matriz invertible P y una diagonal D (si se puede) tales que
A = P D P-1
La matriz P se llama matriz de paso.
Puede que esto, al principio, no parezca ms simple de lo que ya era A directamente. Sin
embargo, lo es desde muchos puntos de vista. Dado que las matrices suelen usarse para
representar aplicaciones lineales, la expresin anterior puede verse como un cambio de
base de la aplicacin representada por A; entonces, esta forma de escribirlo dice: hay una
base en la que la aplicacin lineal A tiene una forma muy simple (diagonal). Esto es til,
por ejemplo, para clasificar una aplicacin lineal y estudiar sus propiedades. Las matrices
se usan para representar otras cosas como cnicas, cudricas o formas bilineales, y en
estos casos tambin resulta til esta forma de expresarlas.
La relacin anterior entre las matrices A y D es importante y aparece en muchos contextos,
as que tiene nombre propio:
Cuando dos matrices cuadradas A y B verifican que A = P B P -1 para cierta matriz
cuadrada P (invertible, claro) decimos que A y B son semejantes.
Una matriz es diagonalizable cuando se puede diagonalizar; es decir, cuando podemos
encontrar una matriz diagonal y una invertible de forma que la matriz se escriba como
dijimos antes. Dicho de otra forma: una matriz es diagonalizable cuando es semejante a
una matriz diagonal.Entonces, ms exactamente: una matriz es diagonalizable cuando es
semejante a una matriz diagonal real.
Cundo y cmo podemos diagonalizar una matriz?
Si conseguimos escribir una matriz A como A = P D P -1 , entonces podemos poner
tambin A P = P D. Si D es diagonal y nos fijamos en la columna i de esta ltima igualdad
lo que tenemos es que A xi = i xi (donde xi es la columna i de A y i es el nmero en el
lugar i de la diagonal de D). Esto nos dice que para diagonalizar una matriz nos hace falta
conocer los vectores a los que les pase algo as. Estos vectores tambin tienen nombre:
Si un nmero y un vector no nulo x verifican la relacin A x = x diremos que es un
valor propio o autovalor de la matriz A y que x es un vector propio o autovector de A
asociado al valor propio .
Es fcil ver que diagonalizar una matriz A de tamao nn es lo mismo que encontrar n
vectores propios linealmente independientes asociados a valores propios reales, ya que
entonces podemos ponerlos por columnas y conseguir as la matriz P (puedes comprobar
que entonces se cumple la relacin que buscamos). Entonces, para diagonalizar una
matriz lo que tenemos que hacer es buscar n vectores propios suyos linealmente
independientes asociados a valores propios reales.
6.5.Diagonalizacin
de
Diagonalizacin ortogonal.
matrices
simtricas,
Teorema 1. Sea A una matriz simtrica real de n x n. Entonces los valores caractersticos
de A son reales.
Teorema 2. Sea A una matriz simtrica real de n x n. Si 1 y 2 son valores caractersticos
distintos con correspondientes vectores caractersticos reales v1 y v2, entonces v1 y v2 son
ortogonales.
Teorema 3.Sea A una matriz simtrica real de n
que A tiene n vectores caractersticos reales ortonormales.
n.
Resulta
entonces
columnas u1, u2, ... un. Entonces Q es una matriz ortogonal. Esto nos conduce hacia la
siguiente definicin.
Definicion. Matriz ortogonalmente diagonizable. Una matriz A de n x n se dice que
es diagonalizable ortogonalmente si existe una matriz ortogonal Q tal que
Q'AQ = D (1)
donde D = diag(1, 2, ..., n) y 1, 2, ..., n son los valores caractersticos de A.
Nota. Recuerde que Q es ortogonal si Q' = Q-1; por lo tanto (1) podra ser escrita como Q1
AQ = D.
Teorema 4. Sea A una matriz real de n x n. Entonces A es diagonalizable ortogonalmente
si y slo si A es simtrica.
Procedimiento para encontrar una matriz diagonalizante Q:
i. Encuentre una base para cada espacio caracterstico de A.
ii. Encuentre una base ortonormal para cada espacio caracterstico de A, usando el
procedimiento Gram-Schmidt.
iii. Establezca a Q como la matriz cuyas columnas son los vectores caractersticos
ortonormales obtenidos en el paso (ii).
Ejemplo
La expresin algebraica
ax2 + bxy + cy2
en donde a, b y c son constantes es una forma cuadrtica. Las formas cuadrticas
juegan un papel importante en la geometra. Mediante la multiplicacin de las matrices
siguientes, esta forma cuadrtica se escribe como
Podemos interpretar los miembros y factores de esta igualdad como polinomios en X con
coeficientes en el anillo de las matrices cuadradas nxn con coeficientes en K y esa
igualdad implica que P(X).I es divisible por la izquierda por XI A. Esto implica entonces
que el valor a la derecha (igual en realidad aqu tambin a su valor a la izquierda, ya que
se obtiene B(X).(XI A) = det(XI A).I) del polinomio P(X).I para X = A es nula. Este valor
slo es P(A), lo que termina la demostracin.
Ejemplo
Consideremos por ejemplo la matriz
6.8.- Aplicaciones.
En este captulo se mostrar cmo se pueden usar la teora de los valores y vectores
caractersticos para analizar ciertos modelos de crecimiento de poblacin.
Supngase que para cierta especie, la poblacin en un periodo (que puede ser de una
hora, una semana, un ao, etc.) es un mltiplo constante de la poblacin en el periodo
anterior. Esto podra suceder, por ejemplo, si las generaciones son distintas y cada
organismo produce descendientes y despus muere.
Un ejemplo son las bacterias, que se dividen en dos a intervalos regulares. Entonces = 2.
Sea pn la poblacin al final del periodo n-simo. Entonces, bajo las suposiciones anteriores,
tenemos que
pn = pn-1.
As, si p0 denota la poblacin inicial, se tiene que p1= p0, p2= p1 = (p0) = 2p0,
etctera, por lo que
pn = np0. (1)
Si = 1, la poblacin permanece constante. Si < 1, la poblacin disminuye, y si > 1,
aumenta.
Este modelo es obviamente demasiado simplista para que sea de mucha utilidad. El
nmero de descendientes producidos no es slo funcin del nmero de adultos sino
tambin de la edad de los adultos. Por ejemplo, una poblacin humana en la que todas las
mujeres tuvieran ms de 50 aos de edad, tendra una tasa de multiplicacin muy distinta
que otra poblacin en la que las mujeres tuvieran todas edades entre 20 y 30 aos. Para
desarrollar una descripcin ms exacta de la realidad, usamos un modelo matricial que
permite aplicar distintas tasas de multiplicacin a los grupos de distintas edades.
Observamos ahora un modelo de crecimiento de la poblacin para una cierta especie de
aves. En esta poblacin de aves, suponemos que el nmero de hembras es igual al nmero
de machos. Sea pj,n-1 la poblacin de hembras jvenes (inmaduras) en el ao n -1, y sea pa,n1 el nmero de hembras adultas en el ao n-1. Algunos de los pjaros jvenes sobreviven
para llegar a ser adultos en la primavera del ao n. Cada pjaro hembra sobreviviente
produce huevos ms tarde en la primavera, que empollados, producen en
promedio, k hembras jvenes en la siguiente estacin primaveral. Los adultos tambin
mueren, y la proporcin de adultos que sobreviven de una primavera a la otra es .
Es un hecho interesante y notable que no resulta demasiado simplista suponer que la
proporcin de los animales que sobreviven es constante. Esto se observa como el caso
ms natural en las poblaciones naturales de las aves que han sido estudiadas. La tasa de
supervivencia de los adultos de muchas especies de aves es independiente de la edad. Tal
vez pocos pjaros en libertad sobrevivan lo suficiente como para exhibir los efectos de la
vejez. Adems, para muchas de las especies, el nmero de descendientes parece que no
recibe la influencia de la edad de la madre.
En la notacin introducida anteriormente, pj,n-1 y pa,n-1 representan, respectivamente, las
poblaciones de hembras jvenes y adultas en el ao n. Juntando toda la informacin dada,
llegamos al siguiente sistema 2 x 2:
pj,n = kpa,n-1 (2)
Est claro de (3) que p1 = Ap0, p2 = Ap1 = A(Ap0) = A2p0, ..., y as sucesivamente, por lo
que
pn = Anp0 (4)
Donde p0 es el vector de las poblaciones iniciales de hembras jvenes y adultas
La Ecuacin (4) es como la Ecuacin (1), excepto que se ha podido distinguir entre las
tasas de supervivencia de los pjaros jvenes y adultos.