Anda di halaman 1dari 67

Historia de los Nmeros Complejos

La primera referencia conocida a races cuadradas de nmeros negativos proviene del


trabajo de los matemticos griegos, como Hern de Alejandra en el siglo I antes de Cristo,
como resultado de una imposible seccin de una pirmide. Los complejos se hicieron ms
patentes en el Siglo XVI, cuando la bsqueda de frmulas que dieran las races exactas de
los polinomios de grados 2 y 3 fueron encontradas por matemticos italianos como
Tartaglia, Cardano.
Aunque slo estaban interesados en las races reales de este tipo de ecuaciones, se
encontraban con la necesidad de lidiar con races de nmeros negativos. El trmino
imaginario para estas cantidades fue acuado por Descartes en el Siglo XVII y est en
desuso. La existencia de nmeros complejos no fue completamente aceptada hasta la ms
abajo mencionada interpretacin geomtrica que fue descrita por Wessel en 1799,
redescubierta algunos aos despus y popularizada por Gauss. La implementacin ms
formal, con pares de nmeros reales fue dada en el Siglo XIX.
Definicin de nmero complejo
Los nmeros complejos z se pueden definir como pares ordenados
z
y)

(x,

[1]
de nmeros reales x e y, con las operaciones de suma y producto que especificaremos ms
adelante. Se suelen identificar los pares (x, 0) con los nmeros reales x.
El conjunto de los nmeros complejos contiene, por tanto, a los nmeros reales como
subconjunto. los nmeros complejos de la forma (0, y) se llaman nmeros imaginarios
puros.Los nmeros reales x e y en la expresion [1] se conocen, respectivamente,
como parte real y parte imaginaria de z. Escribiremos:
Re z
y

x, Im z

[2]
Dos nmeros complejos (x1, y1) y (x2, y2) se dicen iguales si tienen iguales las partes real y
imaginaria. Es decir:
(x1, y1)
si x1= x2

=
e

(x2, y2)

si

y1 = y2

slo
[3]

La suma z1 + z2 y el producto z1z2 de dos nmeros complejos z1 = (x1, y1) y z2 = (x2, y2) se
definen por las ecuaciones:
(x1, y1)
y2)

(x2, y2)

(x1 + x2, y1 +
[4]

(x1, y1)
(x1x2 - y1 y2 + x1, y2)
[5]

(x2, y2)

En particular, (x, 0) + (0, y) = (x, y) y (0, 1)(y, 0) = (0, y); luego


(x,

y)

(x,

0)

(0,

1)(y,

0).
[6]

Ntese que las operaciones definidas por las ecuaciones [4] y [5] son las usuales cuando
se restringen a los nmeros reales:
(x1, 0) + (x2, 0) = (x1 + x2, 0),
(x1, 0)(x2, 0) = (x1x2, 0).
El sistema de los nmeros complejos es, en consecuencia, una extensin natural del de los
nmeros reales.
Pensando en un nmero real como x o como (x, 0), y denotando por i el nmero imaginario
puro (0, 1), podemos reescribir la Ecuacion [6] asi*
(x, y)
= x + iy.
[7]
Asimismo, con el convenio z2 = zz, z3 = zz2, etc., hallamos que
i2 = (0,1)(0,1) = (-1, 0);
es decir,
i2 = -1
A la vista de la expresion [7], las Ecuaciones [6] y [7] se convierten en
(x1 + iy1)
+ i(y1 + y2),
[8]

(x2 + iy2)

(x1 + iy1)(x2 + iy2)


+ i(y1x2 + x1y2),
[9]

(x1 + x2)

(x1x2 - y1y2)

Obsrvece que los miembros de la derecha en esas ecuaciones se pueden obtener


formalmente manipulando los trminos de la izquierda como si slo contuvieran nmeros
reales, y sustituyendo i2 por -1 cuando aparezca.

1.2.-

Operaciones

fundamentales

con

nmeros complejos.

Propiedades de los nmeros complejos


Varias propiedades de la suma y del producto de nmeros complejos coinciden con las de
los nmeros reales. Recogeremos aqu las ms bsicas y verificamos algunas de ellas.
Las leyes conmutativas
z1 +
z2z1

z2 =

z2 +

z1 ,

z 1 z2 =
[1]

y las asociativas
(z1 +
(z2z3)

z2)

z3 =

z1 +

(z2 +

z3),

(z1z2)

z3 =
[2]

z1

Se siguen fcilmente de las definiciones de la suma y el producto de nmeros complejos, y


del hecho de que los nmeros reales las satisfacen. Por ejemplo, si
z1 = (x1, y1) y z2 = (x2, y2),entonces
z1 + z2 = (x1, y1) + (x2, y2) = (x1 + x2, y1 + y2) = (x2 + x1, y2 + y1) = (x2, y2) + (x1, y1) = z2 +
z1
La verificacin de las restantes, as como de la ley distributiva
z(z1 +
zz2,
similar.

z2)

zz1 +
[3] es

De acuerdo con la ley conmutativa del producto, iy = yi; luego est permitido escribir
z = x + iy o z = x + yi
Adems, por las leyes asociativas, una suma z1 + z2 + z3 o un producto z1z2z3 estn bien
definidos sin parntesis, igual que ocurra con los nmeros reales.
La identidad aditiva 0 = (0, 0) y la identidad multiplicativa 1 = (1, 0) de los nmeros reales
se transfieren al sistema de los nmeros complejos. O sea,
z
z

=
[4]

para todo nmero complejo z. Ms an, 0 y 1 son los nicos nmeros complejos con tales
propiedades. Para establecer la unicidad de 0, supongamos que (u, v) es una identidad
aditiva, y escribamos

(x, y) + (u, v) = (x, y),


donde (x, y) es cualquier nmero complejo. Se deduce que
x + u = x e y + v = y;
o sea, u = 0 y v = 0. El nmero complejo 0 = (0, 0) es, por tanto, la nica identidad aditiva.
Cada nmero complejo z = (x, y) tiene asociado un inverso aditivo
-z
-y)

(-x,

[5]
que satisface la ecuacin z + (-z) = 0. Adems, hay un slo inverso aditivo para cada z,
pues la ecuacin (x, y) + (u, v) = (0,0) implica que u = -x y v = -y.
Los inversos aditivos se usan para definir la resta:
z1 - z2 = z1 + (-z2).
Luego si z1 = (x1, y1) y z2 = (x2, y2), entonces
z1 - z2 = (x1 - x2, y1 - y2) = (x1 - x2) + i(y1 - y2).
Anlogamente, para todo nmero complejo z = (x, y) no nulo, existe un nmero
complejo z-1 tal que zz-1 = 1. Este inverso multiplicativo es menos obvio que el aditivo. Para
hallarlo, buscamos nmeros reales u, v expresados en trminos de x e y, tales que
(x, y)(u, v) = (1,0).

Operatoria con nmeros complejos


Adicin de nmeros complejos
Dados dos nmeros complejos z1 = (a, b) y z2 = (c,d), se define la adicin como:
z1 + z2 = (a + c, b + d)
Para la resta entre nmeros complejos se debe recordar que:
z1 - z2 = z1z +(-z2)
Conjugado de un nmero complejo
Dado un nmero complejo z, escrito como par ordenado, se define el complejo conjugado
de z, como sigue:
Si z = (a, b) entonces el conjugado de z es z = (a, -b)

Multiplicacin de nmeros complejos


Dados los nmeros complejos z1 = (a, b) y z2 = (c, d) se define la multiplicacin entre ellos
como:
z1 * z2 = (ac - bd, ad + bc)
Divisin de nmeros complejos
Se define para z = (a, b) y w = (c, d) la divisin entre ellos como:
z / w = z * w-1, donde w-1 es el nmero complejo inverso multiplicativo de w

1.3.- Potencias de "i", mdulo o valor absoluto de un


nmero complejo.

Conjugado de un nmero complejo


Dos binomios se llaman conjugados si solo difieren en su signo central, por ejemplo, los
dos binomios: 3m - 1 y 3m + 1 son conjugados.
El conjugado de un complejo z (denotado como z z*) es un nuevo nmero complejo,
definido as:
z = x - iy<===> z = x + iy
Se observa que ambos difieren en el signo de la parte imaginaria.

Valor absoluto de un nmero complejo


El valor absoluto, mdulo o magnitud de un nmero complejo z viene dado por la siguiente
expresin:

Si pensamos en z como algn punto en el plano; podemos ver, por el teorema de


Pitgoras, que el valor absoluto de un nmero complejo coincide con la distancia eucldea
desde el origen del plano.
Si el complejo est escrito en forma exponencial z = r ei, entonces |z| = r. Se puede
expresar en forma polar como z = r (cos + isen), donde cos + isen = ei es la
conocida frmula de Euler.
Podemos comprobar con facilidad estas cuatro importantes propiedades del valor absoluto

Para cualquier complejo z y w.


Por definicin, la funcin distancia queda como sigue d(z, w) = |z - w| y nos provee de un
espacio mtrico con los complejos gracias al que se puede hablar de lmites y continuidad.
La suma, la resta, la multiplicacin y la divisin de complejos son operaciones continuas. Si
no se dice lo contrario, se asume que sta es la mtrica usada en los nmeros complejos.

1.4.- Forma polar y Exponencial de un nmero


complejo.

Forma Polar
Sean r y coordenadas polares del punto (x, y) que corresponde a un nmero complejo no
nulo z = x + iy. Como
x = r cos

y = r sen

z puede ser expresado en forma polar como


z = r(cos + i sen).
En anlisis complejo, no se admiten r negativos; sin embargo, como en el Clculo, tiene
infinitos valores posibles, incluyendo valores negativos.

Forma exponencial
La ecuacin
ei = cos + i sen
que define el simbolo ei, o exp (i), para todo valor real de , se conoce como frmula de
Euler. Si escribimos un nmero complejo no nulo en forma polar
z = r(cos + i sen ),
la frmula de Euler permite expresar z ms compactamente en forma exponencial:
z = rei

1.5.- Teorema de Moivre, potencias y extraccin de races de


un nmero complejo.

Potencias de nmeros complejos


Las potencias enteras de un nmero complejo no nulo z = rei vienen dadas por
z = rnein (n = 0, +1, -1, +2, -2 ...)
Como zn+1 = zzn cuando n=1,2,..., esto se comprueba fcilmente para valores positivos
de n por induccin, para el producto de nmeros complejos en forma exponencial. La
ecuacin es vlida tambin para n = 0 con el convenio de que z 0 = 1. Si n = -1, -2..., por
otro lado, definimos zn en trminos del inverso multiplicativo de z escribiendo zn = (z-1)m,
donde m = -n = 1, 2, ... Entonces, como la ecuacin z = rnein es vlida para potencias
enteras positivas, se sigue de la forma exponencial de z-1 que
zn = [1/r ei(-)]m = (1/r)m eim(-) = rnein
Por tanto, la ecuacin z = rnein es vlida para toda potencia entera.
Ntese que si r = 1, z = rnein se convierte en
(ei)n = ein

(n = 0, 1, 2 ...)

Cuando se expresa en la forma


(cos + i sen )n = cos n + i sen n
que se le conoce como la frmula de De Moivre
Ejemplo 1. Resolvamos la ecuacin
zn = 1,

donde n tiene uno de los valores n = 2, 3, ..., hallando as las races n-simas de la unidad.
Puesto que z 0, podemos escribir z = rei0 y buscar valores de r y tales que
(rei)n = 1,
o sea
rnein = 1ei0.
Ahora bien
rn = 1 y n = 0 + 2k,
donde k es cualquier entero (k = 0, 1, 2,...). Por tanto, r = 1 y = 2k/n; y se deduce
que los nmeros complejos
z = exp(i[2k / n])

(k = 0, 1, 2,...)

son races n-simas de la unidad. Tal como aparecen aqu, en forma exponencial, se ve
inmediatamente que estn en el crculo unidad centrado en el origen y estn
uniformemente espaciados sobre l cada 2 / n radianes. Evidentemente, pues, todas las
races n-simas de la unidad distintas entre s se obtienen escribiendo
z = exp(i[2k / n]) = cos 2k / n + i sen 2k / n

(k = 0, 1, 2,..., n-1)

y no se obtienen ya nuevas races con otros valores de k.


As que el nmero de races n-simas de la unidad es n. Cuando n = 2, esas races son,
claro est, 1. Cuando n>= 3, corresponden a puntos situados en los vrtices de un
polgono regular de n lados. Este polgono est inscrito en el crculo unidad centrado en el
origen y tiene un vrtice en el punto correspondiente a la raz z = 1 (k = 0). Si escribimos
n = exp(i[2k / n])
y entonces observamos que, de acuerdo con la propiedad (ei)n = ein
2 ...),
kn = exp(i[2k / n])

(n = 0, 1,

(k = 0, 1, 2,..., n-1),

vemos que las distintas races n-simas de la unidad son simplemente


1, n, 2n, ..., n-1n.
Ntese que nn = 1. Vase Figura 1 para la interpretacin de las tres races cbicas de la
unidad como vrtices de un tringulo equiltero. La Figura 2 ilustra el caso n = 6.

El mtodo anterior puede usarse para hallar las races n-simas de cualquier nmero
complejo no nulo z0 = r0 exp (i0). Tales races, que se obtienen resolviendo la ecuacin
zn = z 0
en z, son los nmeros
ck = nr0 exp[ i(0 / n + 2k / n)]

(k = 0, 1, ..., n -1)

donde nr0 denota la raz n-sima positiva de r0. El nmero nr0 es la longitud de cada radio
vector representante de las n races. Un argumento de la primera raz c0 es 0 / n, y los de
las otras races se obtienen sumando mltiplos enteros de 2 /n. Por consiguiente, al igual
que ocurra con las races n-simas de la unidad, las races para n = 2 estn siempre en
extremos opuestos de un dimetro de un crculo, siendo una de ellas la negativa de la otra;
y cuando n >= 3, estn en los vrtices de un polgono regular de n lados inscrito en el
crculo de radio r0 centrado en el origen.
Si c es cualquier raz n-sima particular de z0, el conjunto de todas las races n-simas se
puede expresar
c, cn, c2n, ..., cn-1n
donde n = exp (i2k / n). Esto es as porque el producto de cualquier nmero complejo no
nulo por n corresponde a aumentar su argumento en 2 / n.
Denotaremos por z1/n0 el conjunto de races n-simas de un nmero complejo no nulo z0. En
particular, si z0 es un nmero real positivo r0, el smbolo r1/n0 denota un conjunto de races,
y el smbolo nr0 se reserva para la raz positiva. Cuando el valor de 0 que se usa
en ck = nr0 exp[ i(0 / n + 2k / n)]
(k = 0, 1, ..., n -1) es el valor principal de arg z0 (-
< 0 <= ), el nmero c0se suele llamar la raz n-sima principal de z0. As pues,
cuando z0 es un nmero real positivo, su raz principal es nr0.

1.6.- Ecuaciones Polinmicas.

Soluciones de ecuaciones polinmicas


Una raz del polinomio p es un complejo z tal que p(z)=0.

Un resultado importante de esta definicin es que todos los polinomios de grado n tienen
exactamente n soluciones
en
el
campo
complejo,
esto
es,
tiene
exactamente n complejos z que cumplen la igualdad p(z)=0, contados con sus respectivas
multiplicidades. A esto se lo conoce como Teorema Fundamental del lgebra, y demuestra
que los complejos son un cuerpo algebraicamente cerrado. Por esto los matemticos
consideran a los nmeros complejos unos nmeros ms naturales que los nmeros reales a
la hora de resolver ecuaciones.
Ya podemos encontrar todas las soluciones de una ecuacin como:
zn + 23 = 0 z = n-23
Sern n soluciones.
O las soluciones de ecuaciones como:
zn/m +1 = 0 z = n(-1)m
Cualquier complejo elevado a m est univaluado, nos proporcionar un nico valor.
Si m/n es irreducible, tendremos n soluciones. Si es reducible, m/n = p/q, y tendremos q <
n soluciones distintas.
Es importante, por tanto, simplificar m/n siempre.
Adems: supongamos que hemos simplificado hasta alcanzar m/n. Tomemos una solucin
de las n posibles.
Al elevarla a n/m debera darnos z, pero nos dar m valores y solo uno de ellos es z

2.1.- Definicin
lineales.

de

sistemas

de

ecuaciones

Introduccin
Las ecuaciones lineales son una generalizacin de las ecuaciones de rectas en el plano
bidimensional y se utilizan para la resolucin de innumerables problemas en las diferentes
disciplinas del saber humano, tales como la Qumica, la Mecnica, la Economa, las
Ciencias Sociales, la Fsica, la Biologa, etc.
Ecuacin Lineal
Estamos acostumbrados a utilizar ecuaciones del tipo: 4x + y = 16
y la visualizamos
muy fcilmente ya que es una ecuacin lineal en las variables x e y, y su grfica en el
plano cartesiano XY es una recta que pasa por los puntos (0,16) y (4,0). El lgebra lineal
trata de la generalizacin de las ecuaciones lineales a n variables.
Una ecuacin de la forma:

a1x1+a2x2+a3x3+ ..... + anxn= b


Donde los coeficientes a1, a2,...., an y el trmino "b" son constantes numricas reales, es
llamada ecuacin lineal en las variables x1, x2,....., xn.
Ejemplo:
5 x + 2 y = 12;

9 x - 2 y = 13; y

x1 + x2 +. . . . . + xn = 0

Estas son tres ecuaciones lineales. Todas las variables de una ecuacin lineal deben ser de
primer grado, es decir, los exponentes de las variables deben ser la unidad, si por ejemplo
alguna variable de la ecuacin estuviese elevado al cuadrado o a cualquier potencia, ya no
sera una ecuacin lineal.
Un Sistema de Ecuaciones Lineales en las variables x1, x2,...., xn es un conjunto finito de
ecuaciones lineales en dichas variables. Ejemplo:
3 x - 5 y + z = 14
x + 3 y - z = 18
Un sistema de m ecuaciones lineales en n variables, o incgnitas, se escribe de la siguiente
manera:
a11 x1

+ a12 x2

+ ...

+ a1n xn

= b1

a21 x1

+ a22x2

+ ...

+ a2n xn

= b2

.
.
.
am1 x1

.
.
.
+ am2x2

.
.
.
+ ...

+ x1, x2,..... , xn xn

.
.
.
= bm

Donde x1, x2,....., xn son las incgnitas y los coeficientes a y b con subndices, son
constantes
numricas
reales.
El primer subndice, i, de los dos que tiene el coeficiente a ij, coloca a aij en la i-sima
ecuacin del sistema. El segundo subndice, j, de los que tiene el coeficiente a ij, coloca a
ste como el coeficiente de la variable j-sima, xj, del sistema. En particular, a21, se
encuentra ubicado en la segunda ecuacin y es el coeficiente de x 1 en dicha ecuacin.
Una sucesin c1, c2,. . ., cn de nmeros reales es una solucin de la ecuacin lineal:
a1x1+a2x2+a3x3+..... + anxn= b
Si:
a1c1+a2c2+a3x3+..... + ancn= b
La coleccin de todas las soluciones de una ecuacin lineal se llama Conjunto Solucin
de la Ecuacin.

2.2.- Clasificacin de los sistemas de ecuaciones lineales y


tipos de solucin.

Dos ecuaciones lineales en dos incgnitas


Consideremos el siguiente sistema de dos ecuaciones lineales en dos incgnitas x 1 y x2:
a11x1 + a12 +x2 = b1
a21x1 +
b2

a22x2 =
(1)

donde a11, a12, a22, b1 y b2 son nmeros dados. Cada una de estas ecuaciones es la
ecuacin de una lnea recta (en el plano x 1, x2 en vez del plano xy). La pendiente de la
primera recta es -a11/a12 y la pendiente de la segunda es -a21/a22 (si a12 0 y a22 0). Una
solucin del sistema (1) es un par de nmeros, denotados (x 1, x2), que satisface (1). Las
preguntas que surgen naturalmente son: cundo (1) tiene soluciones? y, si las tiene,
cuntas son? Responderemos a estas preguntas despus de ver algunos ejemplos. En
estos ejemplos usaremos dos propiedades importantes del lgebra elemental:
Propiedad A. Si a = b y c = d entonces a + c = b + d.
Propiedad B. Si a = b y c es cualquier nmero real, entonces ca = cb.
Ejemplo 1 Considere el sistema
x1 - x 2 = 7
x1 + x 2 = 5
Si sumamos las dos ecuaciones tenemos, por la propiedad A, la siguiente ecuacin: 2x1 =
12 (o x1 = 6). Entonces, de la segunda ecuacin tenemos x2 = 5 - x1 = 5 - 6 = -1. As, el
par (6, -1)satisface el sistema y por la forma en que encontramos la solucin vemos que es
el nico par de nmeros que lo hace. Esto es, el sistema tiene solucin nica.
Ejemplo 2 Considere el sistema
x1 - x 2 = 7
2x1 - 2x2 = 14
Es claro que estas dos ecuaciones son equivalentes. Para ver esto multiplicamos la primera
por 2. (Esto es vlido por la propiedad B.) Entonces, x1 - x2 = 7 x2 = x1 -7. As, el par (x1,
x1 -7) es una solucin del sistema para cualquier nmero real x 1. Esto es, el sistema tiene
un nmero infinito de soluciones. Por ejemplo, los siguientes pares son soluciones: (7, 0),
(0, -7), (8, 1), (1, -6) y (3, -4).
Ejemplo 3 Considere el sistema

x1 - x 2 = 7
2x1 - 2x2 = 13
Al multiplicar la primera ecuacin por 2 (lo cual est permitido por la Propiedad B) nos da
2x1 - 2x2 = 14. Esto contradice a la segunda ecuacin. As, el sistema no tiene solucin.

2.3.Interpretacin
soluciones.

geomtrica

de

las

Consideremos el siguiente sistema de dos ecuaciones lineales en dos incgnitas x 1 y x2:


a11x1 + a12 +x2 = b1
a21x1 +
b2

a22x2 =
(1)

Es fcil de explicar geomtricamente lo que sucede en los ejemplos del tema anterior.
Primero, recordemos que las ecuaciones del sistema (1) son ecuaciones rectas. Una
solucin de (1) es un punto (x1, x2) que est en ambas rectas.
Si las dos rectas no son paralelas, se intersecan en un solo punto; si son paralelas nunca se
intersecan (no tienen puntos en comn), o son la misma recta (tienen un nmero infinitos
de puntos en comn). En el ejemplo 1 las rectas tienen pendientes 1 y -1,
respectivamente. Por lo tanto, no son paralelas. Slo poseen el punto (6, -1) en comn. En
el ejemplo 2 las rectas son paralelas (pendientes igual a 1) y coincidentes. En el ejemplo 3
las rectas son paralelas y distintas. Estas relaciones se ilustran a continuacin:

2.4.- Mtodo de solucin de un sistema de ecuaciones lineales


(Gauss-Jordn, Eliminacin Gaussiana).

Mtodo de eliminacin Gauss-Jordn


Ejemplo 1 Resuelva el sistema
2x 4x
1
+ +6x3 =
8
1
2
4x 5x
2 (1
+ +6x3 =
4 )
1
2
3x
+x2 - 2x3 = 4
1

Solucin Buscamos tres nmeros x1, x2 y x3 tales que las tres ecuaciones en (1) sean
satisfechas. Nuestro mtodo de solucin consistir en simplificar las ecuaciones de forma
que las soluciones sean fcilmente identificadas. Empezamos por dividir la primera
ecuacin entre 2. Esto da
2x
x1 + +3x3 = 9
2

4x 5x
2 (2
+ +6x3 =
4 )
1
2
3x
+x2 - 2x3 = 4
1

Sumar dos ecuaciones nos lleva a una tercera ecuacin vlida. Esta ecuacin puede
reemplazar en el sistema a cualquiera de las dos ecuaciones usadas para obtenerla.
Empezamos a simplificar el sistema (2) multiplicando por -4 ambos lados de la primera
ecuacin en (2) y sumando esta nueva ecuacin a la segunda. Esto nos da
8x 21x 4x =
36
2
3
1

4x
1

+
-

5x
2

3x
2

+6x3 = 24
- 6x3 =

12

La ecuacin -3x2 - 6x3 = -12 es nuestra segunda nueva ecuacin y ahora el sistema es
x1 +
3x
1

2x
2

3x
2

+ 3x3 = 9
- 6x3 =

12

+x2 - 2x3 = 4

Ahora multiplicamos la primera ecuacin por -3 y la sumamos a la tercera ecuacin:

2x
x1 + +3x3 = 9
2

(3
- 6x3 = 1
)
2
2
5x 11x
=2
2
3
3
3x

Notemos que en el sistema (3) la variable x 1 ha sido eliminada de la segunda y tercera


ecuaciones. Despus dividimos la segunda ecuacion entre -3:
x1 +

2x
2

+3x3 = 9

x2 +2x3 = 4
5x 11x =
23
2
3
Multiplicamos la segunda ecuacin por -2 y la sumamos a la primera; luego se multiplica la
segunda ecuacin por 5 y se suma a la tercera:
x1

- 3x3 = 1
x2 + 2x3 = 4
- x3 = -3

Multiplicando la tercera ecuacin por -1:


x1

- 3x3 = 1
x2 + 2x3 = 4
x3 = 3

Finalmente, sumamos la tercera ecuacin a al primera y despus se multiplica la tercera


ecuacin por -2 y se la suma a la segunda para obtener el siguiente sistema (el cual es
equivalente al sistema (1)):
x1

= 4
x2
x3

= -2
= 3

sta se la solucin nica al sistema. La escribimos en la forma de vector (4, -2, 3). El
mtodo aqu usado se conoce como mtodo de eliminacin de Gauss-Jordn.
Resumen:
i. Dividimos para hacer igual a 1 el coeficiente de x1 en la primera ecuacin.
ii. "Eliminamos" los trminos en x 1 de la segunda y tercera ecuaciones. Esto es, hicimos los
coeficientes de estos trminos iguales a cero multiplicando la primera ecuacin por
nmeros apropiados y despus sumndola a la segunda y tercera ecuaciones,
respectivamente.

iii. Dividimos para hacer igual a 1 el coeficiente del trmino en x 2 en la segunda ecuacin y
despus usamos sta para eliminar los trminos en x2de la primera y tercera ecuaciones.
iv. Dividimos para hacer igual a 1 el coeficiente del trmino en x 3 de la tercera ecuacin y
despus usamos esta ecuacin para eliminar los trminos en x 3 de la primera y segunda
ecuaciones.
Debemos enfatizar que en cada paso obtuvimos sistemas que son equivalentes. Esto es,
cada sistema tiene el mismo conjunto de soluciones que el sistema anterior.
Mtodo de eliminacin Gauss-Jordn
Ejemplo 2 Resuelva el sistema del Ejemplo 1 reduciendo la matriz de coeficientes a su
forma escalonada
Solucin Empezamos como antes:

Hasta ahora, el proceso es el mismo que se hizo anteriormente. Sin embargo, despus
solamente hacemos cero el numero (-5) abajo del primero 1 del segundo rengln:

Ahora, tanto la matriz aumentada del sistema (como la matriz de coeficientes) estn en
forma escalonada y vemos inmediatamente que x 3 = 3. Usaremos entonces sustitucin
hacia atrs para despejar x2 y luego x1. La segunda ecuacin es x2 + 2x3= 4. As, x2 + 2(3)
= 4 y x2= -2. De igual forma, de la primera ecuacin obtenemos x 1 + 2(-2) + 3(3) = 9

x1 = 4. Por consiguiente hemos obtenido de nuvo la solucin (4, -2, 3). Este mtodo de
solucin se llama eliminacin gaussiana.

2.5.- Aplicaciones.

Balanceo de Reacciones Qumicas


Una aplicacin sencilla de los sistemas de ecuaciones se da en el balanceo de reacciones
qumicas.
La
problemtica consiste en determinar el nmero entero de molculas que intervienen en
una
reaccin
qumica
cuidando siempre que el nmero de tomos de cada sustancia se preserve.
Ejemplo
Balancee la reaccin qumica
aCH4 + bO2 cCO2 + dH2O
Solucin
Para determinar los coeficientes a, b, c, y d que representan el nmero de molculas de las
sustancias en la reaccin debemos igualar el nmero de tomos en cada miembro:
Por los tomos de carbono
a=c
Por los tomos de oxgeno
2b=2c+d
Por los tomos de hidrgeno
4a=2d
Este sistema es consistente y origina infinitas soluciones. La frmula general para las
soluciones queda:
a = 1/2 d
b=d
c = 1/ 2 d
El valor ms pequeo de d que hace que los nmeros de molculas sean enteros positivos
es d = 2:
a = 1, b = 2, c = 1, y d = 2

Determinacin de curvas
Un problema comn en diferentes reas es la determinacin de curvas. Es decir el
problema
de
encontrar
la funcin que pasa por un conjunto de puntos. Usualmente se conoce la naturaleza de la
funcin,
es
decir,
se
conoce la forma que debe tener la funcin. Por ejemplo, lnea recta, parbola o
exponencial
etc.
Lo
que
se
hace para resolver este tipo de problemas es describir la forma ms general de la funcin
mediante
parmetros
constantes. Y posteriormente se determinan estos parmetros haciendo pasar la funcin
por los puntos conocidos.
Ejemplo
Determine la funcin cuadrtica que pasa por los puntos P(1, 4), Q(1, 2), y R(2, 3).
Solucin
La forma ms general de una cuadrtica es:
f(x) = a x2 + b x + c
Donde los coeficientes a, b, y c son constantes numricas. El problema consiste en
determinar
estos
coeficientes.
As pues los parmetros a, b, y c se vuelven ahora las incgnitas. Y para poderlas
determinar requerimos de ecuaciones o igualdades que deben satisfacer. Para determinar
estas
ecuaciones
debemos
usar
los
puntos.
Para que la funcin pase por el punto P(1, 4) se debe cumplir que
f(x = 1) = 4
es decir, se debe cumplir:
a (1)2 + b (1) + c = 4
es decir, se debe cumplir:
a+b+c=4
Procediendo de igual manera con el punto Q (1, 2): formulamos la ecuacin:
ab+c=2
y para R(2, 3):
4a + 2b + c = 3

Resumiendo para que la funcin f(x) = a x2 + b x + c pase por los puntos P, Q, y R deben
cumplirse las ecuaciones:
a+b+c=4
ab+c=2
4a + 2b + c = 3
La solucin a este sistema es:
a = 2/3 , b = 1, y c = 11/3
La misma situacin presentada en el problema de las fracciones parciales que originaba un
sistema inconsistente, se puede presentar en la determinacin de funciones. Y la
conclusin es similar: si el sistema originado es inconsistente lo que se concluye es que no
existe una funcin con esa forma general que pase exactamente por los puntos dados.

3.1.- Definicin de matriz, notacin, orden.

Ecuaciones lineales con ms de dos variables.


Para sistemas de ecuaciones lineales con ms de dos variables, podemos usar el mtodo
de eliminacin por sustitucin o el mtodo de eliminacin por suma o resta (por adicin o
sustraccin).
El mtodo de eliminacin por suma o resta es la tcnica ms breve y fcil de hallar
soluciones. Adems, lleva la tcnica de matrices que se estudia en esta seccin.
Cualquier sistema de ecuaciones lineales con tres variables tiene una solucin nica, un
nmero infinito de soluciones o no tiene solucin.
Mtodo de eliminacin para resolver un sistema de ecuaciones lineales:
Ejemplo:
Resuelve el sistema:
x + 2y + 3z = 9................................... (Primer ecuacin)
4x + 5y + 6z = 24............................... (Segunda ecuacin)
3x + y - 2z = 4.................................. (Tercera ecuacin)
Solucin:
Suma -4 veces la "primera ecuacin" a la "segunda":

x + 2y + 3z = 9
-3y - 6z = -12
3x + y - 2z = 4
Suma -3 veces la "primera ecuacin" a la "tercera":
x + 2y + 3z = 9
-3y - 6z = -12
-5y - 11z = -23
Multiplica por -(1 3) la "segunda ecuacin":
x + 2y + 3z = 9
y + 2z = 4
-5y -11z = -23
Multiplica por -1 la "tercera ecuacin":
x + 2y + 3z = 9
y + 2z = 4
5y +11z = 23
Suma -5 veces la "segunda ecuacin" a la "tercera":
x + 2y + 3z = 9
y + 2z = 4
z=3
Las soluciones del ltimo sistema son fciles de hallar por sustitucin. De la "tercera
ecuacin", vemos que z = 3. Al sustituir "z" con 3 en la "segunda ecuacin", y + 2z =
4 obtenemos y = -2. Por ltimo, encontramos el valor de "x" al sustituir
y = -2
y
z
= 3,
en la "primera ecuacin", x + 2y + 3z = 9 con lo cual x = 4. Por tanto, hay una
solucin:
x = 4,
y = -2,
z = 3.
Si analizamos el mtodo de solucin, vemos que los smbolos usados para las
variables carecen de importancia; debemos tomar en cuenta los coeficientes de las
variables. Puesto que esto es verdadero, es posible simplificar el proceso. En particular,
introducimos un esquema a fin de seguir los coeficientes en forma tal que no haya
necesidad
de
escribir
las
variables.
Con referencia al sistema anterior, primero comprobamos que las variables aparezcan en
el mismo orden en cada ecuacin y que los trminos sin variables estn a la derecha de los
signos de igualdad. En seguida anotamos los nmeros que intervienen en las ecuaciones
de esta forma:

Una

ordenacin

de

nmeros

de

este

tipo

se

llama matriz.

Los renglones (o filas) de la matriz son los nmeros que aparecen uno a continuacin del
otro en sentido horizontal:
1 2 3 4
4 5 6 24
3 1 -2 4

primer rengln R1
segundo rengln R2
tercer rengln R3

Las columnas de la matriz son los nmeros que aparecen uno junto del otro en sentido
vertical
Primera
Segunda
Tercera
Cuarta
columna C1 columna C2 columna C3 columna C4
1
2
3
9
4
5
6
24
3
1
-2
4
La matriz obtenida del sistema de ecuaciones lineales del modo anterior es la matriz del
sistema. Si borramos la ltima columna, la restante ordenacin es la matriz de coeficiente.
En vista de que podemos tener la matriz del sistema a partir de la matriz coeficiente
agregando una columna, le decimos matriz coeficiente aumentada o simplemente matriz
aumentada. Despus, cuando usemos matrices para hallar las soluciones de un sistema de
ecuaciones lineales, introduciremos un segmento de lnea vertical en la matriz aumentada
a fin de indicar dnde apareceran los signos de igualdad en el sistema de ecuaciones
correspondiente.
Sistema

Matriz coeficiente

Matriz aumentada

Antes de estudiar un mtodo de matrices para resolver un sistema de ecuaciones lineales,


daremos
una
definicin
general
de
matriz.

Definicin de matriz.
Sean m y n enteros positivos. Una matriz de m x n (se lee "m" por "n"), es una matriz de la
siguiente forma, donde cada aij es un numero real.

3.2.- Operaciones con matrices (suma,


producto de un escalar por una matriz).

resta,

producto,

Suma de matrices
Sean A = (aij) y B = (bij) dos matrices de m x n. La suma de A y B es la matriz A + B de m x
n dada por

Esto es, A + B es la matriz de m x n obtenida al sumar las componentes correspondientes


de A y B.
Advertencia. La suma de dos matrices est definida solamente cuando ambas matrices
tienen el mismo tamao. As por ejemplo, no es posible sumar entre las matrices

Resta de matrices
El caso de la resta de matrices es muy similar a la suma de matrices, solo que se aplica la
resta en lugar de la suma.
Producto de dos matrices
Sea A = (aij) una matriz de m x n cuyo i-simo rengln denotamos por ai. Sea B = (bij) una
matriz de n x p cuya jsima columna denotamos por bj. Entonces el producto de A y B es
una matriz C = (cij) de m x p, donde cij = ai*bj
Esto es, el ij-simo elemento de AB es el producto escalar del i-simo rengln de A (ai) y la
j-sima columna de B (bj). Si desarrollamos esto obtenemos

cij = ai1bj1+ai2bj2+...+ainbjn
Advertencia. Dos matrices pueden multiplicarse slo si el nmero de columnas de la
primera es igual al nmero de renglones de la segunda. De otra forma, los
vectores ai y bj tendran diferente nmero de componentes y el producto escalar no estara
definido.
Producto de una matriz por un escalar.
Si A = (aij) es una matriz de m x n y si es un escalar, entonces la matriz A de m x n est
dada por

En otras palabras, A = (aij) es la matriz que se obtiene multiplicando por cada


componente de A.

3.3.- Clasificacin de las matrices triangular superior,


triangular inferior, diagonal, escalar, identidad,
potencia,
peridica,
nilpotente,
idempotente,
involutiva, transpuesta, simtrica, antisimtrica,
compleja, conjugada, hermitiana, antihermtiana,
ortogonal.

Triangular superior/inferior
Es una matriz cuadrada que tiene todos los elementos por encima (por debajo) de la
diagonal principal nulos.

Diagonal
Es una matriz cuadrada que tiene todos sus elementos nulos excepto los de la diagonal
principal

Escalar
Es una matriz cuadrada que tiene todos sus elementos nulos excepto los de la diagonal
principal que son iguales

Identidad
Es una matriz cuadrada que tiene todos sus elementos nulos excepto los de la diagonal
principal que son iguales a 1. Tambin se denomina matriz unidad.

Peridica
Una matriz es peridica si existe algn p tal que Ap = A
Nilpotente
Una matriz es nilpotente si existe algn p tal que Ap = 0 (matriz cero).
Idempotente
Una matriz es idempotente si A2 = A
Involutiva
Una matriz es involutiva si A2 = I (matriz identidad).
Transpuesta
Dada una matriz A, se llama traspuesta de A a la matriz que se obtiene cambiando
ordenadamente
las
filas
por
las
columnas.
t
T
Se representa por A A

Simtrica
Es
una
matriz
A = At , aij = aji

cuadrada

que

es

igual

su

traspuesta.

Antisimtrica
Es una matriz cuadrada
A
=
Necesariamente aii = 0

que

es

igual
-A ,

la

opuesta
aij =

de

su

traspuesta.
-aji

Compleja
Al resultado de la suma de una matriz real y una matriz imaginaria se le llama matriz
compleja matriz A + i * matriz B
Matriz

formada

por

nmeros

en

el

campo

de

los

reales

Trmino i*matriz B formada por nmeros complejos


Conjugada
Una Matriz conjugada es el resultado de la sustitucin de los elementos de una
matriz A por sus conjugadas. Es decir, la parte imaginaria de los elementos de la matriz
cambian su signo.

Hermitiana

Una matriz A es hermitiana si coincide con la matriz traspuesta conjugada (se refiere a los
nmeros complejos conjugados)
Antihermitiana
Es antihermtica si es opuesta con la matriz traspuesta conjugada.
Ortogonal
Una matriz ortogonal es necesariamente cuadrada e invertible : A-1 = AT
La
inversa
de
una
matriz
ortogonal
es
una
matriz
ortogonal.
El
producto
de
dos
matrices
ortogonales
es
una
matriz
ortogonal.
El determinante de una matriz ortogonal vale +1 -1.

3.4.- Clculo de la inversa de una matriz.

Matriz inversa
Se motiva la idea de la inversa de una matriz, al ver el inverso multiplicativo de un nmero
real. Si un nmero b es el inverso de un nmero a, entonces
ab = 1 y ba = 1
Por ejemplo, 1/4 es el inverso de 4, ya que
4(1/4) = (1/4)4 = 1
Extendiendo esta idea a las matrices.
DEFINICIN: Sea A una matriz de n x n. Si se puede encontrar una matriz B tal que AB =
BA = In, entonces se dice que A es invertible, y a B se le llama la Inversa de A. Si no existe
esta matriz B, entonces A no tiene inversa.
Ejemplo 1

Demuestre que la matriz

tiene como inversa la matriz

Solucin
Se tiene que

Por lo que AB = BA = I2, con lo que se demuestra que A tiene como inversa a la matriz B.
La inversa de una matriz invertible es nica.
Demostracin. Sean B y C inversas de A. Entonces AB = BA = In y AC = CA = In.
Multiplicando ambos lados de la ecuacin AB = In por C y usando las propiedades
algebraicas de las matrices.
C(AB) = CIn
(CA)B = C
InB = C
B=C
Por lo tanto, una matriz invertible tiene slo una inversa.
Notacin: Sea A una matriz invertible, su inversa est denotada por A-1.
De manera que AA-1 = A-1A = In
Ahora, se obtiene un mtodo basado en el algoritmo de Gauss-Jordan para encontrar la
inversa de una matriz.
Sea A una matriz invertible. Sean las columnas de A -1, X1, X2, ..., Xn, y las columnas de 1n,
C1, C2, ..., Cn. A-1 e In se escribe en trminos de sus columnas como sigue.
A-1 = [X1 X2 ... Xn] e In = [C1 C2 ... Cn]
Al encontrar X1, X2, ..., Xn, se habr encontrar A-1. Como A A-1 = In, entonces
A[X1 X2 ... Xn] = [C1 C2 ... Cn]
La multiplicacin de matrices realizada en trminos de las columnas, da

AX1 =C1, AX2 = C2,... AXn = Cn


Por lo que X1 X2 ... Xn, son soluciones de las ecuaciones AX=C 1, AX= C2,... AX= Cn, todas
con la misma matriz A, de coeficientes. Para resolver estos sistemas se aplica la
eliminacin de Gauss-Jordan con una matriz aumentada grande [A : C1 C2 ... Cn].
[A : C1 C2 ... Cn] ... [In : X1 X2 ... Xn]
De manera que
[A:In] ... [In: A-1]
Por lo tanto, si la forma escalonada reducida de [A:In] es una matriz de la forma [In: B],
entonces B = A-1.
Por otro lado si la forma escalonada reducida de [A:In] no es una matriz de la forma [In: B]
entonces A no es invertible.
Eliminacin de Gauss-Jordn para encontrar la inversa de una matriz
Sea A una matriz de n x n.
1. Se adjunta a A la matriz identidad de n x n, In, para formar la matriz [A:In].
2. Se calcula la forma escalonada reducida de [A:In].
Si la forma escalonada reducida es de la forma [In: B], entonces B es la inversa de A.
Si la forma escalonada reducida no es de la forma [In: B], debido a que la primera
submatriz de n x n no es In, entonces A no tiene inversa.
El ejemplo siguiente ilustra este mtodo.
Ejemplo.
Determine la inversa de la matriz

Solucin:
Aplicando el mtodo de eliminacin de Gauss-Jordn, se tiene:

De manera que

El mtodo de Gauss-Jordn para calcular la inversa de una matriz dice que A es invertible
si y slo si la forma escalonada reducida de [A:In] es [In:B]. Como [A:In] se transforma en
[In:B], en donde A se transforma en In. Esta observacin lleva al siguiente teorema:
Teorema. Una matriz A de n x n es invertible si y slo si su forma escalonada reducida
es In.
Si la matriz de coeficientes de un sistema de ecuaciones lineales es invertible, entonces se
emplea la matriz inversa para encontrar las soluciones de ste. El siguiente teorema es
fundamental.
Teorema. Sea AX = B un sistema de n ecuaciones lineales con n variables. Si A -1 existe, la
solucin es nica y est dada por X = A-1B.

3.5.- Definicin de determinante de una matriz.

Definiciones.

Sea

una matriz de 2 x 2 su determinante se define como

det A = a11a22 - a12a21 (1)


Con frecuencia denotaremos det A como

(2)
Mostraremos que A es invertible si y slo si det A 0. Como veremos, este importante
teorema es vlido para matrices de n x n.
Definiremos por induccin el determinante de una matriz de n x n. En otras palabras,
usaremos nuestro conocimiento de un determinante de 2 x 2 para definir un determinante
de 3 x 3; ste para definir el de 4 x 4 y as sucesivamente. Empezaremos por definir un
determinante de x 3.

Definicin 1. Determinante de 3 x 3. Sea

Entonces

(3)
Notemos el signo menos antes del segundo trmino del lado derecho

Ejemplo 1 Sea

Calcule |A|.
Solucin

Existe un mtodo ms sencillo para calcular determinantes de 3 x 3.

O sea

(4)
Escribimos A y junto a ella sus primeras dos columnas

Luego se calculan los seis productos, poniendo signo menos antes de los productos con
flechas que apuntan hacia arriba y efectuamos la suma. Con esto obtenemos la suma de la
Ecuacin 4

Ejemplo 3 Calcule

Solucin Si escribimos

usando este nuevo mtodo

y multiplicamos como se indic,

Advertencia. El mtodo expuesto anteriormente no funciona para determinantes de n x n


si n 3.
Antes de definir determinantes de n x n, primero notemos que en la Ecuacin
(3),

es la matriz que se obtiene al eliminar el primer rengln y la primera

columna de A;

es la matriz que obtenemos si eliminamos el primer rengln y la

segunda columna de A y
es la matriz que se obtiene si eliminamos el primer
rengln y la tercera columna de A. Si denotamos estas tres matrices como M 11, M12 y M13,
respectivamente, y si A11 = det M11, A12 = -det M12 y A13 = det M13, entonces la Ecuacin (3)
puede ser escrita:

Definicin 2. Determinante de n x n. Sea A una matriz de n x n. Entonces el determinante


de A, escrito det A, o bien |A|, est dado por

(8)
La expresin del lado derecho de (8) se conoce como desarrollo por cofactores.
Ejemplo. Calcule det A si

Solucin

3.6.- Propiedades de los determinantes.

Propiedad 1
Si cualquier rengln o columna de A es el vector cero, entonces det A = 0.
Demostracin. Supongamos que el i-simo rengln de A contiene nicamente ceros. Es
decir, aij = 0 para j = 1, 2,..., n. Entonces det A = a i1Ai1 + ai2Ai2 +... + ainAin = 0 + 0 +... + 0
= 0. La misma demostracin funciona si la j-sima columna es el vector cero.
Propiedad 2

Si el i-simo rengln o la j-sima columna de A se multiplican por la constante c, entonces


det A se multiplica por c. Es decir, si llamamos a esta nueva matriz B, entonces

(1)
Demostracin. Para demostrar (1) expandimos en el i-simo rengln de A:
det B = cai1Ai1 + cai2Ai2 + ... cainAin
= c(ai1Ai1 + ai2Ai2 + ... ainAin) = c det A
Una demostracin anloga funciona para las columnas.
Propiedad 3
Sean

Entonces
det C = det A + det B (4)
En otras palabras, supongamos que A, B y C son idnticas excepto por la j-sima columna
y que j-sima columna de C es la suma de las j-simas columnas de A y B. Entonces det C
= det A + det B. Esto es vlido para renglones
Propiedad 4

Si se intercambian dos renglones (o columnas) cualesquiera de A, es como si se


multiplicara det a por -1.
Propiedad 5
Si A tiene dos renglones o columnas iguales, entonces det A = 0.
Propiedad 6
Si un rengln (o columna) de A es un mltiplo constante de otro rengln (columna),
entonces det A = 0.
Propiedad 7
Si un mltiplo de un rengln (columna) de A se suma a otro rengln (columna) de A, el
determinante no cambiar.
Propiedad 8
ai1Aj1 + ai2Aj2 + ... + ainAjn=0

si i j

Propiedad 9
det A = det At
Propiedad 10
det AB = det A det B
Es decir: El determinante del producto es el producto de los determinantes.

3.7.- Inversa de una matriz cuadrada a travs de la


adjunta.

Antes de calcular la inversa de una matriz cuadrada a travs de la adjunta repasaremos


algunos conceptos:
Menor complementario de un elemento
El menor complementario de un elemento de una matriz cuadrada es el determinante de la
matriz que obtenemos al suprimir su fila y su columna. Lo representamos por Mij.
Ejemplo: Hallar el menor complementario del elemento a23 en la matriz:

Adjunto de un elemento
Es el menor complementario con signo positivo o negativo segn sea par o impar la suma
de su nmero de fila y su nmero de columna. Lo representamos por Aij

Matriz adjunta
Es la matriz que se obtiene al sustituir cada elemento por su adjunto.

Matriz inversa
La matriz inversa de A es otra matriz que representamos por A-1 y que verifica:

Solamente tienen inversa las matrices cuadradas cuyo determinante es distinto de cero.
Propiedades de la matriz inversa
La inversa del producto de dos matrices es el producto de las inversas cambiando el orden.
(A*B)-1 = B-1*A-1
Ejemplo: clculo de la inversa de la matriz:

Para calcular la inversa, primero calculamos el determinante:

Despus calculamos cada uno de los adjuntos:

3.8.- Solucin de un sistema


lineales a travs de la inversa.

Resolver el sistema

de

ecuaciones

2x1 + 4x2 + 3x3 = 6


x2 - x3 = -4
3x1 + 5x2 + 7x3 = 7

Solucin Este sistema puede ser expresado como Ax = b, en donde

. Primero calculamos A-1 si es que existe:

Por consiguiente

As pues, la solucin nica est dada por

3.9.- Solucin de un sistema de ecuaciones lineales por la


regla de Cramer.

Los pasos a seguir para calcular los sistemas de ecuaciones segn la regla de Cramer son
los siguientes:
1. Hallar la matriz ampliada (A | b) asociada al sistema de ecuaciones, esto es: que la
primera columna est formada por las entradas de los coeficientes de la primera incgnita
de las ecuaciones; que la segunda columna la formen las de la segunda incgnita, y as

hasta llegar a la ltima columna, que estar constituida por las entradas de los trminos
independientes de las ecuaciones.
2. Calcular el determinante de A.
3. Aplicar la regla de Cramer, que consiste en:
a) ir sustituyendo la primera columna del det (A) por los trminos independientes;
b) dividir el resultado de este determinante entre el det (A) para hallar el valor de la
primera incgnita;
c) continuar sustituyendo los trminos independientes en las distintas columnas para hallar
el resto de las incgnitas.
Ejemplo:
Sea el sistema de ecuaciones lineales formado por dos ecuaciones con dos incgnitas:

Encontrar el valor de x e y mediante la regla de Cramer.


Empezaremos con el primer paso, que consiste en hallar la matriz ampliada A | b asociada
al sistema de ecuaciones lineales:

El segundo paso es calcular el determinante de A. As pues:

Y el tercero y ltimo paso consiste en calcular las incgnitas:

3.10.- Aplicacin de matrices y determinantes.

Criptografa es la ciencia de escribir o descifrar claves. A pesar de que esta materia se


asocia frecuentemente con asuntos militares, la criptofrafa lleg a ser un rea importante

en los negocios. Las grandes empresasm que procesan enormes cantidades de datos
computadorizados, deben protegerse constantemente contra lo que se llama "espionaje
industrial", esto es, el robo de informacin importante por los competidores.
Actualmente, hay muchas tcnicas extremadamente complejas desarrolladas para
garantizar la posibilidad de transmitir grandes cantidades de informacin en forma
confidencial. A esto se lleg despus de investigacin altamente elaborada hecha por
criptgrafos modernos.
Casi todos saben lo que es un criptograma. Se trata de un pasatiempo que aparece en
muchos peridicos. Es comn que se d un mensaje como el siguiente:
KI ZPIIC VPJLP PI PUPJKVG.
Esto se puede descrifrar usando la tabla "descodificadora":
A B C D E F G H I J K L M N O
PMVQKSZOTBWIUJCXEGYLDRHAFN

Notando que K est en el lugar de E, que I sustituye a L, que Z reemplaza a G, etctera, se


llega al mensaje siguiente:
EL GALLO CANTA AL AMANECER.
Un criptograma usa una clase de clave muy burda y fcil de descifrar. Ahora se ver cmo
se pueden usar matrices para crear una clave mucho ms difcil de descifrar. Empezamos
asignando a cada letra su lugar en el alfabeto ordenado. Esto nos da la siguiente
asociacin
ABCDEFGH I J K

L M N O P Q R S T

U V W X Y Z

(1)
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26
Supngase que queremos codificar el siguiente mensaje
LAS MATRICES SON AMIGABLES
Descomponemos el mensaje en unidades de igual longitud. Si se escogen longitudes de
dos letras, se obtiene
LA SM AT RI CE SS ON AM IG AB LE SX (2)
La X al final simplemente llena el espacio. Si usamos nuestro cdigo numrico (1),
podemos escribir (2) como un conjunto de vectores de dos componentes

Escogemos una matriz A de 2 x 2, inversible y entera, con determinante 1.

Esto asegurar que A-1 tambin tiene slo componentes enteras. Una matriz con esas
condiciones es

Para continuar, multiplicamos cada uno de los vectores de dos componentes en (3), a la
izquierda, por A. Por ejemplo,

As obtenemos el nuevo conjunto de vectores

Por ltimo, escribimos (4) as:


15 16 58 71 61 81 45 54 18 23 76 95 57 71 40 53 30 37 7 9 27 32 91 115 (5)
Este es nuestro nuevo mensaje codificado, que sera muy difcil de descifrar si no se sabe
cul es la matriz A. Conociendo A, en cambio es relativamente sencillo. Empezamos re
arreglando los nmeros en (5) en grupos de vectores de 2 componentes. Ya que, por
ejemplo,

Para comprobar esto, observamos que

Multiplicando cada uno de los vectores en (4) por A-1 se obtendrn los vectores en (3), que
se pueden convertir directamente por medio de (1) en el mensaje (2). En este contexto, la
matriz A se denomina matriz codificadora, y la matriz A-1 recibe el nombre de matriz
descodificadora.

4.1.- Definicin
propiedades.

de

espacio

vectorial

sus

Espacio vectorial real


Un espacio vectorial real V es un conjunto de objetos llamados vectores, junto con dos
operaciones, llamadas suma y multiplicacin por un escalar que satisfacen diez axiomas
que se muestran enumerados a continuacin.
Notacin. Si x y y estn en V y si es un nmero real, entonces escribiremos x + y para
la suma de x y y y x para el producto escalar de f x.
Axiomas de un espacio vectorial.
i. Si x V y y V, entonces x + y V (es decir, V es cerrado para la suma).
ii. Para todos x, y, z en V, (x + y) + z = x + (y + z) (ley asociativa de la suma).
iii. Existe un vector 0 V tal que para todo x V, x + 0 = 0 + x = x (0 se conoce como
neutro aditivo).
iv. Si x V, existe un vector -x en V tal que x + (-x) = 0 (-x se conoce como el inverso
aditivo de x).
v. Si x y y estn en V, entonces x + y = y + x (ley conmutativa de la suma de vectores).
vi. Si x V, y es un escalar, entonces x V (se dice que V es cerrado para la
multiplicacin escalar).
vii. Si x y y estn en V y si es un escalar, entonces (x + y) = x + y (primera ley
distributiva).
viii. Si x V y si y son escalares, entonces ( y )x = x + x (segunda ley
distributiva)
ix. Si x y si y son escalares, entonces ()x = x (ley asociativa de la multiplicacin
por escalar).
x. Para todo vector x V, 1x = x (al escalar 1 se le conoce como neutro multiplicativo).
Teorema. Sea V un espacio vectorial. Entonces:
i. 0 = 0 para todo nmero real .
ii. 0 * x = 0 para todo x V.
iii. Si x = 0, entonces = 0 o bien x = 0 ( o ambos).
iv. (-1)x = -x para todo x V.

4.2.- Definicin de subespacio de un espacio vectorial


y sus propiedades.

Definicin. Sea H un subconjunto de un espacio vectorial V y supongamos que H es en s


un espacio vectorial con las operaciones de suma y multiplicacin escalar definidas
sobre V. Se dice entonces que H es un subespacio de V.
Teorema. Un subconjunto no vaco H de un espacio vectorial V es un subespacio de V si
las dos reglas de cerradura valen:
Reglas para verificar si un subconjunto es un subespacio
i. Si x H y y H, entonces x + y H.
ii. Si x H, entonces x H para todo escalar
Demostracin. Para demostrar que H es un espcacio vectorial, debemos verificar que los
axiomas de los espacios vectoriales cumplen con las operaciones de la suma vectorial y
multiplicacin escalar definidas en V. Las dos operaciones de cerradura se cumplen por
hiptesis. Puesto que los vectores en H tambin estn en V, las leyes asociativa,
conmutativa, distributiva y la del neutro multiplicativo se satisfacen. Ahora,
si x H entonces 0x H, debido a la hiptesis (ii). Pero por el teorema de espacios
vectoriales (parte ii), 0x = 0. Consecuentemente 0 H y el axioma (iii) se cumple.
Finalmente, de la parte (ii) tenemos que (-1)x H para todo x H. Por el teorema de
espacios vectoriales (parte iv), -x = (-1)x H, de tal forma que el axioma (iv) tambin se
cumple y con ello concluimos la demostracin.
Este teorema nos dice que para probar que H es un subespacio de V, nos basta con
verificar que:
x + y y x estn en H, siempre que x y y estn en H y sea un escalar.
La demostracin anterior contiene un resultado importante que debe mencionarse
explcitamente:
Todo subespacio de un espacio vectorial V contiene al 0.
Este resultado nos permitir ver fcilmente si un subespacio particular V no es un espacio
vectorial. Esto es, si un subconjunto no contiene al 0, entonces no es un subespacio.
Ejemplo 1.
Para todo espacio vectorial V, el subconjunto |0| que contiene solamente el vector cero, es
un subespacio puesto que 0 +0 = 0 y 0 = 0 para todo nmero real ; se le conoce como
el subespacio trivial.
Ejemplo 2

V es un subespacio de s mismo para todo espacio vectorial V.


Subespacio propio. Los primeros dos ejemplos nos muestran que todo espacio
vectorial V contiene dos espacios vectoriales, |0| y V (a menos que V=|0|). Desde luego, es
mucho ms interesante encontrar otros subespacios. Los subespacios que no son ni {0}
ni V se conocen como subespacios propios.
Teorema. Sean H1 y H2 subespacios de un espacio vectorial V. Entonces H1H2 es un
subespacio de V.
Demostracin.
Sean x1 H1H2 y x2.
Entonces,
dado
que H1 y H2 son
subespacios, x1 + x2 H1 y x1 + x2 H2.
Esto
es, x1 + x2 H1H2.
Anlogamente,
x1H1H2. De esta manera se satisfacen los dos axiomas de cerradura y por lo
tanto H1H2, es un subespacio.

4.3.- Propiedades de vectores, combinacin lineal, dependencia e


independencia lineal.

Dependencia e independencia lineal


Definicin. Dependencia e independencia lineales. Sean v1, v2, ..., vn n vectores en un
espacio vectorial V. Entonces se dice que los vectores son linealmente dependientes si
existen n escalares c1, c2, ..., cn no todos cero, tales que
c1v1 + c2v2+...+cnvn = 0
Si los vectores no son linealmente dependientes, entonces se dice que son linealmente
independientes.
Expresado de otro modo, v1, v2, ..., vn son linealmente independientes si la eciacin c 1v1 +
c2v2+...+cnvn = 0 slo se satisface si c1= c2 = ... = cn = 0.
Cmo se determina si un conjunto de vectores es o no linealmente independiente? El caso
de dos vectores es sencillo.
Teorema 1. Dos vectores en un espacio vectorial V son linealmente dependientes si y slo
si uno es un mltiplo del otro.
Teorema 2. Un conjunto de n vectores en m es siempre linealmente dependiente
si n > m.
Demostracin. Sean v1, v2, ..., vn n vectores en m y tratemos de evaluar constantes c1,
c2, ..., cn, no todas nulas, tales que
c1v1 + c2v2+...+cnvn = 0

(1)

Sean

. Entonces, la Ecuacin (1) se convierte en

(2)
Corolario. Un conjunto linealmente independiente de vectores en n contiene, a lo
sumo, n vectores.
Nota. Podemos expresar el corolario como sigue: Si se tienen n vectores-n linealmente
independientes, no es posible agregar ms vectores sin hacer que el conjunto obtenido sea
linealmente dependiente.
Teorema 3. Sea

Entonces las columnas de A, consideradas como vectores, son linealmente dependientes si


y slo si el sistema (2), que puede ser expresado como Ac = 0, posee un nmero infinito

de soluciones. Aqu,
Teorema 4. Sean v1, v2, ..., vn, n vectores en n, y sea A una matriz de n x n cuyas
columnas son v1, v2, ..., vn. Entonces v1, v2, ..., vn, son linealmente independientes si y slo
si la nica solucin al sistema homogneo Ax = 0 es la solucin trivial x = 0.
Demostracin. Esto es el Teorema 3 en el caso en que m = n.
Teorema 5. Sea A una matriz de n x n. Entonces A 0 si y solamente si las columnas
de A son linealmente independientes.
Teorema 6. Sea A una matriz de n x n. Entonces cada uno de los siguientes siete
enunciados implica a los otros seis (esto es, si uno se verifica, todos son ciertos).
i. A es invertible.
ii. La nica solucin al sistema homogneo Ax = 0 es la solucin trivial (x = 0).
iii. El sistema Ax = b posee una solucin nica para todo n-vector b.
iv. A es equivalente por filas a la matriz identidad In

v. A puede ser escrita como el producto de matrices elementales.


vi. det A 0.
vii. Las columnas (y los renglones) de A son linealmente independientes.
Combinacin lineal.
Sean v1, v2,..., vn vectores en un espacio vectorial V. Entonces, toda expresin de la forma
a1v1+ av22+...+anvn
Endonde a1,a2, ..., anson escalares, se llama combinacin lineal de v1, v2, ..., vn

4.4.- Base y dimensin de un espacio vectorial.

Base
Un conjunto de vectores {v1, v2,..., vn} forma una base para V si
i. {v1, v2,..., vn} es linealmente independiente.
ii.{v1, v2, ..., vn} genera V.
As pues,
Todo conjunto de n vectores linealmente independientes enn es una base en n
En n definimos

Como los trminos ei son las columnas de la matriz identidad (cuyo determinante es 1),
entonces {e1, e2, ..., en} es linealmente independiente y, por tanto, constituye una base
en n. Esta entidad especial se llama base cannica en n.
Teorema 1. Si {v1, v2,..., vn} es una base de V y si v V, entonces existe un conjunto
nico de escalares c1, c2, ..., cn tales que v= c1v1, c2v2, ..., cnvn.
Teorema 2. Si {u1, u2,..., un} y {v1, v2,..., vn} son bases del espacio vectorial V,
entonces m = n; esto es, cualesquiera dos bases en un espacio vectorial V poseen el
mismo nmero de vectores.
Dimensin

Si el espacio vectorial V posee una base finita, la dimensin de V es el nmero de vectores


en la base, y V se llama espacio vectorial de dimensin finita. De otra manera, V se
denomina espacio vectorial de dimensin infinita. Si V = {0}, entonces V se dice que es de
dimensin cero.
Notacin. Se simboliza la dimensin de V como dim V.
Teorema 3. Supngase que dim V = n. Si u1, u2,..., um es un conjunto de m vectores
linealmente independientes en V, entonces m n.
Teorema 4. Sea H un subespacio
Entonces H es finito-dimensional y

del

espacio

vectorial V de

dimensin

finito.

dim H dim V
Demostracin. Sea dim V = n. Cualquier conjunto de vectores en H linealmente
independiente, lo es tambien en V. Por el Teorema 3, cualquier conjunto linealmente
independiente en H, cuando ms, contiene n vectores. As pues, H es de dimensin finita.
Ms an, como una base en H es un conjunto linealmente independiente, se ve que
dim H n.
Teorema 5. Cualesquiera n vectores linealmente
vectorial V de dimensin n, constituyen una base.

independientes

en

un

espacio

4.5.- Espacio vectorial con producto interno y sus


propiedades.

Espacio con producto escalar.


Definicin. El espacio vectorial complejo V se conoce como un espacio con producto
interior si para cualquier par de vectores u y v en V, existe un nico nmero complejo
(u, v), llamado el producto interior de u y v, tal que si u, v y w estn en V y si C,
entonces
i. (v, v) 0
ii. (v, v) = 0 si y slo si v = 0.
iii, (u, v +w) = (u, v)+ (u, w)
iv. (u + v, w) = (u, w)+(v, w)
v. (u, v) = (v, u)
vi. (u, v) = (u, v)
vii. (u, v) = (u, v)

La barra en las condiciones (v) y (vii) denota el conjugado complejo.

4.6.- Cambio de base, base orto normal, proceso de orto


normalizacin Gram-Schmidt.

Cambio de base
Sea x un vector que en base B 1 (de vectores unitarios u1, u2, ...) ser igual a m1u1+ m2u2 +
m3u3 + ... El mismo vector, utilizando otra base B 2 (de vectores unitarios v1, v2, ...) ser
n1v1+ n2v2 + n3v3 + ...
Supongamos que u1, u2, ... se representan en la base B2 de esta forma:
u1 = a11v1 + a21v2 + ... + an1vn
u2 = a12v1 + a22v2 + ... + an2vn
.............................................................
un = a1nv1 + a2nv2 + ... + annvn
Por lo tanto, sustituyendo estas ecuaciones en la frmula original nos queda:
x = m1(a11v1 + a21v2 + ... + an1vn ) + m2(a12v1 + a22v2 + ... + an2vn) + ...
Reordenando queda:
x = (m1a11 + m2a12 + ... + mna1n)v1 + ... + (m1an1 + m2an2 + ... + mnann)vn
Comparando con la frmula x = n1v1+ n2v2 + n3v3 +... deducimos que:
n1 = m1a11 + m2a12 + ... + mna1n
n2 = m1a21 + m2a22 + ... + mna2n
.................................................................
nn = m1ann + m2an2 + ... + mnann
Esto se puede expresar de forma matricial:
n1
n2 =
.....
nn

a11 + a12 + ... + a1n


m1
a21 + a22 + ... + a2n
m2
........................................
a2n + an2 + ... + ann
mn

Llamando A a la matriz de coeficientes, X' al vector en la base B 2 y X al vector en la base


B1 nos queda:
X' = AX
Despejando X nos queda:
X = A-1X'

Proceso de ortonormalizacin Gram-Schmidt.


El proceso de ortogonalizacin de GramSchmidt de lgebra lineal es un proceso
utilizado en matemtica y anlisis numrico, para ortogonalizar un conjunto de vectores en
un espacio prehilbertiano, ms comnmente el espacio eucldeo Rn.
Ortogonalizacin en este contexto significa lo siguiente: comenzamos con vectores v1,
, vk los cuales son linealmente independientes y queremos encontrar mutuamente
vectores ortogonalesu1, , uk los cuales generan el mismo subespacio que los vectores v1,
, vk.
Este proceso lleva el nombre en honor a Jorgen Pedersen Gram y Erhard Schmidt.
Definimos el operador proyeccin con

donde los corchetes angulares representan


vector v ortogonalmente en el vector u.

el

producto

interior,

proyecta

el

Antes de ver el proceso, debemos comprender el porqu de la definicin de proyeccin. Si


recordamos la definicin de producto escalar, tenemos para el caso del numerador, mdulo
de u por mdulo de v por el coseno del ngulo que forman. En el denominador tenemos
mdulo de u por mdulo de u, ya que el coseno sera 1. Si separamos los dos mdulos de u
en el denominador, vemos que a la izquierda tenemos nicamente "mdulo de v * cos
(ngulo que forman)", lo que nos da claramente el mdulo del vector proyeccin. Teniendo
el mdulo del vector proyeccin lo nico que debemos hacer es asignarle una direccin,
cosa que hacemos multiplicndolo por u/mdulo (u), lo que es el vector de mdulo 1 con
direccin u (el vector unitario).
El proceso de GramSchmidt entonces funciona como sigue:

Los dos primeros pasos del proceso de Gram-Schmidt

5.1.- Definicin de transformacin lineal y sus


propiedades.

Transformacin lineal.
Definicin. Sean V y W espacios vectoriales. Una transformacin lineal T de V en W es una
funcin que asigna a cada vector v V un nico vector Tv W y que satisface para cada u
y v en V y cada escalar ,
T (u + v) = Tu + Tv (1)
T (v) = Tv (2)
Notacin. Escribimos T: V W para indicar que T transforma V en W.
Terminologa. Las transformaciones lineales se llaman, con frecuencia, operadores lineales.
Tambin, las funciones que satisfacen (1) y (2) se denominan funciones lineales.
Propiedades bsicas de las transformaciones lineales.
Teorema 1. Sea T: V W una transformacin lineal. Entonces para todos los vectores u, v,
v1, v2, ..., vn en V y todos los escalares 1, 2, ..., n:
i. T (0) = 0
ii. T (u - v) = Tu - Tv
iii. T (1v1, 2v2...nvn) = 1Tv1+ 2Tv2+ ... + nTvn
Nota. En la parte (i) el 0 de la izquierda, es el vector cero en V mientras que el 0 del lado
derecho, es el vector cero en W.
Teorema 2. Sea V un espacio vectorial de dimensin finita con base B={v1, v2, ..., vn}.
Sean w1, w2, ..., wn n vectores en W. Suponga que T1 y T2 son dos transformaciones lineales
de V en W tales que T1vi= T2vi = wi para i = 1, 2, ..., n.
Entonces para cualquier vector v V, T1v = T2v. Es decir T1 = T2.

Teorema 3. Sea V un espacio vectorial de dimensin finita con base B = {v1, v2,..., vn}. Sea
tambin W un espacio vectorial que contiene a los n vectores w1, w2,..., wn. Entonces
existe una nica transformacin lineal T: V W tal que Tvi = wi para i = 1, 2,..., n.

5.2.- Ejemplos de transformaciones lineales (reflexin, dilatacin,


contraccin, rotacin).

Rotacin
Sea 0 < 2 un ngulo medido en radianes. La Transformacin de T : R2 R2 que gira
sobre un vector = (u1, u2) es un ngulo , para obtener un vector T () = (v1, v2).
Usando las funciones trigonomtricas, tenemos que:
v1 = ||T ()|| cos ( + ) = |||| (cos cos - sen sen )
v2 = ||T ()|| sen ( + ) = |||| (sen cos + cos sen )
Como u1 = |||| = cos y u2 = |||| = sen se obtiene:
v1 = u1 cos u2 sen
v2 = u2 cos u1 sen
Por lo tanto la Transformacin T: R2 R2 debe estar definida tal que:
T (u1, u2) = (u1 cos u2 sen , u2 cos u1 sen ).
Esta transformacin se llama la rotacin por un ngulo y es lineal, ya que:
T [(u1, u2) + (v1, v2)] = T (u1 + v1, u2 + v2)
= ((u1 + v1) cos (u2 + v2) sen , (u2 + v2) cos + (u1 + v1) sen )
=(u1 cos - u2 sen , u2 cos + u1 sen )+(v1 cos - v2 sen , v2 cos + v1 sen )
= T (u1, u2) + T (v1, v2)
Transformacin de Reflexin:
La Transformacin de T: R2 R2 que a cada vector = (u1, u2) lo refleja sobre el eje x,
para obtener un vector T () = (v1, v2).
En este caso, la situacin es ms sencilla ya que claramente tenemos dos tringulos
rectngulos que son congruentes, de donde T queda definida como sigue:
T (u1, u2) = (u1, -u2)

Esta transformacin se llama la reflexin sobre el eje x, y es lineal, ya que:


T [(u1, u2) + (v1, v2)] = T (u1 + v1, u2 + v2) = (u1 + v1, -u2 -v2)
= (u1, -u2) + (v1, -v2) = T (u1, u2) + T (v1, v2)

5.3.- Definicin de ncleo o kernel, e imagen de una


transformacin lineal.

Kernel
Definicin. Sean V y W espacios vectoriales y sea T : V W una transformacin lineal.
Entonces:
El kernel (o ncleo) de T, denotado como ker T, est dado por
ker T = {v V: Tv = 0}
Obervacin. Note que ker T es no vaco ya que por el Teorema 1 de las Transformaciones
lineales, T(0) = 0 de manera que 0 ker T para toda transformacin lineal T. Ser
interesante encontrar otros vectores en V que sean "mapeados al cero". De nuevo, ntese
que cuando escribimos T(0) = 0, el 0 de la izquierda est en V, y el 0 de la derecha est
en W.
Imagen de una transformacin lineal.
Definicin. Sean V y W espacios vectoriales y sea T : V W una transformacin lineal.
Entonces:
imag V = { w W: w = Tv para alguna v V}
Observacin. El concepto imag T es simplemente el conjunto de "imgenes" de vectores
en V bajo la transformacin T. De hecho, si w = Tv, diremos que w es tambin la imagen
de v bajo T.
Teorema. Si T : V W es una transformacin lineal, entonces:
i. ker T es un subespacio de V.
ii. imag T es un subespacio de W.
Demostracin.
i. Sean u y v en ker T; entonces T(u + v) = Tu + Tv = 0 + 0 = 0 y T(u) = Tu = 0 = 0
de modo que u + v y u estn en ker T.

ii. Sean w y x en imag T. Entonces w = Tu y x = Tv para dos vectores u y v en V. Esto


significa que T(u + v) = Tu + Tv = w + x y T(u) = Tu = w. De esta manera w + x y
w estn en imagT.
Ejemplo.
Sea Tv = 0 para todo v V. (T es la transformacin cero.) Entonces ker T = V e imag T =
{0}

5.4.- La matriz de una transformacin lineal y representacin matricial de


una transformacin lineal.

Estamos en condiciones de mostrar que cualquier transformacin lineal de n a mpuede


ser introducida mediante la multiplicacin por una matriz adecuada.
Teorema 1. Sea T: n m una transformacin lineal, entonces existe una matriz A M
( m,n, ) tal que T (v)= A v, vn
Demostracin. Antes de efectuar la demostracin,es conveniente sealar que podemos
identificar la n -upla(x1, x2,...,xn )n con la matriz columna

esto se realizar con un isomorfismo que presentaremos posteriormente.


Sea E = {E1, E2,..., En} labasecanonicade n y E* = {E*1 ,E*2 ,...,E*m } base cannica dem.
Sea v =(x1, x2,..., xn) n, entonces v se escribe como combinacin de los vectores de E
como v = x1E1, x2E2,..., xnEn, as, aplicando la transformacin lineal T obtenemos
T (v)= x1T (E1) + x2T (E2) + + xnT(En). (1)
Por otro lado, cada vector T(Ej) m se escribe como combinacin lineal de la base
cannica E* como T(Ej) = a1jE*1 + a2jE*2 + amj E*m.
Reemplazando esto ltimo en (1) obtenemos

de aqu deducimos que la i-sima componente deT(v) es ai1x1 + ai2x2 + ai3x3 + ... + ainxn
Si definimos A = (aij) M (m, n, ) entonces, dado que la i-sima componente de

es ai1x1 + ai2x2 + ai3x3 + ... + ainxn, concluimos que T(v) = A * v.


Ejemplo. Sea T : 3 2 una transformacin lineal tal que T(x, y, z) = (2x + y, x + y +z).
Determine A = [T]E*E y verifique.
Solucin.
Sean E = {E1 = (1,0,0), E2 = (0, 1, 0), E3 = (0, 0, 1)}, E*= {E* 1 = (1,0), E*2 = (0, 1)} bases
cannicas de 2 respectivamente, entonces:

Entonces

Verificacin:

5.5.- Transformaciones
ecuaciones lineales.

lineales

sistemas

de

Las transformaciones lineales junto con los conceptos de ncleo y rango desempean un
papel importante en el anlisis de sistemas de ecuaciones lineales. Se ver que estos
sistemas permiten visualizar los conjuntos de soluciones.
Un sistema de m ecuaciones lineales con n variables se puede expresar en forma matricial
de la siguiente manera:
Ax = y
A es una matriz de m x n; sta es la matriz de coeficientes del sistema. El conjunto de
soluciones es el conjunto de x que satisface esta ecuacin. Ahora cuenta con una forma
elegante de visualizar este conjunto solucin. Sea T: Rn Rm la transformacin lineal
definida por A. El sistema de ecuaciones se puede escribir de la siguiente manera:

T(x) = y
El conjunto de soluciones es el conjunto de vectores en Rn transformado por T en el
vector y. Si y no pertenece al rango de T. Entonces el sistema no tiene solucin. Vase la
siguiente figura:

Ecuaciones homogneas
Esta forma de ver los sistemas de ecuaciones lineales nos lleva al siguiente resultado.
Teorema 1. El conjunto de soluciones de un sistema homogneo de m ecuaciones lineales
con n variables, Ax = 0, es un subespacio de Rn.
Demostracin. Sea T la transformacin lineal de Rn en R, definida por A. El conjunto de
soluciones es el conjunto de vectores en Rn transformado por T en el vector cero. El
conjunto de soluciones es el ncleo de la transformacin y por consiguiente, un
subespacio.
Ecuaciones no homogneas
Ahora ver que el conjunto de soluciones de un sistema de ecuaciones lineales no
homogneas no forma un subespacio.
Sea Ax = y (y
0)
un
sistema
Sea x1 y x2 soluciones. Por lo tanto,

de

ecuaciones

lineales

no

homogneo.

Ax1 = y y Ax2= y
Si se suman estas ecuaciones, se obtiene
Ax1+ Ax2= 2y
A(x1 +x2)= 2y
Por lo tanto, x1 + x2 no satisfacen a Ax = y. No se trata de una solucin. El conjunto de
soluciones no es cerrado bajo la adicin; por consiguiente, no es un subespacio.

Sin embargo, No todo est perdido! Aunque el conjunto de soluciones de un sistema no


homogneo no es un subespacio, el conjunto se puede obtener trasladando cierto
subespacio. Este resultado permitir representar el conjunto de soluciones.
Teorema 2. Sea Ax = y un sistema no homogneo de m ecuaciones lineales
con n variables. Sea x1 una solucin particular. Cada solucin se puede escribir de la
siguiente forma: x = z + x1, donde z es un elemento del ncleo de la
transformacin T definida por A. La solucin es nica si el kernel consta slo del vector
cero.
Demostracin. x1 es una solucin. Por consiguiente, Ax1 = y. Sea x cualquier solucin.
As, Ax = y. Si se igualan Ax1 y Ax, se tiene que
Ax1 = Ax
Ax - Ax1 = 0
A(x - x1) = 0
T(x - x1) = 0
Por lo tanto, x - x1 es un elemento del ncleo de T; llmenlo z.
x - x1 = z
Se puede escribir:
x= z + x1
Note que la solucin es nica si el nico valor de z es 0; es decir, si el kernel es el vector
cero.
Este resultado implica que el conjunto de soluciones de un sistema de ecuaciones lineales
no homogneo Ax = y se puede obtener a partir del kernel de la transformacin definida
por la matriz de coeficientes y una solucin particular x1. Si se toma cualquier vector z del
kernel y le suma x1, se obtiene una solucin. Desde el punto de vista geomtrico, esto
significa que el conjunto de soluciones se obtiene trasladando el ncleo a una distancia y
en una direccin definidas por el vector x1. Vase la siguiente figura:

5.6.- lgebra de las transformaciones lineales.

Definicin Un lgebra A sobre un campo F es un espacio vectorial sobre F en el que se


tiene definida una operacin producto que satisface para todos los elementos T1, T2, T3
A y F
T1 (T2 + T3) = T1T2 + T1T3
(T2 + T3)T1 = T2T1 + T3 T1
(T1T2) = (T1)T2 = T1(T2)
Si adems se cumple que
(T1T2)T3 = T1 (T2T3)
Entonces A es un lgebra asociativa.
Definicin Sean V, U y W espacios vectoriales sobre el mismo campo F. Sean T1: V U y
T2: U W dos transformaciones lineales.
Se define la composicin de T2 seguida de T1 T2T1 como la funcin de V a W (T2T1) : V
W tal que (T2T1)(v) = T2(T1(v)).
Proposicin. Si u, v V y , F, entonces:
(T2T1)(v+u)=T2 (T1 (v+u))=T2 (T1 (v)+T1 (u)) = (T2T1)(v) + (T2T1(u)
(T2T1) es Transformacin Lineal

6.1.- Definicin de valores y vectores caractersticos de


una matriz cuadrada.

Sea T: V V una transformacin lineal. En una gran variedad de aplicaciones, resulta til
encontrar un vector v enV tal que Tv y v sean paralelos. Esto es, buscamos un vector v y
un escalar tal que
Tv = v (1)
Si v 0 y satisface (1) entonces se denomina valor caracterstico de T y v se
llama vector caracterstico de T correspondiente al valor caracterstico de . Si V es de
dimensin finita, entonces T puede representarse por una matriz AT. Por esta razn
discutiremos valores y vectores caractersticos de matrices de n x n.

Definicin. Valor caracterstico y vector caracterstico. Sea A una matriz de n x n con


componentes reales. El nmero (real o complejo) se llama valor caracterstico de A si hay
un vectorv distinto de cero en Cn tal que
Av = v (2)
El vector v 0 se llama vector caracterstico de A correspondiente al valor caracterstico .
Nota La palabra eigen significa "propio" o "apropiado" en alemn. Los valores
caractersticos se llaman tambin valores propios o autovalores, y los vectores
caractersticos, vectores propios o autovectores.
Teorema 1. Sea A una matriz de n x n. Entonces es un valor caracterstico de A si y slo
si
p() = det (A - I) = 0

6.2.- Polinomio y ecuacin caracterstica

Definicin. Ecuacin caracterstica y polinimo caracterstico. La ecuacin p() = det


(A - I) = 0 se conoce como la ecuacin caracterstica de A; p() se conoce como
el polinomio caracterstico de A.
p() es un polinomio de grado n en .
Por el teorema fundamental del lgebra, todo polinomio de grado n con coeficientes reales
o complejos tiene n races exactamente (contando multiplicidades). Con esto queremos
decir que, por ejemplo el polinomio ( -1) 5 tiene cinco races, todas iguales al nmero 1.
Puesto que todo valor caracterstico de A es una raz de la ecuacin caracterstica
de A, concluimos que:
Si se consideran multiplicidades, cada matriz de n x n tiene exactamente n valores
caractersticos.
Teorema 1 Sea un valor caracterstico de la matriz de A de n x n y sea E = {v:Av = v}.
Entonces E es un subespacio de Cn
Teorema 2 Sea A una matriz de n x n y sean 1, 2,..., m valores caractersticos diferentes
de A con
sus
correspondientes
vectores
caractersticos
de v1, v2,..., vm.
Entonces v1, v2,..., vmson linealmente independientes. Esto es: los vectores caractersticos
correspondientes a valores caractersticos diferentes son linealmente independientes.

6.3.- Determinacin de los valores y vectores caractersticos de


una matriz cuadrada.

Procedimiento para calcular propios y vectores propios


i. Halle p () = det (A - I).
ii. Halle las races 1, 2,..., m de p() = 0.
iii. Resuelva el sistema
caracterstico de i.

homogneo

(A -iI)v =

correspondiente

Ejemplo.

De esta manera los valores caractersticos de A son 1= 1, 2 = -2 y 3 = 3.


Para 1= 1 tenemos

Si resolvemos reduciendo por renglones, obtenemos, sucesivamente,

cada

valor

6.4.- Diagonalizacin de matrices, potencias y races


de matrices.

Diagonalizacin de matrices
Qu
es
diagonalizar
una
matriz?
Para estudiar una matriz suele ser conveniente expresarla de forma lo ms sencilla posible.
Diagonalizar una matriz A es precisamente eso: escribirla de manera simple encontrando
una matriz invertible P y una diagonal D (si se puede) tales que
A = P D P-1
La matriz P se llama matriz de paso.
Puede que esto, al principio, no parezca ms simple de lo que ya era A directamente. Sin
embargo, lo es desde muchos puntos de vista. Dado que las matrices suelen usarse para
representar aplicaciones lineales, la expresin anterior puede verse como un cambio de
base de la aplicacin representada por A; entonces, esta forma de escribirlo dice: hay una
base en la que la aplicacin lineal A tiene una forma muy simple (diagonal). Esto es til,
por ejemplo, para clasificar una aplicacin lineal y estudiar sus propiedades. Las matrices
se usan para representar otras cosas como cnicas, cudricas o formas bilineales, y en
estos casos tambin resulta til esta forma de expresarlas.
La relacin anterior entre las matrices A y D es importante y aparece en muchos contextos,
as que tiene nombre propio:
Cuando dos matrices cuadradas A y B verifican que A = P B P -1 para cierta matriz
cuadrada P (invertible, claro) decimos que A y B son semejantes.
Una matriz es diagonalizable cuando se puede diagonalizar; es decir, cuando podemos
encontrar una matriz diagonal y una invertible de forma que la matriz se escriba como
dijimos antes. Dicho de otra forma: una matriz es diagonalizable cuando es semejante a
una matriz diagonal.Entonces, ms exactamente: una matriz es diagonalizable cuando es
semejante a una matriz diagonal real.
Cundo y cmo podemos diagonalizar una matriz?
Si conseguimos escribir una matriz A como A = P D P -1 , entonces podemos poner
tambin A P = P D. Si D es diagonal y nos fijamos en la columna i de esta ltima igualdad
lo que tenemos es que A xi = i xi (donde xi es la columna i de A y i es el nmero en el
lugar i de la diagonal de D). Esto nos dice que para diagonalizar una matriz nos hace falta
conocer los vectores a los que les pase algo as. Estos vectores tambin tienen nombre:
Si un nmero y un vector no nulo x verifican la relacin A x = x diremos que es un
valor propio o autovalor de la matriz A y que x es un vector propio o autovector de A
asociado al valor propio .
Es fcil ver que diagonalizar una matriz A de tamao nn es lo mismo que encontrar n
vectores propios linealmente independientes asociados a valores propios reales, ya que
entonces podemos ponerlos por columnas y conseguir as la matriz P (puedes comprobar
que entonces se cumple la relacin que buscamos). Entonces, para diagonalizar una
matriz lo que tenemos que hacer es buscar n vectores propios suyos linealmente
independientes asociados a valores propios reales.

Cmo encontrar valores y vectores propios de una matriz?


Es fundamental, pues, hallar los valores propios de A y los vectores propios asociados.
Como un vector propio l hace que el sistema Ax = x tenga solucin x distinta de cero, la
matriz de coeficientes A I (donde I denota la matriz identidad de orden n) debe tener
determinante no nulo. Este determinante det(AI) es un polinomio en de grado n y se
denomina polinomio caracterstico de A. Por lo tanto, los valores propios de A sern los
ceros
del
polinomio
caracterstico
de
A.
Observa que una matriz puede perfectamente tener valores propios imaginarios.
Por otro lado, el conjunto de vectores propios de A asociados a un mismo valor propio
forman un subespacio vectorial de Rn que se llama subespacio propio asociado al valor
propio , y es el nclea de la matriz A I. Para concluir si una matriz A es o no
diagonalizable bastar pues averiguar si hay "suficientes" valores propios reales para
construir D y si hay"suficientes" vectores propios linealmente independientes asociados;
esta informacin nos la dar la dimensin de los subespacios propios y queda recogida en
el siguiente resultado:
Una matriz real cuadrada de orden n es diagonalizable si y slo si tiene n
vectores propios linealmente independientes asociados a valores propios reales.
Adems, el teorema espectral nos confirma un caso en el que siempre es posible
diagonalizar:
Toda matriz real simtrica es diagonalizable.
En este caso,se puede conseguir adems que las columnas de la matriz de paso P sean
una base ortonormal y por lo tanto que P sea una matriz ortogonal.

6.5.Diagonalizacin
de
Diagonalizacin ortogonal.

matrices

simtricas,

Teorema 1. Sea A una matriz simtrica real de n x n. Entonces los valores caractersticos
de A son reales.
Teorema 2. Sea A una matriz simtrica real de n x n. Si 1 y 2 son valores caractersticos
distintos con correspondientes vectores caractersticos reales v1 y v2, entonces v1 y v2 son
ortogonales.
Teorema 3.Sea A una matriz simtrica real de n
que A tiene n vectores caractersticos reales ortonormales.

n.

Resulta

entonces

Obervacin. Se concluye de este teorema que la multiplicidad geomtrica de cada valor


caracterstico de A es igual a su multiplicidad algebraica.
El Teorema 3 nos dice que si A es simtrica entonces Rn tiene una base B = {u1, u2, ... un}
que consiste de vectores caractersticos ortonormales de A. Sea Q la matriz cuyas

columnas u1, u2, ... un. Entonces Q es una matriz ortogonal. Esto nos conduce hacia la
siguiente definicin.
Definicion. Matriz ortogonalmente diagonizable. Una matriz A de n x n se dice que
es diagonalizable ortogonalmente si existe una matriz ortogonal Q tal que
Q'AQ = D (1)
donde D = diag(1, 2, ..., n) y 1, 2, ..., n son los valores caractersticos de A.
Nota. Recuerde que Q es ortogonal si Q' = Q-1; por lo tanto (1) podra ser escrita como Q1
AQ = D.
Teorema 4. Sea A una matriz real de n x n. Entonces A es diagonalizable ortogonalmente
si y slo si A es simtrica.
Procedimiento para encontrar una matriz diagonalizante Q:
i. Encuentre una base para cada espacio caracterstico de A.
ii. Encuentre una base ortonormal para cada espacio caracterstico de A, usando el
procedimiento Gram-Schmidt.
iii. Establezca a Q como la matriz cuyas columnas son los vectores caractersticos
ortonormales obtenidos en el paso (ii).
Ejemplo

6.6.- Formas cuadrticas.

La expresin algebraica
ax2 + bxy + cy2
en donde a, b y c son constantes es una forma cuadrtica. Las formas cuadrticas
juegan un papel importante en la geometra. Mediante la multiplicacin de las matrices
siguientes, esta forma cuadrtica se escribe como

A la matriz simtrica A asociada a esta forma cuadrtica se le llama matriz de la forma


cuadrtica.
Ejemplo Escriba la siguiente forma cuadrtica en trminos de matrices.

5x2 + 6xy - 4y2


Solucin. Por comparacin con la forma estndar ax2 + bxy + cy2, se tiene
a = 5, b = 6, c = -4
Entonces, la forma matricial de la forma cuadrtica es

6.7.- Teorema de Cayley-Hamilton.

En lgebra lineal, el teorema de Cayley-Hamilton (que lleva los nombres de los


matemticos Arthur Cayley y William Hamilton) asegura que todo endomorfismo de un
espacio vectorial de dimensin finita sobre un cuerpo cualquiera anula su propio polinomio
caracterstico.
En trminos matriciales, eso significa que:
si A es una matriz cuadrada de orden n y si

es su polinomio caracterstico (polinomio de indeterminada X), entonces al sustituir


formalmente X por la matriz A en el polinomio, el resultado es la matriz nula:

El teorema de Cayley-Hamilton se aplica tambin a matrices cuadradas de coeficientes en


un anillo conmutativo cualquiera.
Un corolario importante del teorema de Cayley-Hamilton afirma que el polinomio mnimo
de una matriz dada es un divisor de su polinomio caracterstico, y no solo eso, el polinomio
mnimo tiene los mismos factores irreducibles que el polinomio caracterstico.
Demostracin.
Efectuamos la demostracin sobre la matriz A. Definamos la matriz B(X) = tcom(XI A).
Sabemos que

Podemos interpretar los miembros y factores de esta igualdad como polinomios en X con
coeficientes en el anillo de las matrices cuadradas nxn con coeficientes en K y esa
igualdad implica que P(X).I es divisible por la izquierda por XI A. Esto implica entonces
que el valor a la derecha (igual en realidad aqu tambin a su valor a la izquierda, ya que

se obtiene B(X).(XI A) = det(XI A).I) del polinomio P(X).I para X = A es nula. Este valor
slo es P(A), lo que termina la demostracin.
Ejemplo
Consideremos por ejemplo la matriz

El polinomio caracterstico se escribe

El teorema de Cayley-Hamilton afirma que


A2 5A 2I2 = 0
y esta relacin puede verificarse inmediatamente en ese caso. Adems el teorema de
Cayley-Hamilton permite calcular las potencias de una matriz de modo ms sencillo que
por un clculo directo. Tomemos la relacin anterior
A2 5A 2I2 = 0
A2 = 5A + 2I2
As, por ejemplo, para calcular A4, podemos escribir
A3 = (5A + 2I2)A = 5A2 + 2A = 5(5A + 2I2) + 2A = 27A + 10I2
y llegamos a
A4 = A3A = (27A + 10I2)A = 27A2 + 10A = 27(5A + 2I2) + 10A
A4 = 145A + 54I2.
Podemos utilizar tambin la relacin polinomial inicial A2 5A 2I2 = 0 para probar la
inversibilidad de A y calcular su inverso. En efecto, basta con factorizar una potencia
de A donde sea posible y
A(A 5I) = 2I2
lo que demuestra que A admite como inverso

6.8.- Aplicaciones.

En este captulo se mostrar cmo se pueden usar la teora de los valores y vectores
caractersticos para analizar ciertos modelos de crecimiento de poblacin.
Supngase que para cierta especie, la poblacin en un periodo (que puede ser de una
hora, una semana, un ao, etc.) es un mltiplo constante de la poblacin en el periodo
anterior. Esto podra suceder, por ejemplo, si las generaciones son distintas y cada
organismo produce descendientes y despus muere.
Un ejemplo son las bacterias, que se dividen en dos a intervalos regulares. Entonces = 2.
Sea pn la poblacin al final del periodo n-simo. Entonces, bajo las suposiciones anteriores,
tenemos que
pn = pn-1.
As, si p0 denota la poblacin inicial, se tiene que p1= p0, p2= p1 = (p0) = 2p0,
etctera, por lo que
pn = np0. (1)
Si = 1, la poblacin permanece constante. Si < 1, la poblacin disminuye, y si > 1,
aumenta.
Este modelo es obviamente demasiado simplista para que sea de mucha utilidad. El
nmero de descendientes producidos no es slo funcin del nmero de adultos sino
tambin de la edad de los adultos. Por ejemplo, una poblacin humana en la que todas las
mujeres tuvieran ms de 50 aos de edad, tendra una tasa de multiplicacin muy distinta
que otra poblacin en la que las mujeres tuvieran todas edades entre 20 y 30 aos. Para
desarrollar una descripcin ms exacta de la realidad, usamos un modelo matricial que
permite aplicar distintas tasas de multiplicacin a los grupos de distintas edades.
Observamos ahora un modelo de crecimiento de la poblacin para una cierta especie de
aves. En esta poblacin de aves, suponemos que el nmero de hembras es igual al nmero
de machos. Sea pj,n-1 la poblacin de hembras jvenes (inmaduras) en el ao n -1, y sea pa,n1 el nmero de hembras adultas en el ao n-1. Algunos de los pjaros jvenes sobreviven
para llegar a ser adultos en la primavera del ao n. Cada pjaro hembra sobreviviente
produce huevos ms tarde en la primavera, que empollados, producen en
promedio, k hembras jvenes en la siguiente estacin primaveral. Los adultos tambin
mueren, y la proporcin de adultos que sobreviven de una primavera a la otra es .
Es un hecho interesante y notable que no resulta demasiado simplista suponer que la
proporcin de los animales que sobreviven es constante. Esto se observa como el caso
ms natural en las poblaciones naturales de las aves que han sido estudiadas. La tasa de
supervivencia de los adultos de muchas especies de aves es independiente de la edad. Tal
vez pocos pjaros en libertad sobrevivan lo suficiente como para exhibir los efectos de la
vejez. Adems, para muchas de las especies, el nmero de descendientes parece que no
recibe la influencia de la edad de la madre.
En la notacin introducida anteriormente, pj,n-1 y pa,n-1 representan, respectivamente, las
poblaciones de hembras jvenes y adultas en el ao n. Juntando toda la informacin dada,
llegamos al siguiente sistema 2 x 2:
pj,n = kpa,n-1 (2)

pa,n = pj,n-1 + pa,n-1


O
pn = Apn-1 (3)
Donde

Est claro de (3) que p1 = Ap0, p2 = Ap1 = A(Ap0) = A2p0, ..., y as sucesivamente, por lo
que
pn = Anp0 (4)
Donde p0 es el vector de las poblaciones iniciales de hembras jvenes y adultas
La Ecuacin (4) es como la Ecuacin (1), excepto que se ha podido distinguir entre las
tasas de supervivencia de los pjaros jvenes y adultos.

Anda mungkin juga menyukai