Anda di halaman 1dari 89

INSTITUTO TECNOLOGICO LOS MOCHIS

CARRERA:
ING. INDUSTRIAL
MATERIA:
ALGEBRA LINEAL
UNIDADES DESARROLLADAS
GRUPO:
536
NOMBRE DEL ESTUDIANTE:
SANDOVAL OLEA ABEL ARMANDO
PROFESOR:
VERDUGO URIAS JOSE BULMARO
11/12/15

Sandoval Pgina 1
INTRODUCCION

El lgebra Lineal, es un pilar imprescindible de las matemticas, el cual nos


permite enfrentar el estudio exhaustivo y preciso de ciencias como las naturales
y fsicas, de aquellas relacionadas con el comportamiento en general, de
las ingenieras, de la economa, de la computacin, de las
mismas matemticas abstractas.

Cabe resaltar que su importancia se eleva sbitamente con el uso y presencia


actual de las computadoras y de manera generalizada todo el campo de
la informtica y la computacin.

Sandoval Pgina 2
Objetivos:

1. Dar los fundamentos matemticos slidos del Algebra Lineal.

2. Introducir algunos aspectos importantes de los calculos en este


campo. Es importante, por ejemplo, que los estudiantes sean capaces
de entender y analizar los algoritmos involucrados.

3. Tratar algunas aplicaciones interesantes de manera que los


estudiantes sepan como y cuando aplicar el Algebra Lineal. Las
aplicaciones se han tomado de diferentes reas.

Sandoval Pgina 3
Nmeros complejos

Definicin y origen de los nmeros complejos.

La primera referencia conocida a races cuadradas de nmeros negativos proviene


del trabajo de los matemticos griegos, como Hern de Alejandra en el siglo I
antes de Cristo, como resultado de una imposible seccin de una pirmide. Los
complejos se hicieron ms patentes en el Siglo XVI, cuando la bsqueda de
frmulas que dieran las races exactas de los polinomios de grados 2 y 3 fueron
encontradas por matemticos italianos como Tartaglia, Cardan.

Aunque slo estaban interesados en las races reales de este tipo de ecuaciones,
se encontraban con la necesidad de lidiar con races de nmeros negativos. El
trmino imaginario para estas cantidades fue acuado por Descartes en el Siglo
XVII y est en desuso. La existencia de nmeros complejos no fue completamente
aceptada hasta la ms abajo mencionada interpretacin geomtrica que fue
descrita por Wessel en 1799, redescubierta algunos aos despus y popularizada
por Gauss. La implementacin ms formal, con pares de nmeros reales fue dada
en el Siglo XIX.

Los nmeros complejos z se pueden definir como pares ordenados

z=(x,y)

de nmeros reales x e y, con las operaciones de suma y producto que


especificaremos ms adelante. Se suelen identificar los pares (x, 0) con los
nmeros reales x.

Operaciones fundamentales con nmeros complejos.

=Adiccin =
Dados los complejos Z1 = (a;b) y Z2 = (c ;d). Se define Z1 + Z2 = (a; b) + (c; d) =
(a +c; b+ d)

=Sustraccin=
Se obtiene sumando al minuendo el opuesto del sustraendo : Z1 + (-22) = (a; b) +
(-c ; d) = (a c ; b-d)

=Multiplicacin=
Dados los complejos Z1 = (a ; b) y Z2 = (c ; d), se define Z1 * Z2 = (a*c-b*d; a*d +
b*c)
Sandoval Pgina 4
=Potenciacin=
La potenciacion de un numero complejo con potencia natural, se resuelve como
una multiplicacion reiterada: Zn = (a ; b)n = (a ;b)1.(a ; b)2(a ; b)n asociado de
a dos pares los pares ordenados.

=Forma Binomica=
La forma Binomica de un numero complejo es: Z = a + bi

Operaciones de nmeros complejos en su forma Binomica: La suma y


diferencia de numeros complejos se realiza sumando y restando partes reales
entre si y partes imaginarias entre si.

+(a +bi) + (c + di) = (a+c) + (b+d) i

-(a +bi) - (c + di) = (a-c) + (b-d) i

=Multiplicacin con nmeros complejos=


El producto de los nmeros complejos se realiza aplicando la
propiedad distributiva del producto respecto de la suma y teniendo en cuenta que
i2 = -1 (a + bi) (c + di) = (ac-bd) + (ad + bc) i

=Divisin con nmeros complejos=


El cociente de nmeros complejos se hace racionalizando el denominador; esto
es, multiplicando numerador y denominador por el conjugado de este.

=Ejemplo=
(3 + 2i) + 8-7-i) = (3-7) + (2i i) = -4 + i

= (5 + 3i) + {(-1 + 2i) + (7-5i)}

=(5 + 3i) + {(-1 + 7) + (2i 5i)}

= (5 + 3i) + (6 3i)

= (5 + 6) + (3i 3i)

= 11

Sandoval Pgina 5
Potencias de i, mdulo o valor absoluto de un nmero complejo.

El valor absoluto, mdulo o magnitud de un nmero complejo z viene dado por la


siguiente expresin:

Si pensamos en z como algn punto en el plano; podemos ver, por el teorema de


Pitgoras, que el valor absoluto de un nmero complejo coincide con la distancia
eucldea desde el origen del plano.

Si el complejo est escrito en forma exponencial z = r ei, entonces |z| = r. Se


puede expresar en forma polar como z = r (cos + isen), donde cos + isen
= ei es la conocida frmula de Euler.

Podemos comprobar con facilidad estas cuatro importantes propiedades del valor
absoluto

para cualquier complejo z y w.

Por definicin, la funcin distancia queda como sigue d(z, w) = |z - w| y nos provee
de un espacio mtrico con los complejos gracias al que se puede hablar de lmites
y continuidad. La suma, la resta, la multiplicacin y la divisin de complejos son
operaciones continuas. Si no se dice lo contrario, se asume que sta es la mtrica
usada en los nmeros complejos.

Forma polar y exponencial de un nmero complejo.

En la seccin anterior no dimos una interpretacin geomtrica para el producto de


nmeros complejos, ni tampoco para la divisin.

En el caso del producto recordemos la frmula utilizada para calcular la


multiplicacin:

El lado derecho de esta expresin, resulta difcil de interpretar usando el sistema


de coordenadas cartesianas. Para solventar este problema, requerimos de otro
sistema de coordenadas. Veremos como la trigonometra nos sirve de herramienta
para resolver este problema. Podemos asignarle a cada nmero complejo Z = a +
bi en el plano, un radio vector, que conecta al punto Z con el origen. Este radio
vector forma un ngulo con el eje real o de las X, que ser denotado por .
Sandoval Pgina 6
Nota: El ngulo se mide a partir del eje real y en sentido contrario a las agujas
del reloj. Se puede expresar en unidades de grados o radianes.

De acuerdo a la disposicin de los ejes y el radio vector, se ha formado un


tringulo rectngulo, con catetos a y b, e hipotenusa dada por el radio vector.
Usando el Teorema de Pitgoras, se demuestra que la longitud de este radio
vector es:

igual al mdulo del complejo Z. Esto es:

Sandoval Pgina 7
Usando conocimientos de trigonometra en el triangulo anterior, se demuestran las
relaciones

Estas frmulas reciben el nombre de Frmulas de cambio de coordenadas polares


a cartesianas.

Est claro que si conocemos el argumento principal de Z y su mdulo, entonces lo


podemos representar geomtricamente sin ambigedad y adems podremos
obtener sus coordenadas cartesianas

Se tiene entonces la representacin de Z en Forma Polar:

Si se conocen las coordenadas cartesianas de Z = a + bi, entonces |Z| y se


calculan de acuerdo a las formulas:

Sandoval Pgina 8
llamadas frmulas de cambio de coordenadas cartesianas a polares.

Ejemplo. Nmero complejo en el primer cuadrante.


Hallar la Forma Polar del complejo Z = 2 + 2i, y representarlo geomtricamente en
el plano.

Solucin. En primer lugar, debemos calcular el mdulo y el ngulo del complejo,


mediante las frmulas correspondientes, tal como se muestra a continuacin:

Luego calculamos el ngulo:

La representacin polar de Z es

MULTIPLICACIN Y DIVISIN EN LA FORMA POLAR

Sean Z =|Z|(cos+ i sen ) y W = |W|(cos + isen )

Podemos realizar la multiplicacin de estos nmeros complejos en forma polar,


utilizando la formula siugiente:

Sandoval Pgina 9
Despus de usar un par de identidades trigonomtricas muy conocidas,
obtenemos la frmula general para la multiplicacin de nmeros complejod en
forma polar:

Tambin se puede obtener una formula similar para la divisin en forma polar.
Dicha formula viene dada por:

OBSERVACIN

Sandoval Pgina 10
Teorema de De Moivre, potencias y extraccin de races de un nmero
complejo.

La formula Z . W = |z| . |W| (cos ( + ) + i sen ( + )) puede ser utilizada para


hallar la potencia ensima de un numero complejo.

Supongamos que Z = |Z| ( cos + isen ), y n es un entero positivo, entonces se


obtiene:

Esta relacin, que se conoce con el nombre de Formula de Moivre, y proporciona


un algoritmo bastante eficiente para hallar la potencia ensima de cualquier
numero complejo en forma polar.

Ejemplo. Sea Z = 2 (cos30 + i sen30).


Calcule la potencia de orden cinco de este numero, es decir, Z 5.

Sandoval Pgina 11
EXTRACCIN DE LAS RAICES DE UN NMERO COMPLEJO.

Si Z es un nmero complejo tal que para algn entero positivo se tenga:

donde W es otro nmero complejo, entonces se dice que W es una raz ensima
de
Z. Esto lo denotamos por:

Sandoval Pgina 12
En los nmeros reales, todo nmero posee una raz de orden impar y dos races
de orden par. En los complejos hay una mayor abundancia de races .
Concretamente, se tiene la siguiente propiedad:

Todo nmero complejo tiene exactamente n reices n - esimas. As por ejemplo 1


tiene 4 races cuartas, pues:

Luego 1, -1, i, y -i son las reices cuartas de 1.

A continuacin damos una frmula para hallar las races de un nmero complejo.
Sea Z = |Z| (cos + i sen ).

Sandoval Pgina 13
Si representamos grficamente estas tres races, veremos que se hallan sobre
una circunferencia con centro en el origen y radio 2 . Adems todas ellas estn a
la misma distancia de las otras: formando los vrtices de un tringulo equilatero,
tal como puede verse ne la figura siguiente:

Ejemplo. Hallar todas las races sextas de la unidad.

Solucin. Tomamos la representacin en forma polar de 1, la cual viene dada por:


1 = 1 (cos0 + i sen 0), luego hallamos las races sextas mediante la frmula dada
para la obtencin de las races de un nmero complejo:

con k = 0,1,2,3,4, y 5.

Estos valores de k nos dan las seis races:

W1 = 1(cos 0 + i sen 0) k = 0
W2 = 1(cos 60 + i sen 60) k = 1
W3 = 1(cos120 + i sen120) k = 2
W4 = 1(cos180 + i sen180) k = 3
W5 = 1(cos240 + i sen240) k = 4
W6 = 1(cos300 + i sen300) k = 5

Sandoval Pgina 14
Si las graficamos en el plano complejo, vemos que ellas ocupan los vrtices de un
hexgono regular inscrito en una circunferencia de radio 1.

EJERCICIOS PROPUESTOS

Sandoval Pgina 15
2- Matrices y determinantes.

Definicin de matriz, notacin y orden.

Sandoval Pgina 16
DEFINICION: Se llama MATRIZ a todo cuadro de nmeros distribuidos en filas y
columnas. Las matrices aparecen por primera vez hacia el ao 1850, introducidas
por J.J. Sylvester. El desarrollo inicial de la teora se debe al matemtico W.R.
Hamilton en 1853. En 1858, A. Cayley introduce la notacin matricial como una
forma abreviada de escribir un sistema de m ecuaciones lineales con n incgnitas.

Los trminos horizontales son las filas de la matriz y los verticales son sus
columnas. Una matriz con m filas y n columnas se denomina matriz m por n, o
matriz m n.

Las matrices se denotarn usualmente por letras maysculas, A, B, ..., y los


elementos de las mismas por minsculas, a, b, ...

Ejemplo:

donde sus filas son (1, -3, 4) y (0, 5, -2) y sus

CLASES DE MATRICES

Segn el aspecto de las matrices, stas pueden clasificarse en:

=Matrices cuadradas =
Una matriz cuadrada es la que tiene el mismo nmero de filas que de columnas.
Se dice que una matriz cuadrada n n es de orden n y se denomina matriz n-
cuadrada. Ejemplo: Sean las matrices

Entonces, A y B son matrices cuadradas de orden 3 y 2 respectivamente.

=Matriz identidad=
Sea A = (ai j ) una matriz n-cuadrada. La diagonal (o diagonal principal) de A
consiste en loselementos a11, a22, ..., ann. La traza de A, escrito trA, es la suma
de los elementos diagonales.

La matriz n-cuadrada con unos en la diagonal principal y ceros en cualquier otra


posicin, denotada por I, se conoce como matriz identidad (o unidad). Para
cualquier matriz A,
A I = I A = A.

=Matrices triangulares=

Sandoval Pgina 17
Una matriz cuadrada A = (ai j ) es una matriz triangular superior o simplemente
una matriz triangular, si todas las entradas bajo la diagonal principal son iguales a
cero. As pues, las matrices

son matrices triangulares superiores de rdenes 2, 3 y 4.

=Matrices diagonales=
Una matriz cuadrada es diagonal, si todas sus entradas no diagonales son cero o
nulas. Se denota por D = diag (d11, d22, ..., dnn ). Por ejemplo,

son matrices diagonales que pueden representarse, respectivamente, por diag(3,-


1,7) diag(4,-3) y diag(2,6,0,-1).

=Traspuesta de una matriz=


La traspuesta de una matriz A consiste en intercambiar las filas por las columnas y
se denota por AT. As, la traspuesta de

En otras palabras, si A = (ai j ) es una matriz m n, entonces AT = (aTij) es la


matriz n m. La trasposicin de una matriz cumple las siguientes propiedades:

1. (A + B)T = AT + BT.

2. (AT)T = A.

3. (kA)T = kAT (si k es un escalar).

4. (AB)T = BTAT.

=Matrices simtricas=

Sandoval Pgina 18
Se dice que una matriz real es simtrica, si AT = A; y que es antisimtrica, si AT =
-A.
Ejemplo: Consideremos las siguientes matrices:

Podemos observar que los elementos simtricos de A son iguales, o que AT = A.


Siendo as, A es simtrica. Para B los elementos simtricos son opuestos entre s,
de este modo B es antisimtrica. A simple vista, C no es cuadrada; en
consecuencia, no es ni simtrica ni antisimtrica.

=Matrices ortogonales=
Se dice que una matriz real A es ortogonal, si AAT = AT A = I. Se observa que una
matriz ortogonal A es necesariamente cuadrada e invertible, con inversa A-1 = AT.
Consideremos una matriz 3x3 arbitraria:

Si A es ortogonal, entonces:

=Matrices normales=
Una matriz es normal si conmuta con su traspuesta, esto es, si AAT = ATA.
Obviamente, si A es simtrica, antisimtrica u ortogonal, es necesariamente
normal.
Ejemplo:

=Matriz numrica=
Conjunto de nmeros colocados en filas y en columnas.

Sandoval Pgina 19
=Matriz de orden (m,n)=
Conjunto de nmeros reales, dispuestos en filas m, i en columnas n. Cada uno de
los nmeros que consta la matriz es un elemento, que se distingue entre los otros,
por su posicin.

=Subndices=
Cada elemento tiene unos subndices que sirven para indicar su posicin dentro
de la matriz. El primer indica la fila, y el segunda indica la columna.

=Orden de la matriz=
El nmero de filas y columnas de una matriz determina el orden de la matriz. El
orden de la matriz est determinado por un par de nmeros naturales; m y n.

Las filas son los nmeros dispuestos en m horizontales. En el ejemplo, la primera


fila estara formada por los nmeros [ 1 2 3 ].
Las columnas son los nmeros dispuestos en n verticales. En el ejemplo, la
primera columna estara formada por los nmeros [ 1 1 4 6 ].

Una matriz de orden (m,n) es el conjunto de nmeros dispuestos en m filas y n


columnas.
Siguiendo el mismo ejemplo, vemos que es una matriz 4x3. Se clasifica as porque
la matriz contiene 4 filas y 3 columnas.

Si queremos sealar un elemento de la matriz, estos se distinguen por su posicin,


la cual queda definida por su fila y su columna.
Por ejemplo, si queremos dar la posicin del nmero 7 (figura 1.1), sera de la
siguiente forma: am,n es a2,3; m indica la fila en la cual se encuentra el nmero.
Pasa exactamente lo mismo n, que indica la columna en la que se encuentra.

Operaciones con matrices.

Dadas dos matrices de la misma dimensin, A=(aij) y B=(bij), se define la matriz


suma como: A+B=(aij+bij).

La matriz suma se obtienen sumando los elementos de las dos matrices que
ocupan la misma misma posicin.

Sandoval Pgina 20
Propiedades de la suma de matrices

Interna:

La suma de dos matrices de orden m x n es otra matriz dimensin m x n.

Asociativa:

A + (B + C) = (A + B) + C

Elemento neutro:

A+0=A

Donde O es la matriz nula de la misma dimensin que la matriz A.

Elemento opuesto:

A + (A) = O

La matriz opuesta es aquella en que todos los elementos estn cambiados de


signo.

Conmutativa:

A+B=B+A

Producto de un escalar por una matriz

Sandoval Pgina 21
Dada una matriz A=(aij) y un nmero real k R, se define el producto de un nmero
real por una matriz: a la matriz del mismo orden que A, en la que cada elemento
est multiplicado por k.

kA=(k aij)

Propiedades

a (b A) = (a b) A A Mmxn, a, b

a (A + B) = a A + a BA,B Mmxn , a

(a + b) A = a A + b A A Mmxn , a, b

1 A = A A Mmxn

Producto de matrices

Dos matrices A y B son multiplicables si el nmero de columnas de A coincide


con el nmero de filas de B.

Mm x n x M n x p = M m x p

El elemento cij de la matriz producto se obtiene multiplicando cada elemento de


la fila i de la matriz A por cada elemento de la columna j de la matriz B y
sumndolos.

Sandoval Pgina 22
Propiedades del producto de matrices

Asociativa:

A (B C) = (A B) C

Elemento neutro:

AI=A

Donde I es la matriz identidad del mismo orden que la matriz A.

No es Conmutativa:

ABBA

Distributiva del producto respecto de la suma:

A (B + C) = A B + A C

Sandoval Pgina 23
Clasificacin de las matrices.

=Triangular superior=
En una matriz triangular superior los elementos situados por debajo de la diagonal
principal son ceros.

=Triangular inferior=
En una matriz triangular inferior los elementos situados por encima de la diagonal
principal son ceros.

=Diagonal=
En una matriz diagonal todos los elementos situados por encima y por debajo de
la diagonal principal son nulos.

=Escalar=
Una matriz escalar es una matriz diagonal en la que los elementos de la diagonal
principal son iguales.

=Identidad=
Una matriz identidad es una matriz diagonal en la que los elementos de la
diagonal principal son iguales a 1.

=Potencia=
Se llama potencia k-sima de una matriz cuadrada A, donde k OE , un entero
positivo, al producto de A por s misma, repetido k veces.

Ak =AAA......k veces ...... A

Se conviene en que:

A- k = (A- 1) k " k OE

A0 = I

Sandoval Pgina 24
=Traspuesta=
Dada una matriz A, se llama matriz traspuesta de A a la matriz que se obtiene
cambiando ordenadamente las filas por las columnas

(At)t = A
(A + B)t = At + Bt
( A)t = At
(A B)t = Bt At

=Simtrica=
Una matriz simtrica es una matriz cuadrada que verifica: A = At.

=Antisimetrica=
Una matriz antisimtrica o hemisimtrica es una matriz cuadrada que verifica: A =
-At.

=Compleja=
Sus elementos son nmeros complejos aij e

=Conjugada=
Matriz conjugada de una matriz A Aquella que se obtiene sustituyendo cada
elemento por su complejo conjugado (igual parte real, pero la parte imaginaria
cambiada de signo).

=Hermitiana o hermitica=
Una matriz hermitiana (o hermtica) es una matriz cuadrada de
elementos complejos que tiene la caracterstica de ser igual a su propia
traspuesta conjugada. Es decir, el elemento en la i-sima fila y j-sima columna es
igual al conjugado del elemento en la j-sima fila e i-sima columna, para todos los
ndices i y j:

o, escrita con la traspuesta conjugada A*: Por ejemplo,

es una matriz hermtica.

=Antihermitiana=
una Matriz antihermitiana es una matriz cuadrada cuya traspuesta conjugada es
menos la matriz. Esto es si satisface a la relacin:

A * = -A

Sandoval Pgina 25
o en su forma componente, si (A = ai,j):

Transformaciones elementales por rengln.


Escalonamiento de una matriz. Rango de una matriz.

La idea que se persigue con las transformaciones elementales es convertir una


matriz concreta en otra matriz ms fcil de estudiar. En concreto, siempre ser
posible conseguir una matriz escalonada, en el sentido que definimos a
continuacin.

Sea A una matriz y F una fila de A. Diremos que F es nula si todos los numeros de
F coinciden con el cero. Si F es no nula, llamamos PIVOTE de F al primer numero
distinto de cero de F contando de izquierda a derecha.

Una MATRIZ ESCALONADA es aquella que verifica las siguientes propiedades:

1. Todas las filas nulas (caso de existir) se encuentran en la parte inferior de la


matriz.

2. El pivote de cada fila no nula se encuentra estrictamente mas a la derecha


que el pivote de la fila de encima.

Por ejemplo, entre las matrices:

A no es escalonada, mientras que B y C si lo son.

Dada una matriz escalonada E se define el RANGO de E, que representamos por


rg (E), como el numero de filas no nulas de E.

En los ejemplos B y C de arriba se tiene rg (B) = rg(C) = 2, sin embargo no


podemos decir que rg(A) = 3 ya que A no est escalonada. Otro ejemplo, las
matrices nulas tienen rango cero y la matriz identidad de orden n cumple rg (In) =
n.

La siguiente cuestin que abordaremos es la definicin de rango para una matriz


cualquiera que no est escalonada. La idea ser la de transformar la matriz dada
en otra que sea escalonada mediante las llamadas transformaciones elementales
por filas que describimos a continuacin.

Dada una matriz A cualquiera, las TRANSFORMACIONES ELEMENTALES por


filas de A son tres:

Sandoval Pgina 26
1. Intercambiar la posicin de dos filas.

2. Multiplicar una fila por un nmero real distinto de cero.

3. Sustituir una fila por el resultado de sumarle a dicha fila otra fila que ha sido
previamente multiplicada por un nmero cualquiera.

Nota: Anlogamente podramos hacerlo todo por columnas; sin embargo, son las
transformaciones por filas las que son importantes en los sistemas de ecuaciones
lineales que estudiaremos despus.

El siguiente resultado nos garantiza que siempre podemos transformar una matriz
cualquiera en otra escalonada.

=Teorema=
A partir de cualquier matriz A se puede llegar, mediante una cantidad finita de
transformaciones elementales, a una matriz escalonada E.

Veamos en un ejemplo cmo se hace. Obsrvese que, primero, hacemos que la


componente (1,1) de la matriz de partida sea igual a uno. Luego, se hace que el
resto de componentes de la primera columna sean cero. Despus se pasa a la
componente (2,2), y as sucesivamente.

El teorema anterior nos permite hacer una definicin importante:

Dada una matriz A cualquiera se define el RANGO de A y lo denotamos rg(A)


como el rango de cualquier matriz escalonada E equivalente con A (se demuestra
que este nmero no depende de la matriz escalonada E a la que se llegue). El
rango siempre es un nmero menor o igual que el nmero de filas y el nmero de
columnas de A. Adems, el rango es cero si y slo si A = 0. En nuestro ejemplo de
antes, el rango es 3.

Sandoval Pgina 27
Clculo de la inversa de una matriz.

El producto de una matriz por su inversa es igual al matriz identidad.

A A-1 = A-1 A = I

Se puede calcular la matriz inversa por dos mtodos:

1 Clculo por determinantes

Ejemplo

1. Calculamos el determinante de la matriz, en el caso que el determinante


sea nulo la matriz no tendr inversa.

2. Hallamos la matriz adjunta, que es aquella en la que cada elemento se


sustituye por su adjunto.

Sandoval Pgina 28
3. Calculamos la traspuesta de la matriz adjunta.

4. La matriz inversa es igual al inverso del valor de su determinante por la


matriz traspuesta de la adjunta.

2. Clculo de la matriz inversa por el mtodo de Gauss

Sea A una matriz cuadrada de orden n. Para calcular la matriz inversa de A, que
denotaremos como A-1, seguiremos los siguientes pasos:

1 Construir una matriz del tipo M = (A | I), es decir, A est en la mitad izquierda de
M y la matriz identidad I en la derecha.

Consideremos una matriz 3x3 arbitraria

La ampliamos con la matriz identidad de orden 3.

Sandoval Pgina 29
2 Utilizando el mtodo Gauss vamos a transformar la mitad izquierda, A, en
la matriz identidad, que ahora est a la derecha, y la matriz que resulte en el
lado derecho ser la matriz inversa: A-1.

F2 - F1

F3 + F2

F2 - F3

F1 + F2

(-1) F2

La matriz inversa es:

Sandoval Pgina 30
Propiedades de la matriz inversa
(A B)-1 = B-1 A-1

(A-1)-1 = A

(k A)-1 = k-1 A-1

(A t)-1 = (A -1)t

Definicin de determinante de una matriz.

El determinante de una matriz cuadrada es un nmero real cuya definicin exacta


es bastante complicada. Por ello, definiremos primero el determinante de matrices
pequeas, y estudiaremos mtodos y tcnicas para calcular determinantes en
general. Solamente se puede calcular el determinante a matrices cuadradas.

En cuanto a la notacin, a veces el determinante se escribe con la palabra det, y


otras veces se indica sustituyendo los parntesis de la matriz por barras verticales.

El determinante de una matriz determina si los sistemas son singulares o mal


condicionados. En otras palabras, sirve para determinar la existencia y la unicidad
de los resultados de los sistemas de ecuaciones lineales.

El determinante de una matriz es un nmero.


Un determinante con valor de cero indica que se tiene un sistema singular.
Un determinante con valor cercano a cero indica que se tiene un sistema mal
condicionado.

Un sistema singular es cuando en el sistema de ecuaciones se tiene a ms de una


ecuacin con el mismo valor de la pendiente. Por ejemplo ecuaciones que
representan lneas paralelas o ecuaciones que coinciden en los mismos puntos de
graficacin.

En un sistema mal condicionado es difcil identificar el punto exacto en que las


lneas de las ecuaciones se interceptan.

Sandoval Pgina 31
Inversa de una matriz cuadrada a travs de la adjunta.

Definicin: Una matriz cuadrada se llama matriz identidad si todos los


componentes de su diagonal principal son iguales a uno y todos los dems
componentes que no estn en la diagonal principal son iguales a cero. La matriz
identidad se representa con la letra I (la letra i mayscula).

Definicin: Sea A una matriz cuadrada n x n. Entonces una matriz B es


la inversa de A si satisface A B = I y B A = I, donde I es la matriz identidad de
orden n x n.

Ejemplo para discusin:

1. La inversa de A se representa por A-1. As que A A-1 = A-1 A = I.


2. No toda matriz cuadrada tiene una inversa.
3. Si A tiene inversa, entonces decimos que A es invertible.

Teoremas:

1. Sea A una matriz cuadrada n x n, entonces AI = IA = A.

Sandoval Pgina 32
2. Si A es una matriz invertible, entonces A-1 es invertible y (A-1)-1 = A.
3. Si una matriz cuadrada A es invertible, entonces la inversa es nica.
4. Sean A y B matrices de orden n x n invertibles. entonces AB es invertible y
(AB)-1 = B-1A-1.

Para hallar la inversa de una matriz cuadrada comenzamos con la matriz A/I,
donde I representa la matriz identidad del mismo orden que la matriz
A. Efectuamos operaciones elementales con las filas de A/I hasta que la matriz A
se transforme en la matriz identidad I. Luego la matriz que contiene los
componentes a la derecha de la lnea vertical es la inversa de A, esto es, A-1.

Aplicacin de matrices y determinantes.

Las matrices se utilizan en el contexto de las ciencias como elementos que sirven
para clasicar valores numricos atendiendo a dos criterios o variables.

Ejemplo: Un importador de globos los importa de dos colores, naranja (N) y fresa
(F). Todos ellos se envasan en paquetes de 2, 5 y 10 unidades, que se venden al
precio (en euros) indicado por la tabla siguiente:

Sabiendo que en un ao se venden el siguiente nmero de paquetes:

Resumir la informacion anterior en 2 matrices A y B, de tamao respectivo 2x3 y


3x2 que recojan las ventas en un ao (A) y los precios (B).

Nos piden que organicemos la informacin anterior en dos matrices de tamao


concreto. Si nos jamos en las tablas, es sencillo obtener las matrices:

Estas matrices se denominan matrices de informacin, y simplemente recogen los


datos numricos del problema en cuestin.

Sandoval Pgina 33
Otras matrices son las llamadas matrices de relacin, que indican si ciertos
elementos estn o no relacionados entre s. En general, la existencia de relacin
se expresa con un 1 en la matriz y la ausencia de dicha relacion de expresa con
un 0.

Estas matrices se utilizan cuando queremos trasladar la informacin dada por un


grafo y expresarla numricamente.

En Matemticas, un grafo es una coleccin cualquiera de puntos conectados por


lineas. Existen muchos tipos de grafos. Entre ellos, podemos destacar:

Grafo simple: Es el grafo que no contiene ciclos, es decir, lineas que unan
un punto consigo mismo, ni lineas paralelas, es decir, lineas que conectan
el mismo par de puntos.

Grafo dirigido: Es el grafo que indica un sentido de recorrido de cada linea,


mediante una echa.

Estos tipos de grafo pueden verse en la gura:

Relacionadas con los grafos se pueden denir algunas matrices. Entre todas ellas,
nosotros nos jaremos en la llamada matriz de adyacencia, que es aquella
formada por ceros y unos exclusivamente, de tal forma que:

un 1 en el lugar (i,j) expresa la posibilidad de ir desde el punto de la la i


hasta el punto de la columna j mediante una linea que los una directamente.

un 0 en el lugar (i,j) expresa la imposibilidad de ir del primer punto al


segundo mediante una linea que los una directamente.

La matriz de adyacencia del grafo dirigido de la gura anterior ser:

Sandoval Pgina 34
3-Sistema de ecuaciones lineales

Definicin de sistemas de ecuaciones lineales

En matemticas y lgebra lineal, un sistema de ecuaciones lineales, tambin


conocido como sistema lineal de ecuaciones o simplemente sistema lineal, es un
conjunto de ecuaciones lineales (es decir, un sistema de ecuaciones en donde
cada ecuacin es de primer grado), definidas sobre un cuerpo o un anillo
conmutativo. Un ejemplo de sistema lineal de ecuaciones sera el siguiente:

El problema consiste en encontrar los valores desconocidos de las variables x1, x2


y x3 que satisfacen las tres ecuaciones.

El problema de los sistemas lineales de ecuaciones es uno de los ms antiguos de


la matemtica y tiene una infinidad de aplicaciones, como en procesamiento digital
de seales, anlisis estructural, estimacin, prediccin y ms generalmente en
programacin lineal as como en la aproximacin de problemas no lineales de
anlisis numrico.

En general, un sistema con m ecuaciones lineales y n incgnitas puede ser escrito


en forma normal como:

Donde son las incgnitas y los nmeros son los coeficientes


del sistema sobre el cuerpo . Es posible reescribir el sistema
separando con coeficientes con notacin matricial:

Sandoval Pgina 35
Si representamos cada matriz con una nica letra obtenemos:

Donde A es una matriz m por n, x es un vector columna de longitud n y b es otro


vector columna de longitud m. El sistema de eliminacin de Gauss-Jordan se
aplica a este tipo de sistemas, sea cual sea el cuerpo del que provengan los
coeficientes.

Clasificacin de los sistemas de ecuaciones lineales y tipos de solucin

= Clasificacin =

Podemos clasificar los sistemas de ecuaciones lineales segn su nmero de


soluciones de la siguiente forma:

Sistemas con una solucin: Las ecuaciones del sistema son rectas
secantes. Se cortan en un punto (x, y) que es la solucin del sistema

Sistemas sin solucin: Las ecuaciones del sistema son rectas paralelas. No
tienen ningn punto en comn, y por tanto no hay solucin

Sistemas con infinitas soluciones: Las ecuaciones del sistema son rectas
coincidentes. Tienen todos los puntos en comn, y por tanto todos ellos son
solucin

Condiciones que deben cumplir las ecuaciones para que el sistema tenga una,
ninguna o infinitas soluciones:

Una solucin: Los coeficientes de x e y de las dos ecuaciones no son


proporcionales.

Ejemplo:

Ninguna solucin: Los coeficientes de x e y de una ecuacin son


proporcionales a los de la otra, mientras que los trminos independientes
no lo son.

Sandoval Pgina 36
Ejemplo:

Infinitas soluciones: Los coeficientes de x e y, y el trmino independiente de


una ecuacin, son proporcionales a los de la otra.

Ejemplo:

=Tipos de Solucin=
=Sustitucin=
El mtodo de sustitucin consiste en despejar en una de las ecuaciones cualquier
incgnita, preferiblemente la que tenga menor coeficiente, para, a continuacin,
sustituirla en otra ecuacin por su valor.

En caso de sistemas con ms de dos incgnitas, la seleccionada debe ser


sustituida por su valor equivalente en todas las ecuaciones excepto en la que la
hemos despejado. En ese instante, tendremos un sistema con una ecuacin y una
incgnita menos que el inicial, en el que podemos seguir aplicando este mtodo
reiteradamente. Por ejemplo, supongamos que queremos resolver por sustitucin
este sistema:

En la primera ecuacin, seleccionamos la incgnita y por ser la de menor


coeficiente y que posiblemente nos facilite ms las operaciones, y la despejamos,
obteniendo la siguiente ecuacin.

El siguiente paso ser sustituir cada ocurrencia de la incgnita y en la otra


ecuacin, para as obtener una ecuacin donde la nica incgnita sea la x.

Al resolver la ecuacin obtenemos el resultado x=5, y si ahora sustituimos esta


incgnita por su valor en alguna de las ecuaciones originales obtendremos y=7,
con lo que el sistema queda ya resuelto.

=Igualacin=
El mtodo de igualacin se puede entender como un caso particular del mtodo de
sustitucin en el que se despeja la misma incgnita en dos ecuaciones y a
continuacin se igualan entre s la parte derecha de ambas ecuaciones.

Tomando el mismo sistema utilizado como ejemplo para el mtodo de sustitucin,


si despejamos la incgnita en ambas ecuaciones nos queda de la siguiente
manera:

Sandoval Pgina 37
Como se puede observar, ambas ecuaciones comparten la misma parte izquierda,
por lo que podemos afirmar que las partes derechas tambin son iguales entre s.

Una vez obtenido el valor de la incgnita x, se substituye su valor en una de las


ecuaciones originales, y se obtiene el valor de la y.

La forma ms fcil de tener el mtodo de sustitucin es realizando un cambio para


despejar x despus de averiguar el valor de la y.

=Reduccin=
Este mtodo suele emplearse mayoritariamente en los sistemas lineales, siendo
pocos los casos en que se utiliza para resolver sistemas no lineales. El
procedimiento, diseado para sistemas con dos ecuaciones e incgnitas, consiste
en transformar una de las ecuaciones (generalmente, mediante productos), de
manera que obtengamos dos ecuaciones en la que una misma incgnita aparezca
con el mismo coeficiente y distinto signo. A continuacin, se suman ambas
ecuaciones producindose as la reduccin o cancelacin de dicha incgnita,
obteniendo as una ecuacin con una sola incgnita, donde el mtodo de
resolucin es simple. Por ejemplo, en el sistema:

no tenemos ms que multiplicar la primera ecuacin por -2 para poder cancelar la


incgnita y. Al multiplicar, dicha ecuacin nos queda as:

Si sumamos esta ecuacin a la segunda del sistema original, obtenemos una


nueva ecuacin donde la incgnita y ha sido reducida y que, en este caso, nos da
directamente el valor de la incgnita x:

El siguiente paso consiste nicamente en sustituir el valor de la incgnita x en


cualquiera de las ecuaciones donde aparecan ambas incgnitas, y obtener as
que el valor de y es igual a:

Sandoval Pgina 38
=Mtodo Grfico=
Consiste en construir la grfica de cada una de las ecuaciones del sistema. El
mtodo (manualmente aplicado) solo resulta eficiente en el plano cartesiano, es
decir para un espacio de dimensin 2.

El proceso de resolucin de un sistema de ecuaciones mediante el mtodo grfico


se resuelve en los siguientes pasos:

Se despeja la incgnita (y) en ambas ecuaciones.

Se construye para cada una de las dos ecuaciones de primer grado


obteniendo la tabla de valores correspondientes.

Se representan grficamente ambas rectas en los ejes coordenados.

En este ltimo paso hay tres posibilidades:

Si ambas rectas se cortan, las coordenadas del punto de corte son los
nicos valores de las incgnitas (x,y). "Sistema compatible determinado".

Si ambas rectas son coincidentes, el sistema tiene infinitas soluciones que


son las respectivas coordenadas de todos los puntos de esa recta en la que
coinciden ambas. Sistema compatible indeterminado.

Si ambas rectas son paralelas, el sistema no tiene solucin.

=Mtodo de Gauss=
La eliminacin de Gauss-Jordan, ms conocida como mtodo de Gauss, es un
mtodo aplicable nicamente a los sistemas lineales de ecuaciones, y consistente
en triangular la matriz aumentada del sistema mediante transformaciones
elementales, hasta obtener ecuaciones de una sola incgnita, cuyo valor ser
igual al coeficiente situado en la misma fila de la matriz. Este procedimiento es
similar al anterior de reduccin, pero ejecutado de manera reiterada y siguiendo un
cierto orden algortmico.

El Mtodo de Gauss consiste en convertir un sistema normal de 3 ecuaciones con


3 incognitas en uno escalonado, en la que la primera ecuacin tiene 3 incgnitas,
la segunda ecuacin tiene 2 incgnitas, y la tercera ecuacin tiene 1 incgnita. De
esta forma ser fcil a partir de la ltima ecuacin y subiendo, calcular el valor de
las tres incgnitas.

En primer lugar, reducimos la incgnita x, sumando a la segunda fila, la primera


multiplicada por 2/3, y a la tercera, la primera fila. La matriz queda as:

Sandoval Pgina 39
El siguiente paso consiste en eliminar la incgnita y en la primera y tercera fila,
para lo cual les sumamos la segunda multiplicada por -2 y por -4, respectivamente.

Por ltimo, eliminamos la z, tanto de la primera como de la segunda fila,


sumndoles la tercera multiplicada por -2 y por 1/2, respectivamente:

Llegados a este punto podemos resolver directamente las ecuaciones que se nos
plantean:

O, si lo preferimos, podemos multiplicar las tres filas de la matriz por: 1/2, 2 y


-1 respectivamente, y obtener as automticamente los valores de las incgnitas
en la ltima columna.

Pongamos un ejemplo del clculo de un sistema de ecuaciones por el mtodo de


Gauss:Se renen 30 personas entre hombres, mujeres y nios. Se sabe que entre
los hombres y el triple de mujeres exceden en 20 el doble de los nios. Tambin
se sabe que entre hombres y mujeres se duplican al nmero de nios. Plantear y
resolver el sistema de ecuaciones.x=numero de hombres; y=numero de mujeres; y
z=numero de nios. Se renen 30 personas entre hombres, mujeres y nios:
x+y+z=30. Se sabe que entre los hombres y el triple de mujeres exceden en 20 el
doble de los nios: x+3y=2z+20. Tambin se sabe que entre hombres y mujeres
se duplican al nmero de nios: x+y=2z.

Agrupando las tres ecuaciones tenemos el sistema, que ordenado resulta:

Sandoval Pgina 40
Aplicamos Gauss, restando la primera ecuacin a las dos siguientes:

En este caso en la tercera ecuacin se ha eliminado la y, por lo que no es


necesario hacer ms operaciones. Por lo tanto obtenemos que z = 10 de la tercera
ecuacin:

Sustituyendo z en la segunda ecuacin obtenemos que y = 10:

Sustituyendo z y en la primera ecuacin obtenemos x = 10.

Con lo que hemos obtenido el resultado del sistema:

=Mtodo de Cramer=
La regla de Cramer da una solucin para sistemas compatibles determinados en
trminos de determinantes y adjuntos dada por:

Donde Aj es la matriz resultante de remplazar la j-sima columna de A por el


vector columna b. Para un sistema de dos ecuaciones y dos incgnitas:

La regla de Cramer da la siguiente solucin:

Sandoval Pgina 41
Nota: Cuando en la determinante original det(A) el resultado es 0, el sistema indica
mltiples o sin coincidencia.

Interpretacin geomtrica de las soluciones.

Cada ecuacin representa un plano en el espacio tridimensional. Luego se trata de


estudiar la posicin relativa de tres planos en el espacio. Las soluciones del
sistema son geomtricamente los puntos de interseccin de los tres planos, los
casos son:

=Un punto nico. Sistema compatible determinado.. Los tres planos se cortan en
P.

=Una recta. Son soluciones todos los puntos representativos de la recta comn.
Sistema compatible indeterminado con un grado de libertad. Los planos se cortan
en r.

Sandoval Pgina 42
=Un plano. Los planos son coincidentes. El sistema es compatible indeterminado
con dos grados de libertad.

=Ningn punto. El sistema es incompatible. Esta situacin se presenta


geomtricamente de distintas maneras. Para estudiar las posiciones relativas de
los planos hay que tomarlos de dos en dos.

=Se pueden presentar varios casos: Que los planos sean paralelos:

Mtodos de solucin de un sistema de ecuaciones lineales: Gauss, Gauss-


Jordan, inversa de una matriz y regla de Cramer.

MTODO DE RESOLUCIN DE GAUSS-JORDAN

Es el mtodo de resolucin de sistemas de ecuaciones lineales, que consiste en


llegar a un sistema "escalonado" transformando la matriz ampliada en una matriz
escalonada por filas. El mtodo de Gauss es una generalizacin del mtodo de
reduccin, que utilizamos para eliminar una incgnita en los sistemas de dos
ecuaciones con dos incgnitas. Consiste en la aplicacin sucesiva del mtodo de
reduccin, utilizando los criterios de equivalencia de sistemas, para transformar la
matriz ampliada con los trminos independientes ( A* ) en una matriz triangular, de
modo que cada fila (ecuacin) tenga una incgnita menos que la inmediatamente
anterior. Se obtiene as un sistema, que llamaremos escalonado, tal que la ltima
ecuacin tiene una nica incgnita, la penltima dos incgnitas, la antepenltima
tres incgnitas, ..., y la primera todas las incgnitas.

El siguiente esquema muestra cmo podemos resolver un sistema de ecuaciones


lineales aplicando este mtodo.

Sandoval Pgina 43
Partimos, inicialmente, de un sistema de n ecuaciones lineales con n incgnitas,
compatible determinado:

En primer lugar, aplicando sucesivamente el mtodo de reduccin, eliminamos en


todas las ecuaciones, excepto en la primera, la incgnita x1, obtenindose un
sistema equivalente:

En segundo lugar, aplicando nuevamente el mtodo de reduccin de forma


sucesiva, eliminamos en todas las ecuaciones, excepto en las dos primeras, la
incgnita x2, obtenindose un sistema equivalente:

Para resolverlo despejamos, en primer lugar, la nica incgnita de la ltima


ecuacin. Luego sustituimos sta en la penltima ecuacin y despejamos la otra
incgnita. Posteriormente, sustituimos dos de las tres incgnitas de la
antepenltima ecuacin por sus valores y despejamos la que queda, y as
sucesivamente hasta llegar a la primera ecuacin.

Las transformaciones que podemos realizar en dicha matriz para transformar el


sistema inicial en otro equivalente son las siguientes:

Multiplicar o dividir una fila por un nmero real distinto de cero.

Sumarle o restarle a una fila otra fila.

Sumarle a una fila otra fila multiplicada por un nmero distinto de cero.

Cambiar el orden de las filas.

Sandoval Pgina 44
Cambiar el orden de las columnas que corresponden a las incgnitas del
sistema, teniendo en cuenta los cambios realizados a la hora de escribir el
nuevo sistema equivalente. Es decir: si, por ejemplo, la 2 columna
corresponde a la incgnita y y la tercera a la incgnita z, y cambiamos el
orden de las columnas, ahora la 2 columna corresponde a la incgnita z y
la tercera a la incgnita y.

Eliminar filas proporcionales o que sean combinacin lineal de otras.

Eliminar filas nulas (0 0 0 ... 0).

Despus de realizar las transformaciones que se consideren pertinentes, se


obtendr un sistema escalonado. Suponiendo que hubisemos eliminado, si las
hubiera, las filas nulas (0 0 0 ... 0), que corresponden a ecuaciones del tipo 0 = 0,
el sistema equivalente tendra ahora k ecuaciones lineales con n incgnitas.

Analizando el sistema resultante, podemos efectuar su discusin del siguiente


modo:

Si alguna de las ecuaciones es del tipo 0 = b (siendo b distinto de cero), el


sistema es incompatible y no tiene solucin.

Si no hay ecuaciones del tipo 0 = b, y adems k = n, es decir, el nmero de


ecuaciones del sistema equivalente es igual al nmero de incgnitas, el
sistema es compatible determinado y, por lo tanto, tiene una nica solucin.

Si no hay ecuaciones del tipo 0 = b y k < n, es decir, el nmero de


ecuaciones es menor que el nmero de incgnitas, el sistema es
compatible indeterminado y, en consecuencia, tiene infinitas soluciones. En
este caso, tenemos que separar las incgnitas principales de las no
principales.

Pero, cules son las incgnitas principales? Se puede dar el siguiente criterio: Si
el sistema es escalonado y tiene k ecuaciones, las k primeras incgnitas sern las
principales y las n - k restantes sern las no principales que pasaremos al
segundo miembro como parmetros.

MTODO DE RESOLUCIN DE CRAMER. REGLA DE CRAMER

La regla de Cramer utiliza las propiedades de las matrices y sus determinantes


para despejar, por separado, una cualquiera de las incgnitas de un sistema de
ecuaciones lineales.

REGLA DE CRAMER

Sandoval Pgina 45
Un sistema de ecuaciones lineales recibe el nombre de sistema de Cramer cuando
se cumplen las dos condiciones siguientes:

El nmero de ecuaciones es igual al nmero de incgnitas.

El determinante de la matriz de los coeficientes (matriz del sistema) es


distinto de cero (det ( A ) 0)

Un sistema de Cramer es, por definicin, compatible determinado, puesto que se


cumple que rango (A) = rango (A*) = n (n de incgnitas).

Consideremos un sistema de Cramer, es decir, un sistema de n ecuaciones


lineales con n incgnitas, cuya expresin general es la siguiente:

Sean A la matriz del sistema , entonces det (A) 0.

Llamaremos matriz asociada a la incgnita xi y la designaremos por Ai a la matriz


que se obtiene al sustituir en la matriz del sistema la columna i por la matriz
columna de los trminos independientes. Es decir:

Todos los sistemas de Cramer son compatibles determinados. El valor de cada


incgnita se obtiene dividiendo el determinante de la matriz asociada a dicha
incgnita por la matriz del sistema (matriz de los coeficientes de las incgnitas).

Sandoval Pgina 46
Se puede aplicar la regla de Cramer para resolver sistemas de ecuaciones
lineales compatibles que tengan ms ecuaciones que incgnitas? La respuesta es
afirmativa. Basta con obtener un sistema equivalente al inicial eliminando las
ecuaciones superfluas o dependientes (proporcionales, nulas o que sean
combinacin lineal de otras).

El procedimiento a seguir es el siguiente: Supongamos que tenemos un sistema


de m ecuaciones lineales con n incgnitas, siendo m > n y tal que: rango (A) =
rango (A*) = n. Por lo tanto, sobran m - n ecuaciones. Para averiguar cules son
las ecuaciones de las que podemos prescindir, basta encontrar en la matriz de los
coeficientes ( A ) un menor de orden n distinto de cero, por ejemplo, el que
utilizamos para averiguar el rango de la matriz A.

Sandoval Pgina 47
Las filas que intervienen en este menor son las que corresponden a las
ecuaciones principales. Las restantes ecuaciones las podemos suprimir.

Ejemplo: Sea el sistema de ecuaciones lineales formado por dos ecuaciones con
dos incgnitas:

Encontrar el valor de x e y mediante la regla de Cramer.

Empezaremos con el primer paso, que consiste en hallar la matriz ampliada A b


asociada al sistema de ecuaciones lineales:

El segundo paso es calcular el determinante de A. As pues:

Y el tercero y ltimo paso consiste en calcular las incgnitas:

MTODO DE LA MATRIZ INVERSA

Consideremos un sistema de n ecuaciones lineales con n incgnitas, cuya


expresin general es la siguiente:

Hemos visto que este sistema se puede escribir en forma matricial del siguiente
modo: A X = B.

Sandoval Pgina 48
La matriz A se llama matriz del sistema, es de dimensin n x n y sus elementos
son los coeficientes de las incgnitas.

La matriz X es una matriz columna, de dimensin n x 1, formada por las incgnitas


del sistema. Por ltimo, la matriz B es otra matriz columna, de dimensin n x 1,
formada por los trminos independientes. Es decir:

Si el determinante de la matriz A es distinto de cero (det (A) 0 ), la matriz A tiene


inversa ( A-1 ). Por lo tanto, podemos calcular la matriz de las incgnitas X del
siguiente modo:

Es decir, para calcular la matriz columna de las incgnitas ( X ), multiplicamos la


inversa de la matriz A ( A-1 ) por la matriz columna de los trminos independientes,
obtenindose otra matriz columna de la misma dimensin que X.

Se puede aplicar el mtodo de la matriz inversa para resolver sistemas de


ecuaciones lineales compatibles que tengan ms ecuaciones que incgnitas? La
respuesta es afirmativa. Basta con obtener un sistema equivalente al inicial
eliminando las ecuaciones superfluas o dependientes (proporcionales, nulas o que
sean combinacin lineal de otras).

El procedimiento a seguir es el siguiente: Supongamos que tenemos un sistema


de m ecuaciones lineales con n incgnitas, siendo m > n y tal que: rango (A) =
rango (A*) = n. Por lo tanto, sobran m - n ecuaciones. Para averiguar cules son
las ecuaciones de las que podemos prescindir, basta encontrar en la matriz de los
coeficientes ( A ) un menor de orden n distinto de cero, por ejemplo, el que
utilizamos para averiguar el rango de la matriz A. Las filas que intervienen en este
menor son las que corresponden a las ecuaciones principales. Las restantes
ecuaciones las podemos suprimir.

Se puede aplicar el mtodo de la matriz inversa para resolver sistemas de


ecuaciones lineales compatibles indeterminados? La respuesta es tambin
afirmativa. El procedimiento a seguir es el siguiente: Supongamos que tenemos un
sistema de m ecuaciones lineales con n incgnitas, tal que: rango (A) = rango (A*)
= k < n. Por lo tanto, sobran m - k ecuaciones y, adems, hay n - k incgnitas no
principales. Para averiguar cules son las ecuaciones de las que podemos
prescindir, y cules son las incgnitas no principales, basta encontrar en la matriz
de los coeficientes ( A ) un menor de orden k distinto de cero, por ejemplo, el que
utilizamos para averiguar el rango de la matriz A. Las filas que intervienen en este

Sandoval Pgina 49
menor son las que corresponden a las ecuaciones principales o independientes.
Las restantes ecuaciones las podemos suprimir. Las columnas que figuran en
dicho menor corresponden a las incgnitas principales. Las incgnitas no
principales las pasamos al otro miembro y pasan a formar un nico trmino junto
con el trmino independiente. Se obtiene, de este modo, un sistema de k
ecuaciones lineales con k incgnitas.

4-Espacios vectoriales

Definicin de espacio vectorial.

Sean K un cuerpo dado y V un conjunto no vacio, con reglas de suma y producto


por escalar que asigna a cada par u, v V una suma u+v V y a cada par u V, k K
un producto kuV. V recibe el nombre de espacio vectorial sobre K (y los
elementos de V se llaman vectores) si satisfacen los siguientes axiomas.

[A1] para toda terna de vectores u, v, wV, (u+v)+w=u+(v+w).


[A2] existe un vector en V, denotado por 0 y denominado el vector cero, tal que
u+0=u para todo vector uV.
[A3] para todo vector uV existe un nico vector en V, denotado por u, tal que u+
(-u)=0.
[A4] para todo par de vectores u, vV, u+v=v+u.
[M1] para todo escalar kK y todo par de vectores u, vV, k(u+v)=ku+kv.
[M2] para todo par de escalares a, bK y todo vector uV, (a+b)u=au+bu.
[M3] para todo par de escalares a, bK y todo vector uV, (ab)u=a(bu).
[M4] el escalar unidad 1K cumple 1u=u para todo vector u V.

Los axiomas precedentes se desdoblan de forma natural en dos categoras. Los


cuatro primeros ataen nicamente a la estructura aditiva de V y pueden
resumirse diciendo que V es un grupo conmutativo bajo la suma. De ello se deriva
que cualquier suma de vectores de la forma v1+v2++vm no requieren parntesis
y no depende del orden de los sumandos, que el vector cero, 0, es nico, que el
opuesto u de u es nico y que se verifica la ley de cancelacin; esto es, para tres
vectores cualesquiera u, v, wV.

U+w=v+w implica u=v. Asimismo, la resta se define segn u-v=u+(-v).

Por otra parte, los cuatro axiomas restantes se refieren a la <<accin>> del cuerpo
K sobre V. observece que la rotulacin de los axiomas refleja este desdoblamiento.
Empleando estos axiomas adicionales probaremos las siguientes propiedades
elementales de un espacio vectorial.

Teorema: sea V un espacio vectorial sobre un cuerpo K.

1. Para todo escalar kK y 0V, k0-0.

Sandoval Pgina 50
2. Para 0K y todo vector uV, 0u=0.

3. Si ku=0, donde kK y uV, entonces k=0 o u=0.

4. Para todo kK y todo uV, (-k)u=-ku.

Definicin de subespacio vectorial y sus propiedades.

Sea W un subconjunto de un espacio vectorial V sobre un cuerpo K. W se


denomina un subespacio de V si es a su vez un espacio vectorial sobre K con
respecto a las operaciones de V, suma vectorial y producto por un escalar. Un
criterio simple para identificar subespacios es el siguiente.

Teorema: supongamos que W es un subconjunto de un espacio vectorial V.


entonces W es un subespacio de V si y solo si se cumple:

1. 0W

2. W es cerrado bajo la suma de vectores, es decir: para todo par de vectores


u, vW, la suma u+vW.

3. W es cerrado bajo el producto por un escalar, esto es: para todo uW y para
todo kK el mltiplo kuW.

Corolario: W es un subespacio de V si y solo si:

1. 0W.

2. au+bvW para todos los u, vW y a, bK.

Ejemplo: sean U y W subespacios de un espacio vectorial V. probemos que la


interseccin UW es tambin subespacio de V. claramente, 0U y 0W, porque U
y W son subespacios, de donde 0UW. supongamos ahora que u, vUW.
entonces u, vU y u, vE y, dado que U y W son subespacios, u+v, kuU y u+v,
kuW para cualquier escalar k. as u+v, kuUW y por consiguiente UW es un
subespacio de V. El resultado del ejemplo precedente se generaliza como sigue.

Teorema: la interseccin de cualquier nmero de subespacios de un espacio


vectorial V es un subespacio de V.

Sandoval Pgina 51
Recurdese que toda solucin de un sistema de ecuaciones lineales con n
incgnitas AX=B puede verse como un punto en Kn y por tanto el conjunto
solucin de tal sistema es un subconjunto de Kn. Supongamos que el sistema
homogneo, es decir, supongamos que el sistema tiene la forma AX=0.
Denotemos por W su conjunto solucin. Como A0=0, el vector cero 0W adems,
si u y v pertenecen a W, esto es, si u y v son soluciones de AX=0, necesariamente
Au=0 y Av=0. Por esta razn, para todo par de escalares a y b en K, tendremos
A(au+bv)=aAu+bAv=a0+b0=0+0=0. De esta manera, au + bv es tambin una
solucin de AX=0 o, dicho de otro modo, au+bvW. En consecuencia, segn el
corolario, hemos demostrado:

Teorema: el conjunto solucin W de un sistema homogneo con n incgnitas


AX=0 es un subespacio de kn.

Hacemos nfasis en que el conjunto solucin de un sistema inhomogneo AX=B


no es subespacio de Kn. De hecho, el vector cero, 0, no pertenece a dicho
conjunto solucin.

Combinacin lineal. Independencia lineal.

COMBINACIN LINEAL

Sean v1, v2, , vn, vectores en un espacio vectorial V. entonces cualquier vector
de la forma: a1v1+a2v2++anvn, donde a1,a2,,an son escalares se denomina
una combinacin lineal de v1, v2,,vn.

Una combinacin lineal en M23

Conjunto generador.

Se dice que los vectores v1, v2, , vn de un espacio vectorial V generan a V si


todo vector en V se puede escribir como una combinacin lineal de los mismo. Es
decir, para todo vV, existen escalares a1, a2, , an tales que v=a1v1+a2v2+
+anvn

Cuatro vectores que generan a M22


Sandoval Pgina 52
Espacio generado por un conjunto de vectores.

Sean v, v2, , vk, k vectores de un espacio vectorial V. el espacio generado por


{v1, v2, , vk} es el conjunto de combinaciones lineales v1, v2, , vk. Es decir

donde a1, a2, , ak, son


escalares arbitrarios.

Teorema: si v1, v2, , vk son vectores en un espacio vectorial V, entonces gen{v1,


v2, , vk} es un subespacio de V.

Ejemplo: el espacio generado por dos vectores en R3

Sea v1=(2,-1,4) y v2=(4,1,6). Entonces H=gen{v1, v2}={v:v=a1(2,-1,4)+a2(4,1,6)}.


Cul es la apariencia de H? si v=(x, y,z)H, entonces tiene x=2a1+4a 2, y=-a1+a2
y z=4a 1+6 2. Si se piensa que (x, y, z) esta fijo, entonces estas ecuaciones se
pueden ver como un sistema de tres ecuaciones con tres incognitas a1, a2. Este
sistema se resuelve en la forma usual:

Sandoval Pgina 53
INDEPENDENCIA LINEAL
En el estudio del algebra lineal, una de las ideas centrales es la de dependencia o
independencia lineal de los vectores. En esta seccin se define el significado de
independencia lineal y se muestra su relacin con la teora de sistemas
homogneos de ecuaciones y determinantes.

Existe una relacin espacial entre los vectores , se


puede apreciar que v2=2v1; o si se escribe esta ecuacin de otra manera. 2v1-
v2=0.

En otras palabras, el vector cero se puede escribir como una combinacin no


trivial de v1 y v2 (es decir, donde los coeficientes en la combinacin lineal no son
ambos cero). Qu tienen de especial los vectores

? La respuesta a esta pregunta es


ms difcil a simple vista. Sin embargo, es sencillo verificar que v3=3v1+2v2;

rescribiendo esto se obtiene .

Se ha escrito el vector cero como una combinacin lineal de v1, v2, y v3. Parece
que los dos vectores de la ecuacin y los tres vectores de la otra ecuacin tienen
una relacin ms cercana que un par arbitrario de 2-vectores a una terna arbitraria
de 3-vectores. En cada caso, se dice que los vectores son linealmente
dependientes. En trminos generales, se tiene la importante definicin a
continuacin presentada.

Definicin: sean v1, v2, , vn vectores en un espacio vectorial V. entonces se dice


que lois vectores son linealmente dependientes si existen n escalares c1, c2, ,

cn no todos ceros tales que .

Si los vectores no son linealmente dependientes, se dice que son linealmente


independientes.

Sandoval Pgina 54
Para decirlo de otra forma, v1, v2, .., vn son linealmente independientes si la
ecuacin c1v1+c2v2++cnvn=0 se cumple nicamente para c1=c2==cn=0. Son
linealmente dependientes si el vector cero en V se puede expresar como una
combinacin lienal de v1, v2,,vn con coeficientes no todos iguales a cero.

Nota. Se dice que los vectores v1, v2, , vn son linealmente independientes (o
dependientes), o que el conjunto de vectores {v1, v2, , vn} es linealmente
independiente (o pendiente). Esto es, se usan las dos frases indistintivamente.

Teorema:dependencia e independencia lineal

Dos vectores en un espacio vectorial son linealmente dependientes si y solo si uno


de ellos es un mltiplo escalar del otro.

Demostracin: primero suponga que v2=cv1 para elgun escalar c0. Entonces
cv1-v2=0 y v1 y v2 son linealmente dependientes. Por otro parte, suponga que v1
y v2 son linealmente dependientes. Entonces existen constantes c1 y c2 al menos
uno distinto a cero, tales que c1v1+c2v2=0. Si c10, entonces dividiendo entre c1

se obtiene v1+(c2/c1)v2=0, o sea,

Es decir, v1 es un mltiplo escalar de v2. Si c1=0, entonces c20 y, por lo tanto,


v2=0=0v1.

Sandoval Pgina 55
Base y dimensin de un espacio vectorial, cambio de base.

Se ha visto en R2 conviene escribir vectores como una combinacin lineal de los

vectores . En R3 se escribieron los vectores en trminos

de . Ahora se generalizara esta idea.

BASEUn conjunto finito de vectores es una base para un

espacio vectorial V si

Todo conjunto de n vectores linealmente independiente en Rn es una base en Rn.

En Rn se define

Sandoval Pgina 56
Puesto que los vectores e, son las columnas d una matriz identidad (que tiene

determinante 1), es un conjunto linealmente independiente y,


por lo tanto, constituye una base en Rn. Esta base especial se denomina base
canonica en Rn. Ahora se encontraran bases para otros espacios.

EJEMPLO: base canonica para M22

Se vio que generan


a

, entonces es evidentemente que . As, estas cuatro


matrices son linealmente independientes y forman una base para M 22, lo que se
denomina base cononica para M22.

TEOREMA: si es una base para V y si vV, entonces existe un


conjunto nico de escalares tales que

Existe cuando menos un conjunto de dichos escalares porque


genera a V. suponga entonces que v se puede escribir e dos maneras como una
combinacin lineal de los vectores de la base.

Es decir, suponga que

Sea dos bases para V. debe


demostrarse que m=n. esto se prueba mostrando que si m>n, entonces S es un
conjunto literalmente independiente, lo que contradice la hiptesis de que S es una
bse. Esto demostrara que mn. la misma prueba demostrara que m y esto

Sandoval Pgina 57
prueba el teorema. As, basta demostrar que si m>n, entonces S es independiente.
Como S constituye una base, todo u se puede expresar como una combinacin

lineal de las v. se tiene (1)


TEOREMA: suponga que dimV=n. si

Entonces, restando se obtiene la ecuacin


pero como los v son linealmente
independientes, esta ecuacin se cumple si y solo si

As, y el teorema queda demostrado.

TEOREMA: si son bases en un espacio


vectorial V, entonces m=n; es decir, cualesquiera dos bases en un espacio
vectorial V tienen el mismo numero de vectores.

Para demostrar que S es dependiente, deben encontrarse escalares

no todos cero, tales que (2)

Sustituyendo (1) en (2) se obtiene (3)

Sandoval Pgina 58
La ecuacin (3) se puede reescribir como

Pero como son linealmente independientes, se debe tener (5)

El sistema (5) es un sistema homogneo de n ecuaciones con las m incgnitas


y como m>n, el teorema dice que el sistema tiene un numero
infinito de soluciones. De esta forma, existen escalares no todos
cero, tales que (2) se satisface y, por lo tanto, S es un conjunto linealmente
dependiente. Esta contradiccin prueba que mn si se cambian los papeles de S1
y S2, se demuestra que nm y la prueba queda completa.

Por este teorema se puede definir uno de los conceptos centrales en el algebra
lineal.

DIMENSIN

Si el espacio vectorial V tiene una base con un numero finito de elementos,


entonces la dimensin de V es el numero de vectores en todas las bases y V se
denomina espacio vectorial de dimensin finita. De otra manera, V se denomina
espacio vectorial de dimensin infinita. Si V={0}, entonces se dice que V tiene
dimensin cero.

Notacin. La dimensin V se denota por dimV.

Sandoval Pgina 59
EJEMPLO: la dimensin de Mmn

En Mmn sea A la matriz de mxn con un uno en la posicin ij y cero en otra parte. Es
sencillo demostrar que las matrices a para i=1,2,,m y j=1,2,,n forman una base
para Mmn. As, dimMmn=mn.

TEOREMA: suponga que dimV=n. si es un conjunto de m


vectores linealmente independientes en V, entonces mn.

Sea entonces, igual que la prueba del teorema, se pueden


encontrar constantes no todas cero, tales que la ecuacin (2) se
satisface. Esto contradice la independencia lineal de los vectores u. as, mn.

TEOREMA: sea H un subespacio de un espacio vectorial de dimensin finita V.

entonces H tiene dimensin finita y (6)

Sea dimV=n. cualquier conjunto de vectores linealmente independientes en H es


tambin linealmente independiente en V. por el teorema anterior, cualquier
conjunto linealmente independiente en H puede contener a lis mas n vectores. Si
H={0}, entonces dimH=0. Si dimH{0}, sea v0 un vector en H y H=gen{v}. si H=H,
dimH=1 y la prueba queda completa. De lo contrario, elija a vH tal que vH y sea
H=gen{v1,v2}, y as sucesivamente. Continuamos hasta encontrar vectores

linealmente independientes tales que H=gen{ }.


El proceso tiene que terminar porque se pueden encontrar a lo mas n vectores
linealmente independientes en H. entonces H-kn.

EJEMPLO: una base para el espacio de solucin de un sistema homogneo

Sandoval Pgina 60
Encuentre una base (y la dimensin) para el espacio de solucin S del sistema

homogneo

SOLUCIN: aqu . Como A es una matriz de 2x3, S es un


subespacio de R3. Reduciendo por renglones, se encuentra, sucesivamente,

Entonces y=z y x=-z de manera que todas las soluciones son de la forma

.As, es una base para S y dimS=1. Obsrvese que S es el conjunto de


vectores que se encuentran en la recta x=-t, y=t, z=t.

TEOREMA: cualquier conjunto de n vectores linealmente independientes en eun


espacio vectorial V de dimensin n constituyen una base apara V.

Sean , n vectores. Si generan el espacio V, entonces


constituyen una base. De lo contrario, existe un vector uV tal que

ugen . Esto significa que los n+1 vectores ,u

Sandoval Pgina 61
donde linealmente independientes. Para ver esto observe que si
(8)

Entonces porque de lo contrario podramos escribir u como una

combinacin lineal de dividiendo la ecuacin (8) entre y

poniendo todos los trminos, excepto u, en el lado derecho. Pero si

entonces (8) es

Lo que significa que ya que los v son linealmente

independientes. Ahora sea W=gen{ ,u}. como todos los vectores

entre las llaves estn en V, W es un subespacio de V. como ,u son


linealmente independientes, forman una base para W, y dimW=n+1. Pero por el
teorema, dimWn. esta contradiccin muestra que no existe el vector uV tal que

ugen{ }. As, genera a V y, por lo tanto, constituye


una base para V.

CAMBIO DE BASE

En R2 se expresaron vectores en trminos de la base cannica

. En Rn se defini la base canonica . En Pn

se defini la base estandra como . Estas bases se usan


ampliamente por la sencillez que ofrecen a la hora de trabajar con ellas. Pero en
ocasiones ocurre que es mas conveniente alguna otra base. Existe un numero
infinito de bases para elegir, ya que en un espacio vectorial de dimensin n,
cualesquiera n vectores, linealmente independientes, forman una base. En esta
seccin se vera como cambiar de una base a otra mediante el calculo de cierta

Sandoval Pgina 62
matriz. Iniciaremos por un ejemplo sencillo. Sean u .

entonces, es la base canonica en R2. Sean

Como v1 y v2 son linealmente independientes (porque

v1 no es un mltiplo de v2), es una segunda base en R2. Sea

un vector en R2. Esta notacin significa que

Es decir, x esta expresando en trminos de los vectores de la base B. para hacer

hincapi en este hecho, se escribe Como B es otra base en R2,

existen escalares c1 y c2 tales que (1) Una vez que se

encuentran estos escalares. Se puede escribir para indicar que x


esta ahora expresado en trminos de los vectores en B. para encontrar los
nmeros c1 y c2, se escribe la base anterior en trminos de la nueva base. Es

sencillo verificar que (2)

Sandoval Pgina 63
y es decir,

Entonces,

As, de (1),

Sandoval Pgina 64
Por ejemplo, si

entonces

Espacio vectorial con producto interno y sus propiedades.

Un espacio vectorial complejo V se denomina espacio con producto interno si


para cada par ordenado de vectores u y v en V, existe un numero complejo nico
(u,v), denominado producto interno de u y v, tal que si u, v y w estn en V y C,
entonces

Sandoval Pgina 65
La barra es las condiciones v) y vii) denota el conjugado complejo.

Nota. Si (u,v) es real, entonces (u,v)=(u,v) y se puede eliminar la barra en v).

EJEMPLO: producto interno de dos vectores en C3

En C3 sean x=(1+i, -3, 4-3i) y y=(2-i, -i, 2+i). entonces

Sea V un espacio con producto interno y suponga que u y v estn en V. entonces

Nota 1. Aqu se usa la doble barra en lugar de una sola para evitar confusin con
el valor absoluto. Por ejemplo sen t denota la norma de sen t como un vector
en C[0, 2] mientras que |sen t| denota el valor absoluto de la funcin sen t.

Nota 2. La ecuacin anterior tiene sentido ya que (u, u)0.

EJEMPLO: dos vectores ortogonales en C2

Sandoval Pgina 66
En C2 los vectores (3,-i) y (2,6i) son ortogonales porque

Conjunto ortonormal

El conjunto de vectores es un conjunto ortonormal en V si

Si solo el primero se cumple, se dice que el conjunto es ortonormal.

TEOREMA: cualquier conjunto finito de vectores ortonormales diferentes de cero


en un espacio con producto interno es linealmente independiente.

TEOREMA: cualquier conjunto finito linealmente independiente en un espacio con


producto interno se puede convertir en un conjunto ortonormal mediante el
proceso de Gram-Schmidt. En particular, cualquier espacio con producto interno
tiene una base ortonormal.

Proyeccin ortogonal

Sea H un subespacio del espacio con producto interno V con base ortonormal

Si vV, entonces la proyeccin ortonormal de v sobre H denotada por proy Hv esta

dada por (6)

Las demostraciones de los siguientes teoremas son idnticas a sus contrapartes


en Rn.
Sandoval Pgina 67
TEOREMA: sea H un subespacio de dimensin finita con producto interno V.
suponga que H tiene dos bases ortonormales

Sea vV. entonces

Complemento ortogonal

Sea H un subespacio del espacio con producto interno V. entonces el


complemento ortogonal de H, denotado por H, esta dado por (7)

TEOREMA: si H es un subespacio del espacio con producto interno V, entonces

TEOREMA DE PROYECCIN: sea H un subespacio de dimensin finita del


espacio con producto interno V y suponga que v V. entonces existe un par nico
de vectores h y p tales que hH, pH, y (8) v=h+p donde h=proyHv.

Si V tiene dimensin finita, entonces p=proyHv.

TEOREMA: sea A una matriz de nxn; entonces A tiene vectores propios


linealmente independientes si y solo si multiplicidad geomtrica de cada valor
propio es igual a su multiplicidades algebraica. En particular, A tiene n vectores
propios linealmente independientes si todos los valores propios son distintos (ya
que entonces la multiplicidad algebraica de cada valor propio es 1).

Sandoval Pgina 68
5-Transformaciones lineales

Introduccin a las transformaciones lineales.

El presente capitulo aborda una clase especial de funciones denominadas


transformaciones lineales que ocurren con mucha frecuencia en el algebra lineal y
otras ramas de las matematicas. Estas tienen una gran variedad de aplicaciones
importantes. Antes de definirlas, se estudiaran dos ejemplos sencillos para ver lo
que es posible realizar.

Ejemplo 1: reflexin respecto al eje x

En R2 se define una funcin T mediante la formula T(x;y)=(x;-y). Geomtricamente,


T toma un vector en R2 y lo refleja respecto al eje x. esto se ilustra en la figura.
Una vez que se ha dado la definicin bsica, se vera que T es una transformacin
lineal de R2 en R2.

Ejemplo 2: transformacin de un vector de produccin en un vector de


materia prima.

Un fabricante elabora cuatro tipos de productos distintos, de los cuales cada uno
requiere tres tipos de materiales. Se identifican los cuatro productos como P1, P2,
P3, y P4 y a los materiales por R1, R2 y R3. La tabla siguiente muestra el numero de
unidades de cada materia prima que se requieren para fabricar 1 unidad de cada
producto.

Ejemplo 2: transformacin de un vector de produccin en un vector de


materia prima.

Un fabricante elabora cuatro tipos de productos distintos, de los cuales cada uno
requiere tres tipos de materiales. Se identifican los cuatro productos como P1, P2,
P3, y P4 y a los materiales por R1, R2 y R3. La tabla siguiente muestra el numero de
unidades de cada materia prima que se requieren para fabricar 1 unidad de cada
producto.

Sandoval Pgina 69
Surge una pregunta natural: si se produce cierto nmero de los cuatro productos,
Cuntas unidades de cada material se necesitan? Sean p1, p2, p3 y p4 el nmero
de artculos fabricados en los cuatro productos y sean r1, r2, y r3 el nmero de
unidades necesarios de los tres materiales. Entonces se define

Por ejemplo, suponga que P=(10,30,20,50). Cuntas unidades de R1 se


necesitan para producir estos nmeros de unidades de los cuatro productos? De
la tabla se tiene que

r=p1*2+p2*1+p3*3+p4*4=10*2+30*1+20*3+50*4=310 unidades

de manera similar r2=10*4+30*2+20*2+50*1=190 unidades

y r3=10*3+30*3+20*1+50*2=240 unidades

en general se ve que

Sandoval Pgina 70
o Ap= r.

Esto se puede ver de otra manera. Si a p se le conoce como le vector de


produccin y a r como el vector de materia prima, se define la funcin T por = T(p)
= Ap. Esto es, T es la funcin que transforma el vector de produccin en el vector
de materia prima y se hace mediante la multiplicacin de matrices ordinaria.
Como se ver , esta funcin es tambin una transformacin lineal.

Antes de definir una transformacin lineal, hablaremos un poco sobre las


funciones. En la seccin 1.7 se escribi un sistema de ecuaciones como

Ax=b

Donde A es una matriz de m*n, x R y b R. Se pidi encontrar x cuando A y b se


conocan . No obstante, esta ecuacin se puede ver de otra forma: suponga que A
se conoce. Entonces la ecuacin Ax=b dice : proporcione una x en R y yo le
dar una b en R; es decir , A representa una funcin con dominio R e imagen
en R.

La funcin que se acaba de definir tiene las propiedades de que A ( si es un


escalar y A(x + y) = Ax + Ay. Esta propiedad caracteriza las transformaciones
lineales.

Definicin 1 transformacin lineal

Sean V y W espacios vectoriales reales. Una transformacin lineal T de V en W es


una funcin que asigna a cada vector v V un vector nico Tv W y que satisface,
para cada u y v en V y cada escalar .

T(u + v) = Tu + Tv

Sandoval Pgina 71
T(av)=aTv

TRES OBSERVACIONES SOBRE NOTACIN

1. Se escribe T: v W para indicar que T toma el espacio vectorial real V y lo lleva al


espacio vectorial real W; esto es, T es una funcin con V como su dominio y un
subconjunto de W como su imagen.

2. Se escriben indistintamente Tv y T(v). Denotan lo mismo; las dos se leen T de


v. Esto es anlogo a la notacin funcional (x), que se lee de x.

3. Gran parte de las definiciones y teoremas en este captulo tambin se cumplen


para los espacios vectoriales complejos (espacios vectoriales en donde los
escalares son nmeros complejos).

Ejemplo 5 La transformacin identidad

Sandoval Pgina 72
Sea V un espacio vectorial y definida I: V V por Iv = v para todo v en V. Aqu es
obvio que es I es una transformacin lineal, la cual se denomina transformacin
identidad u operador identidad.

Ejemplo 6 Transformacin de reflexin

Sea T:R2 R2 definida por T(x;y)=(x;-y). Es fcil verificar que T es lineal. En trminos
geomtricos, T toma un vector en R2 y lo refleja respecto al eje y (vea la figura 5.2)

Ejemplo 7 Transformaciones de Rn Rm dada por la multiplicacin por una


matriz de m*n.

Sea A una matriz de m*n y definida T:R R por Tx = Ax. Como A(x + y) = Ax + Ay
y A( si x y y estn en R, se observa que T es una transformacin lineal.
Entonces: toda matriz A de m*n se puede utilizar para definir una transformacin
lineal de R en R.

Ncleo e imagen de una transformacin lineal.

En esta seccin se desarrollan algunas propiedades bsicas de las


transformaciones lineales.

Teorema 1. Sea T: V W una transformacin lineal. Entonces para todos los


vectores u, v, v1, v2,.vn en V y todos los escalares

Sandoval Pgina 73
Nota en la parte i el 0 de la izquierda es el vector cero en v; mientras que el cero
de la derecha es el vector cero en W.

i. T(0) = T(0 + 0)= T(0) + T(0). As 0= T(0) T(0) = T(0) + t(0) T(0) = T(0)

ii.T(u-v) = T[u + (-1)v] = Tu + T[(-1)v] = Tu + (-1)Tv = Tu Tv.

iii.Esta parte se prueba por induccin (vea el apndice 1). Para n = 2 se tiene
T(1v1 + 2v2) = T (1v1) + T(2v2) = 1Tv1 + 2Tv2. As, la ecuacin (1) se cumple
para n = 2. Se supone que se cumple para n = k y se prueba para n=k + 1: T( 1v1
+ 2v2+ .+ kvk+k+1vk-1 ) = T(1v1 + 2v2+.+kvk) + T(k+1vk+1), y usando la
ecuacin en la parte iii para n= k, esto es igual a ( 1Tv1 + 2Tv2+.kTvk) +
k+1Tvk+1, que es lo que se quera demostrar. Esto completa la prueba.

Observacin. Los incisos i) y ii) del teorema 1 son casos especiales del inciso
iii). Un dato importante sobre las transformaciones lineales es que estn
completamente determinadas por el efecto sobre los vectores de la base.

Teorema 2 Sea v un espacio vectorial de dimensin finita con base B= {v1,v 2,


.vn}. Sean w1,w2,.wn vectores en W. Suponga que T1 y T2 son dos
transformaciones lineales de V en W tales que T 1vi = T2vi = wi para i = 1, 2,,n.
Entonces para cualquier vector v v, T 1v = T2v; es decir T1 = T2.

Como B es una base para V, existe un conjunto nico de escalares 1, 2,., n.


Tales que v = 1v1 + 2v2 + + n vn.

Entonces, del inciso iii) del teorema 1, T1v = T1(1 v1 + 2v2 + + nvn) = 1T2v1 +
2T2v2 + + nTnvn= 1w1 + 2w2 ++ nTnvn

De manera similar T2v = T2(1v1 + 2v2 + + nvn) = 1T2v1 + 2T2v2 ++ nTnvn


= 1w1 + 2w2 ++ nvn

Por lo tanto, T1v =T2v.

Sandoval Pgina 74
El teorema 2 indica que si T:v W y V tiene dimensin finita, entonces slo es
necesario conocer el efecto que tiene T sobre los vectores de la base en V. Esto
es, si se conoce la imagen de cada vector bsico, se puede determinar la imagen
de cualquier vector en V. Esto determina T por completo. Para ver esto, sean v 1,
v2,.vn una base en V y sea v otro vector en V. Entonces, igual que en l aprueba
del teorema 2, Tv = 1Tv1 + 2Tv2 ++ nTvn

As, se puede calcular Tv para cualquier vector v V si se conocen Tv1,Tv2,.Tvn

Ejemplo 1 Si se conoce el efecto de una transformacin lineal sobre los vectores


de la base, se conoce el efecto sobre cualquier otro vector.

Sea T una transformacin lineal de R3 en R2 y suponga que

Solucin. Se tiene

Entonces

Sandoval Pgina 75
Surge otra pregunta; si w1,w2,.,wn son n vectores en W, existe una
transformacin lineal T tal que Tv1 = w1 para i = 1,2,,n? La respuesta es s.
Como lo muestra el siguiente teorema.

Definicin 1 Ncleo e imagen de una transformacin lineal

Sean V y W dos espacios vectoriales y sea T:V W una transformacin lineal.


Entonces

i . El ncleo de T, denotado por un, est dado por

ii. La imagen de T, denotado por Im T, esta dado por

Observacion 1. Observe que un T es no vacio porque, de acuerdo al teorema 1,


T(0) = 0 de manera que 0 un T para cualquier transformacin lineal T. Se tiene
inters en encontrar otros vectores en V que se transformen en 0. De nuevo,
observe que cuando escribimos T(0) = 0, el 0 de la izquierda est en V y el de la
derecha en W.

Observacin 2. La imagen de T es simplemente el conjunto de imajenes de los


vectores en V bajo la transformacin T. De hecho, si w = Tv, se dice que w es la
imagen de v bajo T.

Antes de dar ejemplos de ncleos e imgenes , se demostrar un teorema de gran


utilidad.

Sandoval Pgina 76
Teorema 4 Si T:V W es una transformacin lineal, entonces

i.Un T es un subespacio de V.

ii.Im T es un subespacio de W.

Demostracion

i.Sean u y v en un T; Entonces T(u + v) = Tu + Tv =0 + 0 =0 y T( ) = = 0 = 0 de


forma que u + v y u estn en un T.

ii. Sean w y x en Im T. Entonces w = Tu y x = Tv para dos vestores u y v en V. Esto


significa que T(u + v)= Tu + Tv = w + x y T(u) = Tu =w. Por lo tanto, w + x y
w estn en Im T.

Ejemplo 3. Ncleo e imagen de la transformacin cero

Sea Tv = 0 para todo v V(T es la transformacin cero). Entonces un T = v e Im T


= {0}.

Ejemplo 4 Ncleo e imagen de la transformacin identidad

Sea Tv = v para v V(T es la transformacin identidad). Entonces un T= {0} e Im T


= V.

Las transformaciones cero e identidad proporcionan dos extremos. En la primera


todo se encuentra en el ncleo. En la segunda slo el vector cero se
encuentra en el ncleo. Los casos intermedios son ms interesantes.

Ejemplo 5 Ncleo e imagen de un operador de proyeccin

Sea T:R3 R3 definida por

Sandoval Pgina 77
T es el operador de proyeccin de R3 en el plano xy.

Entonces x = y = 0. As, nu T = {(x,y,z):x = y = 0, zR}, es decir, el eje z, e Im T =


{(x,y,z): z = 0}, es decir el plano xy. Observe que dim un T = 1 y dim Im T = 2.

Definicin 2 Nulidad y rango de una transformacin lineal

Si T es una transformacin lineal de v en w, entonces se define.

Observacin. En la seccin 4.7 se definieron el rango, la imagen, el espacio nulo y


la nulidad de una matriz. Segn el ejemplo 5.1.7, Toda matriz A de m*n da lugar a
una transformacin lineal T:R R definida por Tx = Ax. Es evidente que un T = N A,
Im T = Im A = CA, v(T) = v(A) y p(T) = p(A). Entonces se ve que las definiciones de
ncleo, imagen, nulidad y rango de una transformacin lineal son extensiones del
espacio nulo, la imagen, la nulidad y el rango de una matriz.

Ejemplo 6. Ncleo y nulidad de un operador de proyeccin

Sea H un subespacio de R y sea Tv = proyH v. Es obvio que la Im T = H. Se tiene


que toda v V si v=h + proyH v + proyHv. Si Tv = 0, entonces h=0, lo que
significa498

La matriz de una transformacin lineal.

Si A es una matriz de m*n y T: R n-Rm est definida por Tx = Ax, entonces, T es una
transformacin lineal. Ahora se ver que para toda transformacin lineal de R n en
Rm existe una matriz A de m*n tal que Tx = Ax para todo x R n. Este hecho es de
gran utilidad. Si Tx = Ax. Entonces un T = N A e Im T = RA. ms aun, v(T) = dim un T

Sandoval Pgina 78
= v(A) y p(T) = dim Im T = p(A). As se puede determinar el ncleo, la imagen, la
nulidad y el rango de una transformacin lineal de R n-Rm determinando el espacio
nulo y la imagen de la matriz correspondiente. Adicionalmente, una vez que se
sabe que Tx = Ax. Se puede evaluar Tx para cualquier x en R n mediante una
simple multiplicacin de matrices.

Pero esto no es todo. Como se ver, cualquier transformacin lineal entre


espacios vectoriales de dimensin finita se puede representar mediante una
matriz.

Teorema 1

Sea T:Rn -Rm una transformacin lineal. Existe entonces una matriz nica de m*n,
AT tal que

Demostracin

Sea w1 = Te1,w2 = Te2,.,wn = Ten. Sea AT la matriz cuyas columnas son w 1, w2,.,
wn y hagamos que AT denote tambin ala transformacin de Rn-Rm, que multiplica
un vector en Rn por AT. si

Entonces

Sandoval Pgina 79
De esta forma, ATei = wi para i = 1,2,.n., T y la transformacin AT son las mismas
porque coinciden en los vectores bsicos.

Ahora se puede demostrar que AT es nica. Suponga que Tx = ATx y que Tx = BTx
para todo x Rn. Entonces ATx = BTx, o estableciendo CT= AT BT, se tiene que
CTx = 0 para todo x Rn. En particular, CTei es la columna i de CT. As, cada una de
las n columnas de CT es el m-vector cero, la matriz cero de m*n. Esto muestra que
AT = BT y el teorema queda demostrado.

Definicin 1 Matriz de transformacin

La matriz AT en el teorema 1 se denomina matriz de transformacin


correspondiente a T o representacin matricial de T.

NOTA. La matriz de transformacin AT est definida usando las bases estndar


tanto en Rn como en R3. Si se utilizan otras bases, se obtendr una matriz de
transformacin diferente.

Sandoval Pgina 80
TEOREMA 2 sea AT la matriz de transformacin correspondiente a laa
transformacin lineal T. entonces.

i. Im T = Im A = CAT

ii. P(T) = p(AT)

iii. Un T = NAT

iv. v(T) = v(AT

Ejemplo 1 Representacin matricial de una transformacin de proyeccin

Encuentre la matriz de transformacin AT correspondiente ala proyeccin de un


vector en R3 sobre el plano xy.

Solucin

Teorema 4

Sean V y W espacios vectoriales de dimensin finita con dim V = n. sea T:V-W una
transformacin lineal y sea AT una representacin matricial de T respecto a las
bases B1 en V y B2 en W. entonces

i. p(T) =p(AT) ii. V(A) = v(AT) iii. V(a) + p(T) = n

Teorema 5 Sea T:Rn-Rm una transformacin lineal. Suponga que C es la matriz de


transformacin de T respecto a las bases estndar S n y Sm en Rn y Rm,
respectivamente. Sea A1 la matriz de transicin de B2 a base Sm en Rm. Si AT
denota la matriz de transformacin de T respecto a las bases B 1 y B2, entonces.

Sandoval Pgina 81
Geometra de las transformaciones lineales de R 2 en R2.

Sea T:R2-R2 una transformacin lineal con representacin matricial AT Ahora de


demostrar que si AT es invertible, entonces T se puede escribir como una
sucesin de una o ms transformaciones especiales, denominadas expansiones,
compresiones, reflexiones y cortes.

Expansiones a lo largo de los ejes x o y

Una expansin a lo largo del eje x es una transformacin lineal que multiplica a la
coordenada x de un vector en R2 por una constante C >1. Esto es

De manera similar, una expansin a lo largo del eje y es una transformacin lineal
que multiplica la coordenada y de todo vector en R 2 por una constante C>1. Como

antes ,

Sandoval Pgina 82
entonces la representacin matricial de T es de manera que

a) se comienza con este rectngulo.

b) Expansin en la direccin de x c = 2.

c) Expansin en la direccin de y con c = 4.

Compresin a lo largo de los ejes x o y.

Una compresin a lo largo de los ejes x o y es una transformacin lineal que


multiplica ala coordenada x o y de un vector en R 2 por una constante positiva
0<c<1, mientras que para la expansin c<1.

Sandoval Pgina 83
a) se comienza con este rectngulo.

b) Compresin a lo largo del eje x con c =1/3.


c) Compresin a lo largo del eje x con c=1/2.

Aplicacin de las transformaciones lineales: reflexin, dilatacin, contraccin y


rotacin.

Reflexin sobre el eje x

En este caso, queremos averiguar como est definida la transformacin T de R2

en R2 que cada vector lo refleja sobre el eje x,

para obtener un vector

En una grfica, vemos la situacin como sigue:

Sandoval Pgina 84
En este caso, la situacin es ms sencilla ya que claramente tenemos dos
tringulos rectngulos que son congruentes, de donde T queda definida como
sigue:

Esta transformacin se llama la reflexin sobre el eje x, y es lineal, ya que:

Ejemplo dilatacin o expansin

Sandoval Pgina 85
Una dilatacin es una transformacin que incrementa distancias.

Sea V= (2 4) encontrara la expansin vertical cuando K=2

Expansin horizontal (k71) o contraccin (0<k<1)

Expansin vertical (k71) o contraccin (0<k<1)

Ejemplo contraccin

Una contraccin es una transformacin que decrece distancias. Bajo una


contraccin, cualquier par de puntos es enviado a otro par a distancia
estrictamente menor que la original.

Sea V= (2 4) encontrara la contraccin horizontal cuando K=1/2

Haciendo la grafica el punto disminuye en el eje horizontal.

Rotacin por un ngulo

Sandoval Pgina 86
Sea un ngulo medido en radianes. Queremos
averiguar cual es la transformacin T de R2 en R2 que gira cada

vector un angulo , para obtener un vector

En una grfica, vemos la situacin como sigue:

Si usamos las funciones trigonomtricas, tenemos que:

Distribuyendo y usando el hecho de que

y tenemos que:

Sandoval Pgina 87
Por lo tanto, ya descubrimos cmo debe estar definida la

transformacin tal
que

Esta transformacin se llama la rotacin por un ngulo y es lineal, ya que:

Sandoval Pgina 88
Conclusiones:

En el primer punto del trabajo tuvimos un concepto general de lo que son las
permutacin que son cada uno de los intercambios que se pueden hacer sin
repetirlos, as mismo lo llevamos a trminos matriciales que es el intercambio de
filas cuando un pivote es cero y debemos buscar un pivote adecuado para la
eliminacin de Gauss Jordan y as mismo para la correcta resolucin de un
sistema de ecuaciones.

En la operaciones de los determinantes pudimos llegar a la conclusin que


podemos trabajar sobre la matriz a obtener el determinante para que nuestra
resolucin sea mucho ms rpida y haciendo que el resultado de la misma no sea
alterado de ninguna manera.

Las diferentes formas de resolucin nos llevo a un enfoque mucho ms amplio de


la resolucin del determinante de una matriz, ya que cada una de ellas poda ser
utilizadas en las otras ya que en el mtodo de cofactores se usa mucho la
resolucin de el determinante de las matrices de 2 x 2, las permutaciones cuando
queremos transformar una matriz a una triangular superior o inferior para la
resolucin de el determinante por medio de el producto de la diagonal.

En el punto de las aplicaciones se pudo ver formas mucho ms simples que


podemos usar para la resolucin de la inversa, la adjunta, en geometra analtica
la obtencin de el rea de un triangulo, la determinacin de colinealidad de dos
puntos, as como la ecuacin de la recta entre dos puntos.

Fuentes:

Teora y Problemas de Matrices. Ayres, Frank, JR. Serie de compendios


Schaum. Mxico. 1969

Teora y Problemas de Algebra Lineal. Lipschutz, Seymour. Serie de


compendios Schaum. Mxico. 1969

Algebra de Matrices. Franz E. Hohn. Editorial Trillas. Mxico.1979

Introduccin al lgebra Lineal. Larson Edwards. Mxico. Editorial Limusa.


1994

Sandoval Pgina 89

Anda mungkin juga menyukai