Curso 2017.
Departamento de Matemática.
Facultad de Ciencias Exactas. Universidad Nacional de La Plata.
1
Espacios Vectoriales
Tarea:
Demostrar que el elemento neutro en la operación ⊕, ⃗⃗
0, es único.
Para cada elemento de V el elemento inverso en la operación ⊕ es único (demostrarlo).
2
Operación ⨀
Lo primero que hay que garantizar es que la operación ⨀ sea cerrada en V, o sea a ⨀ 𝑣⃗ 𝜖 V
∀ a 𝜖 ℱ y ∀ 𝑣⃗ 𝜖 V.
Existencia de elemento neutro en la operación ⨀:
Existe el elemento 1, 1 𝜖 ℱ, tal que para todo 𝑣⃗, 𝑣⃗ 𝜖 V, se cumple:
1 ⨀ 𝑣⃗ = 𝑣⃗
Asociatividad en la operación ⨀:
a ⨀ (b ⨀ 𝑣⃗) = (a ⋅ b) ⨀ 𝑣⃗, a, b 𝜖 ℱ; 𝑣⃗ 𝜖 V, donde ⋅ es el
producto definido sobre el cuerpo ℱ.
Distributividad respecto de la suma de vectores:
a ⨀ (𝑣⃗ ⊕ 𝑢
⃗⃗) = a ⨀ 𝑣⃗ ⊕ a ⨀ 𝑢
⃗⃗, ∀ a 𝜖 ℱ, ∀ 𝑣⃗, 𝑢
⃗⃗ 𝜖 V
Distributividad respecto de la suma de escalares:
(a + b) ⨀ 𝑣⃗ = a ⨀ 𝑣⃗ ⊕ b ⨀ 𝑣⃗, ∀ a, b 𝜖 ℱ, ∀ 𝑣⃗ 𝜖 V, donde + es
la suma definida sobre el cuerpo ℱ.
Notas:
1. En muchas ocasiones se denomina ℱ–espacio vectorial V, para indicar el cuerpo sobre el
cual queda definido el espacio vectorial. También suele nombrarse como espacio vectorial
V(ℱ). Indistintamente utilizaremos la notación (V(ℱ), ⊕, ⨀) -en este caso aparecen
explícitamente los símbolos de las operaciones-, ℱ–espacio vectorial V o espacio vectorial
V(ℱ) -en estos dos casos se indica el cuerpo, pero implícitamente se asume que hay dos
operaciones definidas-.
3
2. Un espacio vectorial sobre el cuerpo de los reales suele llamarse por simplicidad “espacio
vectorial real”.
3. Un espacio vectorial sobre el cuerpo de los complejos suele llamarse por simplicidad
“espacio vectorial complejo”.
4. Puede demostrarse que todo cuerpo es un espacio vectorial sobre sí mismo.
5. La definición de espacio vectorial implica que depende en exclusiva del cuerpo, del
conjunto no vacío V y de las dos operaciones definidas. Por ejemplo, un mismo conjunto V
sobre un mismo cuerpo F puede no ser un espacio vectorial para un par de operaciones
definidas, y puede no ser un espacio vectorial para otro par de operaciones definidas.
6. Para demostrar que un objeto matemático es un espacio vectorial lo primero que debe
demostrarse es que las operaciones ⊕ y ⨀ son cerradas en V.
Sea V el conjunto de las matrices mxn, de elementos reales, con la suma tal se define para
matrices mxn y la multiplicación por un escalar también tal se define de manera habitual
para matrices mxn. ¿V es un espacio vectorial sobre ℝ? ¿Por qué?
4
Para remarcar una vez más: la resolución de estos ejemplos pone en evidencia que V es un
espacio vectorial sobre ℱ a partir de las operaciones definidas y el cumplimiento de la
axiomática que conforma la estructura de espacio vectorial.
Observación 1: suele ser importante quedarse con un subconjunto que “herede” las
propiedades del conjunto y por lo tanto “reducir” el problema al número mínimo
indispensable de vectores. Esta “reducción” simplifica el problema sin pérdida de
generalidad, por lo que la matemática subyacente queda sin ser modificada.
Teorema:
Sea S un subconjunto no vacío de V.
S es un subespacio del espacio vectorial V(ℱ) si, y sólo si, para todo par de
vectores 𝑣⃗ y 𝑢
⃗⃗ que pertenecen a S y todo escalar a del cuerpo ℱ, el vector
formado a partir de a⨀𝑣⃗ ⊕ 𝑢
⃗⃗ pertenece a S.
Demostración.
5
Si S es un subespacio del espacio vectorial V(ℱ), entonces…
S es un subconjunto no vacío de V que es subespacio vectorial, por cuanto, por definición de
subespacio vectorial, S “hereda” las propiedades del espacio vectorial V(ℱ). Desde esta
perspectiva, ya quedaría realizada la demostración de esta implicancia. No obstante la
desarrollaremos.
Como S ≠ ∅, si el vector 𝑤 ⃗⃗⃗ (porque S “hereda” las
⃗⃗⃗ pertenece a S, también pertenece −𝑤
propiedades del espacio vectorial V(ℱ)). De donde es inmediato que el vector nulo en la
operación ⊕ también pertenece a S.
Además, si 𝑤 ⃗⃗⃗ también pertenece a S (porque S “hereda” las propiedades
⃗⃗⃗ 𝜖 S y a 𝜖 ℱ, a⨀𝑤
del espacio vectorial V(ℱ)). Por lo que, de esta manera puede demostrarse (por construcción)
que para todo par de vectores 𝑣⃗ y 𝑢
⃗⃗ que pertenecen a S y para todo escalar a del cuerpo ℱ, el
vector formado a partir de a⨀𝑣⃗ ⊕ 𝑢
⃗⃗ pertenece a S.
Si para todo par de vectores 𝑣⃗ y 𝑢
⃗⃗ que pertenecen a S y todo escalar a del cuerpo ℱ, el
⃗⃗ pertenece a S entonces…
vector formado a partir de a⨀𝑣⃗ ⊕ 𝑢
En este caso, hay que probar que S es un subespacio vectorial del ℱ–espacio V.
También la demostración puede realizarse por construcción.
Dado el vector 𝑣⃗ que pertenece a S, se puede “elegir” el vector conformado por -1⨀𝑣⃗ ⊕ 𝑣⃗
el que está en S (debido a la hipótesis a⨀𝑣⃗ ⊕ 𝑢
⃗⃗ pertenece a S). Ahora bien, si 𝑣⃗ es cualquier
vector de S y podemos escoger cualquier escalar a que pertenece al cuerpo ℱ, como vimos
que -1⨀𝑣⃗ ⊕ 𝑣⃗ (= ⃗⃗
0) está en S, luego se sigue que a⨀𝑣⃗ ⊕ ⃗⃗
0 está en S (por hipótesis), es decir
a⨀𝑣⃗ 𝜖 S. En particular, -1⨀𝑣⃗ 𝜖 S (i.e. -𝑣⃗ 𝜖 S). A partir de ello, exigiendo la asociatividad y
la conmutatividad de la operación ⊕, y el cumplimiento de la axiomática de la operación ⨀
se tiene que S es un subespacio vectorial del espacio vectorial V(ℱ).
Observación: es común que se tome como definición de subespacio vectorial el teorema antes
enunciado o los lemas que a continuación se enunciarán.
Lema 1:
6
Dado S ⊂ V, con (V(ℱ), ⊕, ⨀) un espacio vectorial. S es un subespacio vectorial de V(ℱ) si,
y sólo si, se satisfacen las siguientes condiciones:
i. S≠∅
ii. Si 𝑣⃗, 𝑢
⃗⃗ 𝜖 S, entonces 𝑣⃗ ⊕ 𝑢
⃗⃗ 𝜖 S
iii. Si a 𝜖 ℱy 𝑣⃗ 𝜖 S, entonces a⨀𝑣⃗ 𝜖 S
Lema 2:
Dado S ⊂ V, con (V(ℱ), ⊕, ⨀) un espacio vectorial. S es un subespacio vectorial de V(ℱ) si,
y sólo si, se satisfacen las siguientes condiciones:
i. ⃗0⃗ 𝜖 S
ii. Si 𝑣⃗, 𝑢
⃗⃗ 𝜖 S, entonces 𝑣⃗ ⊕ 𝑢
⃗⃗ 𝜖 S
iii. Si 𝑣⃗ 𝜖 S y a 𝜖 ℱ, entonces a⨀𝑣⃗ 𝜖 S
Demostración.
La demostración se puede realizar de manera similar a la demostración del teorema.
En el lema 1, S ≠ ∅ garantiza la existencia de al menos un vector. Si es el vector nulo para
la operación ⊕ se trata del subespacio trivial (o también denominado subespacio nulo).
En el lema 2, la exigencia que ⃗0⃗ 𝜖 S es equivalente a pedir que S ≠ ∅.
Recordamos que una matriz cuadrada nxn (sobre el cuerpo ℱ) se llama simétrica si se
cumple que Aij = Aji. Las matrices simétricas ¿forman un subespacio del espacio vectorial
de las matrices cuadradas Anxn(ℱ)?
Sea A una matriz mxn sobre ℱ. Demostrar que el conjunto de todas las matrices nx1
(columna), X, sobre ℱ, tales que AX = 0, es un subespacio del espacio de todas las
matrices nx1 sobre ℱ.
7
Al trabajar en espacios vectoriales estamos trabajando con objetos de esos espacios, por lo
que además de la definición propia de “espacio vectorial” es necesario dar otras definiciones
que posibiliten la “manipulación” matemática de dichos objetos.
𝑢
⃗⃗ = 𝑎1 𝑣⃗1 + 𝑎2 𝑣⃗2 + 𝑎3 𝑣⃗3 + ⋯ + 𝑎𝑟 𝑣⃗𝑟 = ∑ 𝑎𝑖 𝑣⃗𝑖
𝑖=1
Notar que estamos usando + (por abuso de lenguaje) para dar cuenta de la operación ⊕, y
𝑎𝑖 𝑣⃗𝑖 (por abuso de lenguaje) para indicar la operación 𝑎𝑖 ⨀𝑣⃗𝑖 .
También debemos notar que dado que (V(ℱ), ⊕, ⨀) es un espacio vectorial, para
combinaciones lineales vale lo siguiente:
𝑖=𝑟 𝑖=𝑟 𝑖=𝑟
La definición de combinación lineal nos permite avanzar, para entender de manera algebraica
los conceptos de base y dimensión. Para esto necesitamos el concepto de independencia lineal
de conjunto de generadores.
8
La definición de dependencia lineal nos lleva a entender el significado de independencia
lineal.
El subconjunto C de V, donde V es un ℱ-espacio vectorial, se dice linealmente independiente
si la igualdad
⃗0⃗ = 𝑎1 𝑣⃗1 + 𝑎2 𝑣⃗2 + 𝑎3 𝑣⃗3 + ⋯ + 𝑎𝑟 𝑣⃗𝑟
se satisface si, y sólo si, los escalares 𝑎𝑗 , con 1 ≤ 𝑗 ≤ 𝑟, son todos nulos. Es decir, 𝑎1 = 𝑎2 =
𝑎3 = ⋯ = 𝑎𝑟 = 0.
9
Sea V un ℱ-espacio vectorial, con G ⊂ V.
G = {𝑣
⃗⃗⃗⃗⃗,
1 ⃗⃗⃗⃗⃗, 𝑣3 …, ⃗⃗⃗⃗}
𝑣2 ⃗⃗⃗⃗⃗, 𝑣𝑟
∀𝑣⃗, 𝑣⃗ ∈ V, ∃𝑐𝑖 , 1 ≤ 𝑖 ≤ 𝑟, 𝑐𝑖 ∈ ℱ, tal que:
𝑖=𝑟
𝑣⃗ = ∑ 𝑐𝑖 𝑣⃗𝑖
𝑖=1
Ejemplo trivial:
G = {(1; 0), (0; 1)} ⊂ ℝ2 , con ℱ = ℝ.
𝑣⃗ = 𝑎(1; 0) + 𝑏(0; 1) = (𝑎; 𝑏), con 𝑎, 𝑏 ∈ ℝ.
Base y dimensión.
Sea V un ℱ-espacio vectorial. Una base B del espacio V es un conjunto de vectores
linealmente independiente que genera al espacio V.
El espacio V es de dimensión finita si tiene una base finita, i.e. el conjunto B tiene una
cantidad finita de elementos, y la dimensión del espacio es el número de elementos de B (el
número de vectores linealmente independientes que general al espacio V).
Para el caso de dimensión finita puede aceptarse la siguiente definición como definición de
base:
El conjunto finito de vectores B = {𝑒⃗1, 𝑒⃗2 , 𝑒⃗3 , …, 𝑒⃗𝑛 } se dice que es una base del ℱ-espacio
vectorial V si se cumplen las dos condiciones siguientes:
a. B es linealmente independiente. Es decir, los vectores 𝑒⃗1 , 𝑒⃗2 , 𝑒⃗3 , …, 𝑒⃗𝑛 son
linealmente independientes.
b. B es un conjunto generador de V. Es decir, todo vector del ℱ-espacio vectorial V se
puede escribir como combinación lineal de los vectores 𝑒⃗1 , 𝑒⃗2 , 𝑒⃗3 , …, 𝑒⃗𝑛 .
Lema 1:
Si V es un espacio vectorial que posee una base con n elementos, cualesquiera n + 1 vectores
de V son linealmente dependientes.
10
Demostración:
Sea B = {𝑒⃗1, 𝑒⃗2 , 𝑒⃗3 , …, 𝑒⃗𝑛 } una base del ℱ-espacio vectorial V. Luego, por definición de
base, todo vector del espacio vectorial V puede ser escrito como una combinación lineal de
los vectores de B.
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛
𝑣⃗1 = ∑ 𝑐𝑖,1 𝑒⃗𝑖 ; 𝑣⃗2 = ∑ 𝑐𝑖,2 𝑒⃗𝑖 ; 𝑣⃗3 = ∑ 𝑐𝑖,3 𝑒⃗𝑖 ; … ; 𝑣⃗𝑛 = ∑ 𝑐𝑖,𝑛 𝑒⃗𝑖 ; 𝑣⃗𝑛+1 = ∑ 𝑐𝑖,𝑛+1 𝑒⃗𝑖
𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1
Ahora debemos ver si los n + 1 vectores 𝑣⃗1, 𝑣⃗2 , 𝑣⃗3 , …, 𝑣⃗𝑛+1 son linealmente
independientes. Es decir, debemos ver si existen escalares 𝑎𝑗 , con 1 ≤ 𝑗 ≤ 𝑛 + 1, todos
“simultáneamente” nulos tales que:
⃗0⃗ = 𝑎1 𝑣⃗1 + 𝑎2 𝑣⃗2 + 𝑎3 𝑣⃗3 + ⋯ + 𝑎𝑛 𝑣⃗𝑛 + 𝑎𝑛+1 𝑣⃗𝑛+1
Reemplazando cada 𝑣⃗𝑗 , con 1 ≤ 𝑗 ≤ 𝑛 + 1, resulta:
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛
⃗0⃗ = 𝑎1 ∑ 𝑐𝑖,1 𝑒⃗𝑖 + 𝑎2 ∑ 𝑐𝑖,2 𝑒⃗𝑖 + 𝑎3 ∑ 𝑐𝑖,3 𝑒⃗𝑖 + ⋯ + 𝑎𝑛 ∑ 𝑐𝑖,𝑛 𝑒⃗𝑖 + 𝑎𝑛+1 ∑ 𝑐𝑖,𝑛+1 𝑒⃗𝑖
𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1
Lema 2:
Sea V un espacio vectorial de dimensión n (dim(V) = n).
Todo conjunto de n vectores linealmente independiente en V es una base de V.
11
Demostración:
Sean 𝑒⃗1 , 𝑒⃗2 , 𝑒⃗3 , …, 𝑒⃗𝑛 vectores linealmente independientes (en el espacio vectorial V).
Tomemos el conjunto de vectores {𝑒⃗1, 𝑒⃗2 , 𝑒⃗3 , …, 𝑒⃗𝑛 , 𝑢
⃗⃗}. Es decir, hay n+1 vectores, y
sabemos por el lema anterior que estos n+1 vectores son linealmente dependientes.
⃗0⃗ = 𝑎0 𝑢
⃗⃗ + 𝑎1 𝑒⃗1 + 𝑎2 𝑒⃗2 + 𝑎3 𝑒⃗3 + ⋯ + 𝑎𝑛 𝑒⃗𝑛
Es fácil ver que 𝑎0 ≠ 0, dado que si fuera igual a 0 los 𝑎𝑗 , con 1 ≤ 𝑗 ≤ 𝑛, serían todos nulos,
porque los 𝑒⃗1 , 𝑒⃗2 , 𝑒⃗3 , …, 𝑒⃗𝑛 son vectores linealmente independientes. Esto conduce a que el
⃗⃗ puede generarse a partir de los vectores 𝑒⃗1 , 𝑒⃗2 , 𝑒⃗3 , …, 𝑒⃗𝑛 :
vector 𝑢
𝑎1 𝑎2 𝑎3 𝑎𝑛
𝑢
⃗⃗ = − ( 𝑒⃗1 + 𝑒⃗2 + 𝑒⃗3 + ⋯ + 𝑒⃗ )
𝑎0 𝑎0 𝑎0 𝑎0 𝑛
𝑢
⃗⃗ = 𝑏1 𝑒⃗1 + 𝑏2 𝑒⃗2 + 𝑏3 𝑒⃗3 + ⋯ + 𝑏𝑛 𝑒⃗𝑛
De aquí que {𝑒⃗1, 𝑒⃗2 , 𝑒⃗3 , …, 𝑒⃗𝑛 } es un sistema de generadores de V, y como son linealmente
independientes, por definición, son una base para V.
Lema 3:
Sea V un espacio vectorial de dimensión n (dim(V) = n).
Todo conjunto de m vectores linealmente independientes de V, con m < n, puede completarse
para obtener una base de V.
Demostración:
Es decir, hay que demostrar que dados 𝑒⃗1 , 𝑒⃗2 , 𝑒⃗3 , …, 𝑒⃗𝑚 vectores linealmente independientes
existen n – m vectores, 𝑒⃗𝑚+1 , 𝑒⃗𝑚+2, 𝑒⃗𝑚+3 , …, 𝑒⃗𝑛 , tal que el conjunto {𝑒⃗1, 𝑒⃗2 , 𝑒⃗3 , …, 𝑒⃗𝑚 ,
𝑒⃗𝑚+1 , 𝑒⃗𝑚+2 , 𝑒⃗𝑚+3 , …, 𝑒⃗𝑛 } sea una base de V.
Por definición de base y dimensión para un conjunto finito de vectores, la dimensión es el
número de vectores linealmente independientes. Como la dimensión de V, por hipótesis, es
n, implica que debe haber un conjunto con n vectores linealmente independientes (de lo
contrario se contradeciría la definición de dimensión). A partir de esto, y por construcción
pueden obtenerse los n – m vectores restantes para completar una base de V. Ahora bien, los
lemas 1 y 2 precedentes son los que nos garantizan la posibilidad de esta construcción.
Lema 4:
Sea V un espacio vectorial de dimensión n (dim(V) = n).
12
Sea G un conjunto de generadores de V. Se puede hallar un subconjunto G1 de G (G1 ⊂ G)
tal que G1 sea una base de V.
Demostración:
Se elige un vector no nulo, 𝑣⃗1 que pertenece a G1. Luego se vuelve a elegir otro vector, 𝑣⃗2 ,
el que también es no nulo y pertenece a G1 de forma que sea linealmente independiente con
𝑣⃗1 . Este procedimiento se continúa hasta hallar el vector no nulo, 𝑣⃗𝑛 , que pertenece a G1 y
es linealmente independiente con los n – 1 vectores previamente hallados. Por la hipótesis
dim(V) = n, y el lema 1 sabemos que es el número máximo de vectores linealmente
independientes que podemos construir. Pero, además, G1 es un subconjunto del conjunto de
generadores G, por lo que engendra al espacio V. De esto que cumple con la definición de
base de un espacio vectorial.
Teorema:
Todas las bases de un mismo espacio vectorial poseen el mismo número de
elementos.
Demostración:
Los lemas anteriores son la base para realizar la demostración del teorema.
Otra manera de enunciar, de forma extensiva, el teorema previo es la siguiente: Sea V un
espacio vectorial. Todas las bases de V tienen el mismo cardinal.
13
Bases. Coordenadas. Cambios de base.
Un vector dado, 𝑣⃗, tiene una expresión única como combinación lineal de los vectores de la
base canónica {𝑒⃗1, 𝑒⃗2 , 𝑒⃗3 , …, 𝑒⃗𝑛 }, y la coordenada i-ésima 𝑎𝑖 de 𝑣⃗ es el coeficiente de 𝑒⃗𝑖 en
la expresión de la combinación lineal mediante la cual queda definido 𝑣⃗.
𝑖=𝑛
𝑣⃗ = ∑ 𝑎𝑖 𝑒⃗𝑖
𝑖=1
Esta manera de identificar coordenada con coeficiente se puede realizar porque se trata de
la base canónica, que es una base ordenada de vectores. Si se tiene una base arbitraria
cualquiera es necesario imponerle un orden a los vectores que componen la base, de forma
de poder asignar la coordenada i-ésima de 𝑣⃗ con respecto a la base en cuestión. Dicho de otra
manera, las coordenadas sólo pueden ser definidas respecto a una sucesión de vectores y no
respecto a un conjunto de vectores. Para ello necesitamos la definición de “base ordenada”.
Lema:
Dado un ℱ-espacio vectorial V de dimensión finita, y una base ordenada de este espacio, 𝑤
⃗⃗⃗1,
𝑤 ⃗⃗⃗3 , …, 𝑤
⃗⃗⃗2 , 𝑤 ⃗⃗⃗𝑛 , existe un conjunto único de escalares 𝑐𝑖 , con 1 ≤ 𝑖 ≤ 𝑛, tales que:
𝑖=𝑛
𝑣⃗ = ∑ 𝑐𝑖 𝑤
⃗⃗⃗𝑖
𝑖=1
Demostración:
Supongamos que 𝑣⃗ puede escribirse a través de diferentes escalares para una misma base
ordenada, es decir:
𝑖=𝑛
𝑣⃗ = ∑ 𝑐𝑖 𝑤
⃗⃗⃗𝑖
𝑖=1
𝑖=𝑛
𝑣⃗ = ∑ 𝑑𝑖 𝑤
⃗⃗⃗𝑖
𝑖=1
14
A partir de la suma (por el inverso multiplicativo en escalares en el segundo de los casos) se
obtiene:
𝑖=𝑛
⃗0⃗ = ∑(𝑐𝑖 − 𝑑𝑖 )𝑤
⃗⃗⃗𝑖
𝑖=1
Definición de coordenada
Dada la base ordenada Bo = {𝑤
⃗⃗⃗1 , 𝑤
⃗⃗⃗2 , 𝑤
⃗⃗⃗3 , … , 𝑤
⃗⃗⃗𝑛 } y el vector 𝑣⃗ escrito como combinación lineal
de la sucesión finita de vectores linealmente independientes de Bo
𝑖=𝑛
𝑣⃗ = ∑ 𝑐𝑖 𝑤
⃗⃗⃗𝑖
𝑖=1
Propiedad:
Cada base ordenada de un espacio vectorial V determina una correspondencia biunívoca
𝑣⃗ → (𝑐1 , 𝑐2 , 𝑐3 , … , 𝑐𝑛 )
Donde (𝑐1 , 𝑐2 , 𝑐3 , … , 𝑐𝑛 ) es la n-upla en ℱ 𝑛 .
Ejemplo:
Dada la base ordenada de versores unitarios en ℝ2 , {𝑖̌, 𝑗̌}, todo vector 𝑣⃗ puede expresarse a
partir de la combinación lineal de estos dos versores:
𝑣⃗ = 𝑎𝑖̌ + 𝑏𝑗̌ → (𝑎, 𝑏)
Donde (𝑎, 𝑏) es una 2-upla en ℝ2 , y a es la primera coordenada de 𝑣⃗ en la base ordenada
dada, y b la segunda coordenada.
15
𝑐1
𝑐2
(𝑐1 , 𝑐2 , 𝑐3 , … , 𝑐𝑛 ) → 𝐶 = 𝑐3 = [𝑣⃗]𝐵
⋮
[𝑐𝑛 ]
Cambios de base
Dadas dos bases ordenadas, B = {𝑢
⃗⃗1 , 𝑢 ⃗⃗3 , …, 𝑢
⃗⃗2 , 𝑢 ⃗⃗𝑛 } y B* = {𝑤
⃗⃗⃗1, 𝑤 ⃗⃗⃗3 , …, 𝑤
⃗⃗⃗2 , 𝑤 ⃗⃗⃗𝑛 } por
ejemplo, sabemos que cada elemento de B puede ser escrito como combinación lineal de los
elementos de B*:
𝑖=𝑛
𝑢
⃗⃗1 = ∑ 𝑐𝑖,1 𝑤
⃗⃗⃗𝑖 = 𝑐1,1 𝑤
⃗⃗⃗1 + 𝑐2,1 𝑤
⃗⃗⃗2 + 𝑐3,1 𝑤
⃗⃗⃗3 + ⋯ + 𝑐𝑛,1 𝑤
⃗⃗⃗𝑛
𝑖=1
𝑖=𝑛
𝑢
⃗⃗2 = ∑ 𝑐𝑖,2 𝑤
⃗⃗⃗𝑖 = 𝑐1,2 𝑤
⃗⃗⃗1 + 𝑐2,2 𝑤
⃗⃗⃗2 + 𝑐3,2 𝑤
⃗⃗⃗3 + ⋯ + 𝑐𝑛,2 𝑤
⃗⃗⃗𝑛
𝑖=1
𝑖=𝑛
𝑢
⃗⃗3 = ∑ 𝑐𝑖,3 𝑤
⃗⃗⃗𝑖 = 𝑐1,3 𝑤
⃗⃗⃗1 + 𝑐2,3 𝑤
⃗⃗⃗2 + 𝑐3,3 𝑤
⃗⃗⃗3 + ⋯ + 𝑐𝑛,3 𝑤
⃗⃗⃗𝑛
𝑖=1
⋮
𝑖=𝑛
𝑢
⃗⃗𝑛 = ∑ 𝑐𝑖,𝑛 𝑤
⃗⃗⃗𝑖 = 𝑐1,𝑛 𝑤
⃗⃗⃗1 + 𝑐2,𝑛 𝑤
⃗⃗⃗2 + 𝑐3,𝑛 𝑤
⃗⃗⃗3 + ⋯ + 𝑐𝑛,𝑛 𝑤
⃗⃗⃗𝑛
𝑖=1
Es decir:
𝑗=𝑛
𝑢
⃗⃗𝑘 = ∑ 𝑐𝑗,𝑘 𝑤
⃗⃗⃗𝑗
𝑗=1
Sea 𝑥⃗ un vector del espacio vectorial V. Su expresión en la base B vendrá dada por la
combinación lineal siguiente:
𝑖=𝑛
𝑥⃗ = ∑ 𝑥𝑖 𝑢
⃗⃗𝑖
𝑖=1
16
𝑖=𝑛 𝑗=𝑛 𝑖=𝑛 𝑗=𝑛
𝑥⃗ = ∑ 𝑥𝑖 ∑ 𝑐𝑗,𝑖 𝑤
⃗⃗⃗𝑗 = ∑ ∑ 𝑐𝑗,𝑖 𝑥𝑖 𝑤
⃗⃗⃗𝑗
𝑖=1 𝑗=1 𝑖=1 𝑗=1
Sabemos, además, que al vector 𝑥⃗ lo podemos escribir como combinación lineal en la base
B*.
𝑘=𝑛
𝑥⃗ = ∑ 𝑥𝑘 ∗ 𝑤
⃗⃗⃗𝑘
𝑘=1
Luego:
𝑗=𝑛 𝑖=𝑛 𝑗=𝑛
𝑥⃗ = ∑ 𝑥𝑗 ∗ 𝑤
⃗⃗⃗𝑗 = ∑ ∑ 𝑐𝑗,𝑖 𝑥𝑖 𝑤
⃗⃗⃗𝑗
𝑗=1 𝑖=1 𝑗=1
Y como vimos, la expresión en una base es única, por lo tanto, las coordenadas son iguales,
de lo que se obtiene:
𝑖=𝑛
∗
𝑥𝑗 = ∑ 𝑐𝑗,𝑖 𝑥𝑖
𝑖=1
𝑥𝑘 = ∑ 𝑑𝑘,𝑚 𝑥𝑚 ∗
𝑚=1
Hemos utilizado una notación que sugiere la posibilidad del uso de matrices. Pasemos ahora
a vislumbrar esta escritura en términos matriciales.
Podemos escribir el vector 𝑥⃗ como matriz columna 𝑋 de coordenadas en la base B, y como
matriz columna 𝑋 ∗ de coordenadas en la base B*.
𝑥1 𝑥1∗
𝑥2 𝑥2∗
𝑋 = 𝑥3 = [𝑥⃗]𝐵 ∗
𝑋 = 𝑥3∗ = [𝑥⃗]𝐵∗
⋮ ⋮
[𝑥𝑛 ] [𝑥𝑛∗ ]
De esta manera podemos postular que existirá una matriz 𝑃 (𝑃𝑛𝑥𝑛 ) tal que permita obtener
𝑋 a partir de 𝑋 ∗ . Es decir:
𝑋 = 𝑃𝑋 ∗
[𝑥⃗]𝐵 = 𝑃[𝑥⃗]𝐵∗
17
A partir de la relación
𝑖=𝑛
𝑥𝑗 ∗ = ∑ 𝑐𝑗,𝑖 𝑥𝑖
𝑖=1
𝑥𝑘 = ∑ 𝑑𝑘,𝑚 𝑥𝑚 ∗
𝑚=1
Es fácil ver, también, que la matriz columna nula 𝑋 ∗ = 𝟎 implica que 𝑋 sea nula.
Estos dos hechos provienen de que B y B* son bases ordenadas del espacio vectorial V, es
decir conjuntos que contienen n vectores linealmente independientes y generan a V. La
independencia lineal garantiza que la única manera de obtener el vector nulo, ⃗⃗
0, es a partir
de tener todos coeficientes nulos en la combinación lineal de los vectores de la base.
Además, si 𝑋 = 𝑃𝑋 ∗ y la única solución a 𝟎 = 𝑃𝑋 ∗ es la solución trivial 𝑋 ∗ = 𝟎, lo que es
equivalente a que 𝑃 es invertible1 e indicamos a la inversa de 𝑃 como 𝑃−1 .
𝑋 = 𝑃𝑋 ∗ o también escrito como [𝑥⃗]𝐵 = 𝑃[𝑥⃗]𝐵∗
Dado que hemos visto que 𝑃 es invertible (𝑃𝑃−1 = 𝑃 −1 𝑃 = 𝐼𝑛𝑥𝑛 , donde 𝐼𝑛𝑥𝑛 es la matriz
identidad) se obtiene que:
𝑃−1 𝑋 = 𝑋 ∗ o también escrito como 𝑃−1 [𝑥⃗]𝐵 = [𝑥⃗]𝐵∗
Todo lo anterior puede comprenderse como fundamento y demostración del siguiente
teorema:
Teorema:
Sea V un ℱ-espacio vectorial de dimensión n. Sean B y B* dos bases
ordenadas de V. Entonces existe una única matriz 𝑃, invertible, tal que:
[𝑥⃗]𝐵 = 𝑃[𝑥⃗]𝐵∗
[𝑥⃗]𝐵∗ = 𝑃−1 [𝑥⃗]𝐵
para todo vector 𝑥⃗ del espacio V, donde las columnas de 𝑃 están dadas por
𝑃𝑗 = [𝑥⃗𝑗∗ ]𝐵 (componentes del vector 𝑥⃗𝑗∗ en la base B), con 1 ≤ 𝑗 ≤ 𝑛.
1
Recordamos el teorema que indica que “si 𝐴 es una matriz nxn (cuadrada), 𝐴 es equivalente por
filas a la matriz identidad nxn, si, y solo si, el sistema de ecuaciones 𝐴𝑋 = 𝟎
tiene solamente la solución trivial”. Esto es lo mismo que decir que 𝐴 es invertible.
18
Es decir, la base B* se obtiene de la base B mediante la matriz cambio de base 𝑃, que en
general se denota 𝑃𝐵𝐵∗ o 𝑃𝐵→𝐵∗ .
Ejemplo:
Supongamos que dos bases de un espacio vectorial V de dimensión finita n son:
𝐵 = {𝑒⃗1, 𝑒⃗2 , 𝑒⃗3 , …, 𝑒⃗𝑛 }
𝐵 ∗ = {𝑒⃗1∗ , 𝑒⃗2∗ , 𝑒⃗3∗ …, 𝑒⃗𝑛∗ }
Tomemos un vector arbitrario 𝑣⃗ y escribámoslo de los vectores de la base B:
𝑣⃗ = 𝑐1 𝑒⃗1 + 𝑐2 𝑒⃗2 + 𝑐3 𝑒⃗3 + ⋯ + 𝑐𝑛 𝑒⃗𝑛
𝑐1
𝑐2
[𝑣⃗]𝐵 = 𝑐3
⋮
[𝑐𝑛 ]
Entonces 𝑣⃗ en la base B* podemos pensarlo como:
[𝑣⃗]𝐵∗ = [𝑐1 𝑒⃗1 + 𝑐2 𝑒⃗2 + 𝑐3 𝑒⃗3 + ⋯ + 𝑐𝑛 𝑒⃗𝑛 ]𝐵∗
[𝑣⃗]𝐵∗ = [𝑐1 𝑒⃗1 ]𝐵∗ + [𝑐2 𝑒⃗2 ]𝐵∗ + [𝑐3 𝑒⃗3 ]𝐵∗ + ⋯ + [𝑐𝑛 𝑒⃗𝑛 ]𝐵∗
[𝑣⃗]𝐵∗ = 𝑐1 [𝑒⃗1 ]𝐵∗ + 𝑐2 ⃗⃗⃗⃗
[𝑒2 ]𝐵∗ + 𝑐3 ⃗⃗⃗⃗
[𝑒3 ]𝐵∗ + ⋯ + 𝑐𝑛 [𝑒⃗𝑛 ]𝐵∗
Ahora denotamos al vector de coordenadas de 𝑒⃗𝑗 con respecto a la base B* de la siguiente
manera:
𝑎1𝑗
𝑎2𝑗
[𝑒⃗𝑗 ]𝐵∗ = 𝑎3𝑗
⋮
[𝑎𝑛𝑗 ]
De esta forma:
𝑎11 𝑎12 𝑎13 𝑎1𝑛
𝑎21 𝑎22 𝑎23 𝑎2𝑛
[𝑣⃗]𝐵∗ = 𝑐1 𝑎31 + 𝑐2 𝑎32 + 𝑐3 𝑎33 + ⋯ + 𝑐𝑛 𝑎3𝑛
⋮ ⋮ ⋮ ⋮
[𝑎𝑛1 ] [𝑎𝑛2 ] [𝑎𝑛3 ] [𝑎𝑛𝑛 ]
Por lo que [𝑣⃗]𝐵∗ puede escribirse a través de la multiplicación de las siguientes matrices:
19
𝑎11 𝑎12 𝑎13 ⋯ 𝑎1𝑛 𝑐1
𝑎21 𝑎22 𝑎23 ⋯ 𝑎2𝑛 𝑐2
[𝑣⃗]𝐵∗ = 𝑎31 𝑎32 𝑎33 ⋯ 𝑎3𝑛 𝑐3
⋮ ⋮ ⋮ ⋮ ⋮ ⋮
[𝑎𝑛1 𝑎𝑛2 𝑎𝑛3 ⋯ 𝑎𝑛𝑛 ] [𝑐𝑛 ]
[𝑣⃗]𝐵∗ = 𝑃[𝑣⃗]𝐵
Notemos que es indistinto qué base sea elegida. Alcanza comenzar con una, porque
inmediatamente se tiene el cambio inverso a partir de la matriz inversa.
𝑃𝐵→𝐵∗ = (𝑃𝐵∗ →𝐵 )−1
20
Ahora retomaremos algunas cuestiones relativas a subespacios vectoriales, debido, entre
otras cosas, a que necesitamos definiciones tales como la de dimensión.
Recordamos que dado un espacio vectorial (V(ℱ), ⊕, ⨀), y S un subconjunto no vacío de
V, i.e. S ⊂ V con S ≠ ∅, se dirá que S es un subespacio vectorial de V(ℱ) si con la misma
suma ⊕ y el mismo producto por un escalar ⨀ definidos para V, S tiene la estructura de
espacio vectorial.
Teorema:
Sean S1 y S2 dos subespacios vectoriales del espacio vectorial (V(ℱ), ⊕, ⨀).
La intersección S1∩S2 es un subespacio vectorial de V(ℱ).
Demostración:
Es fácil ver que si los elementos 𝑣⃗ y 𝑢
⃗⃗ pertenecen a la intersección, S1∩S2, cada uno de ellos
pertenece a cada subespacio (por definición de intersección), luego la suma, 𝑣⃗ ⊕ 𝑢
⃗⃗,
pertenece a cada subespacio (por definición de subespacio), por lo que 𝑣⃗ ⊕ 𝑢
⃗⃗ pertenece a
S1∩S2. El mismo argumento es aplicable a la operación ⨀.
21
La demostración puede realizarse de manera inductiva, donde la base de inducción está
garantizada a través de la demostración previa.
Definición:
Sea S un conjunto de vectores de un espacio vectorial V. El subespacio generado por S se
define como intersección W de todos los subespacios de V que contienen a S.
De manera operativa, puede comprenderse esta definición de la siguiente manera:
𝑆 ⊂ 𝑉, V un ℱ-espacio vectorial.
𝑆 = {𝑢
⃗⃗1 , 𝑢
⃗⃗2 , 𝑢
⃗⃗3 , … , 𝑢
⃗⃗𝑠 }, el subespacio de V generado por S puede escribirse como:
𝑗=𝑠
𝐿(𝑆) = 〈𝑆〉 = {∑ 𝑎𝑗 𝑢
⃗⃗𝑗 : 𝑎𝑗 ∈ ℱ}
𝑗=1
Sin entrar en detalles, diremos que esta definición es la que posibilita las definiciones de
suma de subespacios vectoriales.
Teorema:
Sean S1 y S2 dos subespacios vectoriales del espacio vectorial (V(ℱ), ⊕, ⨀).
La suma S1+S2 es un subespacio vectorial de V(ℱ).
Demostración:
Si 𝑣⃗ y 𝑢
⃗⃗ pertenecen a S1+S2, existen vectores tales que 𝑣⃗ = 𝑣⃗1 ⊕ 𝑣⃗2, con 𝑣⃗1 ∈ 𝑆1 y 𝑣⃗2 ∈
𝑆2 , y 𝑢
⃗⃗ = 𝑢
⃗⃗1 ⊕ 𝑢
⃗⃗2 , con 𝑢
⃗⃗1 ∈ 𝑆1 y 𝑢
⃗⃗2 ∈ 𝑆2 , por definición de S1+S2.
Luego 𝑣⃗ ⊕ 𝑢
⃗⃗ = (𝑣⃗1 ⊕ 𝑣⃗2 ) ⊕ ( 𝑢
⃗⃗1 ⊕ 𝑢
⃗⃗2 ) = (𝑣⃗1 ⊕ 𝑢
⃗⃗1 ) + (𝑣⃗2 ⊕ 𝑢
⃗⃗2 ), por asociatividad en
V(ℱ), con (𝑣⃗1 ⊕ 𝑢
⃗⃗1 ) ∈ 𝑆1 y (𝑣⃗2 ⊕ 𝑢
⃗⃗2 ) ∈ 𝑆2 por ser 𝑆1 y 𝑆2 subespacios del espacio
vectorial V(ℱ), luego 𝑣⃗ + 𝑢
⃗⃗ ∈ S1+S2.
Si 𝑣⃗ pertenece a S1+S2, existen vectores tales que 𝑣⃗ = 𝑣⃗1 ⊕ 𝑣⃗2 , con 𝑣⃗1 ∈ 𝑆1 y 𝑣⃗2 ∈ 𝑆2 . De
donde es inmediato que para 𝑎 ∈ ℱ, 𝑎⨀𝑣⃗ ∈ S1+S2, porque 𝑎⨀𝑣⃗ = 𝑎⨀𝑣⃗1 ⊕ 𝑎⨀𝑣⃗2 , con
𝑎⨀𝑣⃗1 ∈ 𝑆1 y 𝑎⨀𝑣⃗2 ∈ 𝑆2 por ser 𝑆1 y 𝑆2 subespacios del espacio vectorial V(ℱ).
22
Extensión del teorema anterior:
Sean Si, con 1 ≤ 𝑖 ≤ 𝑟, r subespacios vectoriales del espacio vectorial (V(ℱ), ⊕, ⨀). La
suma ∑𝑟𝑖=1 𝑆𝑖 es un subespacio vectorial de V(ℱ).
La demostración puede realizarse de manera inductiva, donde la base de inducción está
garantizada a través de la demostración previa.
Demostración:
Sea {𝑢
⃗⃗1 , 𝑢
⃗⃗2 , 𝑢
⃗⃗3 , … , 𝑢
⃗⃗𝑟 } una base de S1∩S2. De forma que dim(S1∩S2) = r.
Completamos este conjunto de vectores, {𝑢
⃗⃗1 , 𝑢
⃗⃗2 , 𝑢
⃗⃗3 , … , 𝑢
⃗⃗𝑟 , 𝑣⃗𝑟+1 , … , 𝑣⃗𝑠 } de manera que sea
una base de S1, y {𝑢
⃗⃗1 , 𝑢
⃗⃗2 , 𝑢
⃗⃗3 , … , 𝑢
⃗⃗𝑟 , 𝑤
⃗⃗⃗𝑟+1 , … , 𝑤
⃗⃗⃗𝑡 } una base de S2. Ahora lo que hay que ver
es que {𝑢
⃗⃗1 , 𝑢
⃗⃗2 , 𝑢
⃗⃗3 , … , 𝑢
⃗⃗𝑟 , 𝑣⃗𝑟+1 , … , 𝑣⃗𝑠 , 𝑤
⃗⃗⃗𝑟+1 , … , 𝑤
⃗⃗⃗𝑡 } es una base de S1+S2.
Es claro que es un sistema de generadores de S1+S2, por la definición de +. Veamos que
es un conjunto linealmente independiente. Supongamos que:
𝑖=𝑟 𝑗=𝑠 𝑘=𝑡
∑ 𝑎𝑖 𝑢 ⃗⃗⃗𝑘 = ⃗⃗
⃗⃗𝑖 + ∑ 𝑏𝑗 𝑣⃗𝑗 + ∑ 𝑐𝑘 𝑤 0
𝑖=1 𝑗=𝑟+1 𝑘=𝑟+1
Entonces
𝑖=𝑟 𝑗=𝑠 𝑘=𝑡
∑ 𝑎𝑖 𝑢
⃗⃗𝑖 + ∑ 𝑏𝑗 𝑣⃗𝑗 = − ∑ 𝑐𝑘 𝑤
⃗⃗⃗𝑘
𝑖=1 𝑗=𝑟+1 𝑘=𝑟+1
𝑗=𝑠
∑𝑖=𝑟 ⃗⃗𝑖 + ∑𝑗=𝑟+1 𝑏𝑗 𝑣⃗𝑗
𝑖=1 𝑎𝑖 𝑢 es una combinación lineal tal que pertenece a S1, y
𝑗=𝑠
∑𝑘=𝑡 ⃗⃗⃗𝑘 pertenece a S2. Más aún, como ∑𝑖=𝑟
𝑘=𝑟+1 𝑐𝑘 𝑤 ⃗⃗𝑖 + ∑𝑗=𝑟+1 𝑏𝑗 𝑣⃗𝑗 = − ∑𝑘=𝑡
𝑖=1 𝑎𝑖 𝑢 𝑘=𝑟+1 𝑐𝑘 𝑤
⃗⃗⃗𝑘 ,
− ∑ 𝑐𝑘 𝑤
⃗⃗⃗𝑘 = ∑ 𝑑𝑖 𝑢
⃗⃗𝑖
𝑘=𝑟+1 𝑖=1
23
Equivalentemente,
𝑖=𝑟 𝑘=𝑡
∑ 𝑑𝑖 𝑢 ⃗⃗⃗𝑘 = ⃗0⃗
⃗⃗𝑖 + ∑ 𝑐𝑘 𝑤
𝑖=1 𝑘=𝑟+1
Pero {𝑢
⃗⃗1 , 𝑢
⃗⃗2 , 𝑢
⃗⃗3 , … , 𝑢
⃗⃗𝑟 , 𝑤
⃗⃗⃗𝑟+1 , … , 𝑤
⃗⃗⃗𝑡 } es una base de S2. Luego 𝑑𝑖 = 0, ∀𝑖, 1 ≤ 𝑖 ≤ 𝑟, y 𝑐𝑘 =
0, ∀𝑘, 𝑟 + 1 ≤ 𝑘 ≤ 𝑡. De esto surge que
𝑖=𝑟 𝑗=𝑠
Pero {𝑢
⃗⃗1 , 𝑢
⃗⃗2 , 𝑢
⃗⃗3 , … , 𝑢
⃗⃗𝑟 , 𝑣⃗𝑟+1 , … , 𝑣⃗𝑠 } es una base de S1. Luego 𝑎𝑖 = 0, ∀𝑖, 1 ≤ 𝑖 ≤ 𝑟, y
𝑏𝑗 = 0, ∀𝑗, 𝑟 + 1 ≤ 𝑗 ≤ 𝑠. Por lo que hemos probado que la colección de vectores
{𝑢
⃗⃗1 , 𝑢
⃗⃗2 , 𝑢
⃗⃗3 , … , 𝑢
⃗⃗𝑟 , 𝑣⃗𝑟+1 , … , 𝑣⃗𝑠 , 𝑤
⃗⃗⃗𝑟+1 , … , 𝑤
⃗⃗⃗𝑡 } es un conjunto linealmente independiente.
Luego,
dim( S1+S2) = r + (s – r) + (t – r) = s + t – r = dim(S1) + dim(S2) – dim(S1∩S2)
Consecuencia de la definición:
Sean S1 y S2 dos subespacios vectoriales del espacio vectorial (V(ℱ), ⊕, ⨀), con V = S1⊕S2.
Entonces, para cada 𝑣⃗ que pertenece a V existen únicos 𝑣⃗1 que pertenece a S1 y 𝑣⃗2 que
pertenece a S2 tales que 𝑣⃗ = 𝑣⃗1 ⊕ 𝑣⃗2.
Demostración:
Como V = S1+S2, para cada 𝑣⃗ que pertenece a V existen 𝑣⃗1 que pertenece a S1 y 𝑣⃗2 que
pertenece a S2 tales que 𝑣⃗ = 𝑣⃗1 + 𝑣⃗2 . Ahora veamos que son únicos los vectores 𝑣⃗1 y 𝑣⃗2 .
24
Supongamos que 𝑣⃗ = 𝑣⃗1 + 𝑣⃗2 , con 𝑣⃗1 que pertenece a S1 y 𝑣⃗2 que pertenece a S2 y
también 𝑣⃗ = 𝑣⃗1∗ + 𝑣⃗2∗ con 𝑣⃗1∗ que pertenece a S1 y 𝑣⃗2∗ que pertenece a S2. Luego, a partir de
𝑣⃗ + (−𝑣⃗) = ⃗0⃗, se tiene que:
(𝑣⃗1 − 𝑣⃗1∗ ) + (𝑣⃗2 − 𝑣⃗2∗ ) = ⃗⃗
0
Es decir, 𝑣⃗1 − 𝑣⃗1∗ = −(𝑣⃗2 − 𝑣⃗2∗ ). Pero 𝑣⃗1 − 𝑣⃗1∗ pertenece a S1 de donde se sigue que el
vector 𝑣⃗2 − 𝑣⃗2∗ también pertenece a S1. Y 𝑣⃗2 − 𝑣⃗2∗ pertenece a S2 de donde se sigue que el
vector 𝑣⃗1 − 𝑣⃗1∗ pertenece a S2. De todo esto surge que 𝑣⃗1 − 𝑣⃗1∗ pertenece a S1∩S2 y 𝑣⃗2 − 𝑣⃗2∗
⃗⃗}. Luego 𝑣⃗1 − 𝑣⃗1∗ = ⃗0⃗ (i.e. 𝑣⃗1 = 𝑣⃗1∗ ), y 𝑣⃗2 − 𝑣⃗2∗ = ⃗0⃗ (i.e.
pertenece a S1∩S2, con S1∩S2 = {0
𝑣⃗2 = 𝑣⃗2∗ ).
25
Transformaciones Lineales
Observación 1: notamos que en el argumento de 𝑓 las operaciones son las definidas para V,
denotadas como ⊕𝑉 y ⨀𝑉 , en tanto que fuera del argumento de 𝑓 las operaciones son las
definidas para W, denotadas como ⊕𝑊 y ⨀𝑊 .
Observación 2: las transformaciones lineales también pueden ser denominadas, según los
autores como “acciones lineales”, “aplicaciones lineales”, “mapeos lineales” o simplemente
“mapeos”, “homomorfismos” o simplemente “morfismos”.
⃗⃗𝑉 ) = ⃗0⃗𝑊 .
Es fácil ver que si 𝑓: 𝑉 → 𝑊 es una transformación lineal, entonces 𝑓(0
Existen varias maneras de demostrar esto. Dejamos las restantes a la esgrimida aquí para
práctica de las/os estudiantes.
Podemos decir que ⃗0⃗𝑊 = 𝑓(0
⃗⃗𝑉 ) ⊕𝑊 (−1)⨀𝑊 𝑓(0
⃗⃗𝑉 ).
26
𝑓: 𝑉 → 𝑊 es una transformación lineal, por lo cual cumple a y b de la definición. De aquí
que:
⃗⃗ ⃗⃗𝑉 ) ⊕𝑊 (−1)⨀𝑊 𝑓(0
0𝑊 = 𝑓(0 ⃗⃗𝑉 ) = 𝑓(0
⃗⃗𝑉 ) ⊕𝑊 𝑓 ((−1)⨀𝑉 ⃗⃗ ⃗⃗𝑉 ) ⊕𝑊 𝑓(0
0𝑉 ) = 𝑓(0 ⃗⃗𝑉 )
⃗⃗𝑉 ⊕𝑉 ⃗⃗
= 𝑓(0 ⃗⃗𝑉 )
0𝑉 ) = 𝑓(0
Es fácil ver, a partir de la definición de cada una de estas operaciones, que se cumple con
la definición de transformación lineal.
𝑑 𝑑 𝑑
[𝑓(𝑥) + 𝑔(𝑥)] = [𝑓(𝑥)] + [𝑔(𝑥)] ≡ 𝑓 ′ (𝑥) + 𝑔′(𝑥)
𝑑𝑥 𝑑𝑥 𝑑𝑥
Esto es lo que, sin mayores precisiones, se dice coloquialmente “la derivada de una suma
de funciones es la suma de las derivadas de las funciones” (observemos que esta
coloquialidad, si bien ilustrativa, pasa por alto o excluye enunciativamente todo lo que
debemos exigir a las funciones para que la propiedad se cumpla).
Si 𝑎 es una constante, 𝑎 ∈ ℝ, y tenemos 𝑎𝑓(𝑥), luego:
𝑑 𝑑
[𝑎𝑓(𝑥)] = 𝑎 [𝑓(𝑥)] ≡ 𝑎𝑓 ′ (𝑥)
𝑑𝑥 𝑑𝑥
Habiendo usado las propiedades de derivadas para el producto de funciones, y sabiendo que
la derivada de toda constante vale 0.
𝑑
En particular, 𝑑𝑥 [𝑎𝑓(𝑥) + 𝑏𝑔(𝑥)] ≡ 𝑎𝑓 ′ (𝑥) + 𝑏𝑔′(𝑥), con 𝑎, 𝑏 ∈ ℝ.
27
La transformación identidad, 𝐈, tal que ∀ 𝑣⃗ ∈ 𝑉, 𝐈(𝑣⃗) = 𝑣⃗.
Ejemplos:
1. Sea ℘: ℝ3 → ℝ2 , tal que ∀ 𝑣⃗ ∈ ℝ3 , con 𝑣⃗ = 〈𝑣𝑥 , 𝑣𝑦 , 𝑣𝑧 〉, ℘(𝑣⃗) = 〈𝑣𝑥 , 𝑣𝑦 〉.
Solución.
Lo primero que indicamos es que las operaciones ⊕ y ⨀ son las usuales en ℝ3 y en ℝ2 .
𝑣⃗ = 〈𝑣𝑥 , 𝑣𝑦 , 𝑣𝑧 〉
⃗⃗ = 〈𝑢𝑥 , 𝑢𝑦 , 𝑢𝑧 〉
𝑢
⃗⃗ = 〈𝑣𝑥 + 𝑢𝑥 , 𝑣𝑦 + 𝑢𝑦 , 𝑣𝑧 + 𝑢𝑧 〉
𝑣⃗ + 𝑢
⃗⃗) = 〈𝑣𝑥 + 𝑢𝑥 , 𝑣𝑦 + 𝑢𝑦 〉
℘(𝑣⃗ + 𝑢
Por otro lado,
⃗⃗) = 〈𝑣𝑥 , 𝑣𝑦 〉 + 〈𝑢𝑥 , 𝑢𝑦 〉 = 〈𝑣𝑥 + 𝑢𝑥 , 𝑣𝑦 + 𝑢𝑦 〉
℘(𝑣⃗) + ℘(𝑢
Luego: ℘(𝑣⃗ + 𝑢
⃗⃗) = ℘(𝑣⃗) + ℘(𝑢
⃗⃗).
Ahora verificaremos que ℘(𝑎𝑣⃗) = 𝑎℘(𝑣⃗).
𝑎𝑣⃗ = 𝑎〈𝑣𝑥 , 𝑣𝑦 , 𝑣𝑧 〉 = 〈𝑎𝑣𝑥 , 𝑎𝑣𝑦 , 𝑎𝑣𝑧 〉
℘(𝑎𝑣⃗) = 〈𝑎𝑣𝑥 , 𝑎𝑣𝑦 〉 por definición de ℘. Y 〈𝑎𝑣𝑥 , 𝑎𝑣𝑦 〉 = 𝑎〈𝑣𝑥 , 𝑣𝑦 〉 por definición usual de
⨀ en ℝ2 . Pero sabemos que ℘(𝑣⃗) = 〈𝑣𝑥 , 𝑣𝑦 〉, luego ℘(𝑎𝑣⃗) = 𝑎℘(𝑣⃗).
De todo lo anterior se deduce que ℘ tal está definida es un homomorfismo (transformación
lineal).
Observación: ℘ puede interpretarse como la proyección de ℝ3 en ℝ2 .
De manera general, y equivalente a lo que observamos en el ejemplo anterior, suele
definirse como proyección ℘𝑘 a la siguiente transformación lineal:
℘𝑘 : ℝ𝑛 → ℝ𝑛 , ∀ 𝑣⃗ ∈ ℝ𝑛 , con 𝑣⃗ = 〈𝑣1 , 𝑣2 , 𝑣3 , … , 𝑣𝑘 , … , 𝑣𝑛 〉, tal que ℘𝑘 anula la k-ésima
componente de 𝑣⃗, es decir: ℘𝑘 (𝑣⃗) = 〈𝑣1 , 𝑣2 , 𝑣3 , … , 0, … , 𝑣𝑛 〉.
Ejercicio: verificar que ℘𝑘 es una transformación lineal, con las operaciones usuales ⊕ y ⨀
en ℝ𝑛 .
28
𝑣⃗ = 〈𝑣𝑥 , 𝑣𝑦 〉
⃗⃗ = 〈𝑢𝑥 , 𝑢𝑦 〉
𝑢
⃗⃗ = 〈𝑣𝑥 + 𝑢𝑥 , 𝑣𝑦 + 𝑢𝑦 〉
𝑣⃗ + 𝑢
⃗⃗) = 〈−(𝑣𝑥 + 𝑢𝑥 ), −(𝑣𝑦 + 𝑢𝑦 )〉
ℶ(𝑣⃗ + 𝑢
Por otro lado,
⃗⃗) = 〈−𝑣𝑥 , −𝑣𝑦 〉 + 〈−𝑢𝑥 , −𝑢𝑦 〉 = 〈−(𝑣𝑥 + 𝑢𝑥 ), −(𝑣𝑦 + 𝑢𝑦 )〉
ℶ(𝑣⃗) + ℶ(𝑢
Donde hemos usado la definición de ℶ y de suma usual en ℝ2 .
Luego: ℶ(𝑣⃗ + 𝑢
⃗⃗) = ℶ(𝑣⃗) + ℶ(𝑢
⃗⃗).
Ahora verificaremos que ℶ(𝑎𝑣⃗) = 𝑎ℶ(𝑣⃗).
𝑎𝑣⃗ = 𝑎〈𝑣𝑥 , 𝑣𝑦 〉 = 〈𝑎𝑣𝑥 , 𝑎𝑣𝑦 〉
ℶ(𝑎𝑣⃗) = 〈−𝑎𝑣𝑥 , −𝑎𝑣𝑦 〉 por definición de ℶ. Y 〈−𝑎𝑣𝑥 , −𝑎𝑣𝑦 〉 = 𝑎〈−𝑣𝑥 , −𝑣𝑦 〉 por definición
usual de ⨀ en ℝ2 . Pero sabemos que ℶ(𝑣⃗) = 〈−𝑣𝑥 , −𝑣𝑦 〉, luego ℶ(𝑎𝑣⃗) = 𝑎ℶ(𝑣⃗).
Observación: a la transformación ℶ se la suele denominar “inversión respecto del origen
coordenado”. Si bien la hemos ejemplificado para ℝ2 , puede extenderse a ℝ𝑛 .
Lema:
Sea 𝑓: 𝑉 → 𝑊 una transformación lineal (V y W dos ℱ–espacios vectoriales). Entonces:
1. Si S es un subespacio vectorial de V, entonces 𝑓(𝑆) es un subespacio de W.
2. Si T es un subespacio vectorial de W, entonces 𝑓 −1 (𝑇) es un subespacio de V.
Demostración:
1. S es un subespacio vectorial de V, con S ⊆ V.
Definamos 𝑓(𝑆) = {𝑤
⃗⃗⃗, 𝑤
⃗⃗⃗ ∈ 𝑊/∃𝑠⃗ ∈ 𝑆, 𝑓(𝑠⃗) = 𝑤
⃗⃗⃗}.
29
Veamos que en efecto se cumplen estas condiciones.
i. ¿ ⃗0⃗𝑊 ∈ 𝑓(𝑆)?
⃗⃗𝑉 ) = ⃗0⃗𝑊 . Como S es un subespacio
En efecto, vimos que en toda transformación lineal 𝑓(0
30
Si 𝑣⃗ ∈ 𝑓 −1 (𝑇), por la definición de 𝑓 −1 (𝑇) se tiene que 𝑓(𝑣⃗) ∈ 𝑇. Luego, debido a que 𝑓 es
una transformación lineal es inmediato que 𝑎⨀𝑊 𝑓(𝑣⃗) = 𝑓(𝑎⨀𝑉 𝑣⃗), por lo cual se sigue que
a⨀𝑉 𝑣⃗ ∈ 𝑓 −1 (𝑇).
Teorema:
Sean V y W dos ℱ–espacios vectoriales, con V de dimensión finita.
Sea 𝐵𝑉 = {𝑒⃗1, 𝑒⃗2 , 𝑒⃗3 , …, 𝑒⃗𝑛 } una base ordenada de V.
Sean 𝑤
⃗⃗⃗1, 𝑤 ⃗⃗⃗3 , …, 𝑤
⃗⃗⃗2 , 𝑤 ⃗⃗⃗𝑛 vectores arbitrarios de W.
Entonces existe una única transformación lineal, 𝑓: 𝑉 → 𝑊, tal que 𝑓(𝑒⃗𝑖 ) =
𝑤
⃗⃗⃗𝑖 para cada i, con 1 ≤ 𝑖 ≤ 𝑛.
Demostración:
a. Existencia.
Conocimientos previos requeridos:
Dado un ℱ-espacio vectorial V de dimensión finita, y una base ordenada de este espacio, 𝐵𝑂𝑉 ,
𝐵𝑂𝑉 = {𝑣⃗1 , 𝑣⃗2 , 𝑣⃗3 , …, 𝑣⃗𝑛 }, existe un conjunto único de escalares 𝑐𝑖 , con 1 ≤ 𝑖 ≤ 𝑛, tales
que:
𝑖=𝑛
31
𝑖=𝑛
𝑓(𝑣⃗) = ∑ 𝑐𝑖 𝑤
⃗⃗⃗𝑖
𝑖=1
Donde los coeficientes son únicos, en cada caso, como se ha dicho antes.
Luego:
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛
𝑎𝑓(𝑣⃗) = 𝑎 ∑ 𝑐𝑖 𝑤
⃗⃗⃗𝑖 = ∑ 𝑎𝑐𝑖 𝑤
⃗⃗⃗𝑖
𝑖=1 𝑖=1
Y como
32
𝑖=𝑛
𝑓(𝑎𝑣⃗) = ∑ 𝑎𝑐𝑖 𝑤
⃗⃗⃗𝑖
𝑖=1
b. Unicidad.
Supongamos que 𝑓 y 𝑔 son dos transformaciones lineales que cumplen las condiciones del
teorema.
𝑓: 𝑉 → 𝑊
𝑔: 𝑉 → 𝑊
Sea 𝑣⃗ = ∑𝑖=𝑛
𝑖=1 𝑐𝑖 𝑒
⃗𝑖 , luego:
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛
Ejemplo:
Dada la transformación 𝑓: ℝ2 → ℝ2 , definida por
33
𝑓(𝑎𝑣⃗1 + 𝑏𝑣⃗2 ) = 𝑎𝑓(𝑣⃗1 ) + 𝑏𝑓(𝑣⃗2 )
Dados 𝑣⃗1 = 〈𝑣1𝑥 ; 𝑣1𝑦 〉 y 𝑣⃗2 = 〈𝑣2𝑥 ; 𝑣2𝑦 〉, de acuerdo a cómo está definida 𝑓 se tendrá:
𝑎𝑓(𝑣⃗1 ) = 𝑎〈2𝑣1𝑥 + 𝑣1𝑦 ; 𝑣1𝑦 − 𝑣1𝑥 〉
𝑏𝑓(𝑣⃗2 ) = 𝑏〈2𝑣2𝑥 + 𝑣2𝑦 ; 𝑣2𝑦 − 𝑣2𝑥 〉
Luego:
𝑎𝑓(𝑣⃗1 ) + 𝑏𝑓(𝑣⃗2 ) = 𝑎〈2𝑣1𝑥 + 𝑣1𝑦 ; 𝑣1𝑦 − 𝑣1𝑥 〉 + 𝑏〈2𝑣2𝑥 + 𝑣2𝑦 ; 𝑣2𝑦 − 𝑣2𝑥 〉
Ahora veamos qué resultado arroja hacer 𝑓(𝑎𝑣⃗1 + 𝑏𝑣⃗2 ).
𝑓(𝑎〈𝑣1𝑥 ; 𝑣1𝑦 〉 + 𝑏〈𝑣2𝑥 ; 𝑣2𝑦 〉) = 𝑓(〈𝑎𝑣1𝑥 + 𝑏𝑣2𝑥 ; 𝑎𝑣1𝑦 + 𝑏𝑣2𝑦 〉)
Luego, por cómo está definida 𝑓
𝑓(𝑎𝑣⃗1 + 𝑏𝑣⃗2 ) = 〈2(𝑎𝑣1𝑥 + 𝑏𝑣2𝑥 ) + 𝑎𝑣1𝑦 + 𝑏𝑣2𝑦 ; 𝑎𝑣1𝑦 + 𝑏𝑣2𝑦 − (𝑎𝑣1𝑥 + 𝑏𝑣2𝑥 )〉
𝑓(𝑎𝑣⃗1 + 𝑏𝑣⃗2 ) = 〈2𝑎𝑣1𝑥 + 2𝑏𝑣2𝑥 + 𝑎𝑣1𝑦 + 𝑏𝑣2𝑦 ; 𝑎𝑣1𝑦 + 𝑏𝑣2𝑦 − 𝑎𝑣1𝑥 − 𝑏𝑣2𝑥 〉
Reagrupando convenientemente, debido a la conmutatividad de ℝ, se tiene:
𝑓(𝑎𝑣⃗1 + 𝑏𝑣⃗2 ) = 〈2𝑎𝑣1𝑥 + 𝑎𝑣1𝑦 + 2𝑏𝑣2𝑥 + 𝑏𝑣2𝑦 ; 𝑎𝑣1𝑦 − 𝑎𝑣1𝑥 + 𝑏𝑣2𝑦 − 𝑏𝑣2𝑥 〉
Factorizando convenientemente, resulta:
𝑓(𝑎𝑣⃗1 + 𝑏𝑣⃗2 ) = 〈𝑎(2𝑣1𝑥 + 𝑣1𝑦 ) + 𝑏(2𝑣2𝑥 + 𝑣2𝑦 ); 𝑎(𝑣1𝑦 − 𝑣1𝑥 ) + 𝑏(𝑣2𝑦 − 𝑣2𝑥 )〉
De lo que se desprende la siguiente re-escritura, de acuerdo a la definición usual de ⊕ℝ2 .
𝑓(𝑎𝑣⃗1 + 𝑏𝑣⃗2 ) = 〈𝑎(2𝑣1𝑥 + 𝑣1𝑦 ); 𝑎(𝑣1𝑦 − 𝑣1𝑥 )〉 + 〈𝑏(2𝑣2𝑥 + 𝑣2𝑦 ); 𝑏(𝑣2𝑦 − 𝑣2𝑥 )〉
Luego, por la definición usual de ⨀ℝ2
𝑓(𝑎𝑣⃗1 + 𝑏𝑣⃗2 ) = 𝑎〈2𝑣1𝑥 + 𝑣1𝑦 ; 𝑣1𝑦 − 𝑣1𝑥 〉 + 𝑏〈2𝑣2𝑥 + 𝑣2𝑦 ; 𝑣2𝑦 − 𝑣2𝑥 〉
Por lo tanto, obtenemos que:
𝑓(𝑎𝑣⃗1 + 𝑏𝑣⃗2 ) = 𝑎𝑓(𝑣⃗1 ) + 𝑏𝑓(𝑣⃗2 )
Dada la base ordenada canónica para ℝ2 , 𝐵ℝ2 = {〈1; 0〉, 〈0; 1〉} el teorema previo garantiza
“existe una única transformación lineal, 𝑓: 𝑉 → 𝑊, tal que 𝑓(𝑒⃗𝑖 ) = 𝑤
⃗⃗⃗𝑖 para cada i, con 1 ≤
𝑖 ≤ 𝑛”.
Por otro lado, sabemos que podemos expresar 〈3, 2〉 como combinación lineal única de
los vectores de la base 𝐵ℝ2 .
〈3, 2〉 = 3〈1; 0〉 + 2〈0; 1〉
Ahora apliquemos 𝑓 a ambos lados del signo =, considerando que 𝑓 es una transformación
lineal:
𝑓(〈3, 2〉) = 𝑓(3〈1; 0〉 + 2〈0; 1〉)
𝑓(〈3, 2〉) = 3𝑓(〈1; 0〉) + 2𝑓(〈0; 1〉)
Reemplacemos 𝑓(〈1; 0〉) y 𝑓(〈0; 1〉) por los obtenidos según definición de 𝑓.
𝑓(〈3, 2〉) = 3〈2; −1〉 + 2〈1; 1〉 = 〈6; −3〉 + 〈2; 2〉 = 〈8; −1〉
En síntesis, hemos visto cómo comienza a operar todo el sistema de definiciones y teoremas
que hemos ido “construyendo”.
Dada una base ordenada 𝐵 = {𝑣⃗𝑖 , 1 ≤ 𝑖 ≤ 𝑛}, todo vector 𝑣⃗ tiene una manera única de
escribirse en esa base (i.e. existe un conjunto único de escalares 𝑐𝑖 tales que 𝑣⃗ = ∑𝑖=𝑛
𝑖=1 𝑐𝑖 𝑣
⃗𝑖 ).
Si 𝑓 es una transformación lineal, 𝑓: 𝑉 → 𝑊, la transformación lineal de todo vector 𝑣⃗, 𝑣⃗ ∈
𝑉, es única y puede escribirse como combinación lineal de la transformada de los vectores
de la base, conservando los escalares 𝑐𝑖 .
𝑖=𝑛
𝑣⃗ = ∑ 𝑐𝑖 𝑣⃗𝑖
𝑖=1
𝑖=𝑛
𝑓(𝑣⃗) = ∑ 𝑐𝑖 𝑓(𝑣⃗𝑖 )
𝑖=1
Definiciones.
Si pensamos a las transformaciones lineales como funciones entre conjuntos, podemos pensar
que es dable tener en cuenta las propiedades y su validez general usuales entre funciones.
Estas propiedades las conocemos, entre otras, como inyectividad, suryectividad, y
35
biyectividad. Pero dado que a las transformaciones lineales las estamos considerando dentro
de las estructuras algebraicas, usaremos nombres que son propios de esta área del álgebra.
Ejemplos:
1. Sea ℘: ℝ3 → ℝ2 , tal que ∀ 𝑣⃗ ∈ ℝ3 , con 𝑣⃗ = 〈𝑣𝑥 , 𝑣𝑦 , 𝑣𝑧 〉, ℘(𝑣⃗) = 〈𝑣𝑥 , 𝑣𝑦 〉.
Obtener el 𝑁𝑢(℘).
36
Solución.
Por definición, 𝑁𝑢(℘) = {𝑣⃗, 𝑣⃗ ∈ ℝ3 /℘(𝑣⃗) = ⃗0⃗ℝ2 }. Es decir:
℘(𝑣⃗) = ℘(〈𝑣𝑥 , 𝑣𝑦 , 𝑣𝑧 〉) = 〈𝑣𝑥 , 𝑣𝑦 〉 = 〈0; 0〉
Luego 𝑣𝑥 = 0 y 𝑣𝑦 = 0. De aquí que 𝑁𝑢(℘) = {〈0, 0, 1〉}. Se observa que en este caso el
núcleo de la transformación lineal ℘ tiene otro elemento además del vector nulo. Debido a
que 𝑣⃗ ∈ ℝ3 , podemos decir que el vector 〈0, 0, 𝑣𝑧 〉 puede ser engendrado a partir del vector
canónico 〈0, 0, 1〉.
Lema:
Sean dos ℱ–espacios vectoriales, (𝑉(ℱ), ⊕𝑉 , ⊙𝑉 ) y (𝑊(ℱ), ⊕𝑊 , ⊙𝑊 ).
Sea 𝑓: 𝑉 → 𝑊 una transformación lineal.
⃗⃗}
𝑓 es un monomorfismo si, y sólo si, 𝑁𝑢(𝑓) = {0
⟹
Si 𝑓 es un monomorfismo, por definición 𝑓 es inyectiva. Y esto, implícitamente, supone que
sólo hay un elemento que cumple con 𝑓(𝑣⃗) = ⃗0⃗. Además sabemos que, dado que 𝑓 es una
⃗⃗𝑉 ) = ⃗⃗
transformación lineal, 𝑓(0 0𝑊 . Luego el núcleo de 𝑓 contiene sólo el elemento ⃗⃗
0.
⟸
Sean 𝑣⃗, 𝑢
⃗⃗ ∈ 𝑉, con 𝑓(𝑣⃗) = 𝑓(𝑢 ⃗⃗) = ⃗0⃗. Equivalentemente, porque 𝑓 es
⃗⃗). Luego 𝑓(𝑣⃗) − 𝑓(𝑢
⃗⃗) = ⃗0⃗. Luego 𝑣⃗ − 𝑢
una transformación lineal, 𝑓(𝑣⃗ − 𝑢 ⃗⃗}
⃗⃗ ∈ 𝑁𝑢(𝑓). Y 𝑁𝑢(𝑓) = {0
37
De los dos ejemplos inmediatamente previos, vemos que la transformación lineal ℘ no es un
monomorfismo y que la transformación lineal ℶ es un monomorfismo. Este lema es muy
importante, en términos de clasificar si las transformaciones lineales son monomorfismos o
no. Es decir, alcanza con conocer cuántos elementos tiene el núcleo de la transformación
lineal además del vector nulo. Si sólo tuviera el vector nulo, se trata de un monomorfismo.
Definición de imagen.
Sean dos ℱ–espacios vectoriales, (𝑉(ℱ), ⊕𝑉 , ⊙𝑉 ) y (𝑊(ℱ), ⊕𝑊 , ⊙𝑊 ).
Sea 𝑓: 𝑉 → 𝑊 una transformación lineal, se definirá como imagen de 𝑓 al conjunto siguiente:
𝐼𝑚(𝑓) = {𝑤
⃗⃗⃗, 𝑤
⃗⃗⃗ ∈ 𝑊/∃𝑣⃗, 𝑣⃗ ∈ 𝑉, 𝑓(𝑣⃗) = 𝑤
⃗⃗⃗}
Observación (importante):
Notar de cada una de las definiciones que: 𝑁𝑢(𝑓) ⊆ 𝑉 e 𝐼𝑚(𝑓) ⊆ 𝑊.
Ahora veremos un teorema de relativa importancia, que permite obtener toda la información
asociada a transformaciones lineales. Primero realizaremos una serie de definiciones, para
cubrir todo el lenguaje usado en la bibliografía.
38
Sean dos ℱ–espacios vectoriales, (𝑉(ℱ), ⊕𝑉 , ⊙𝑉 ) y (𝑊(ℱ), ⊕𝑊 , ⊙𝑊 ).
Sea 𝑓: 𝑉 → 𝑊 una transformación lineal
Definición 1: se denomina nulidad de 𝑓, y se escribe 𝑛𝑢𝑙(𝑓) a la dimensión del núcleo de 𝑓.
Definición 2: se denomina rango de 𝑓, y se escribe 𝑟𝑎𝑛𝑔(𝑓) o 𝑟𝑔(𝑓)a la dimensión de la
imagen de 𝑓.
𝑣⃗ = ∑ 𝑐𝑖 𝑣⃗𝑖
𝑖=1
Si 𝑣⃗ ≠ ⃗⃗
0, sabemos que 𝑓(𝑣⃗) ≠ ⃗⃗
0 (por lema enunciado). Luego 𝑓(𝑣⃗) se escribe como
combinación lineal de 𝑓(𝑣⃗𝑖 ), y la única manera de lograr el vector nulo en esta combinación
39
lineal es que 𝑐𝑖 = 0, ∀𝑖 con 1 ≤ 𝑖 ≤ 𝑛. Luego los vectores 𝑓(𝑣⃗𝑖 ) son linealmente
independientes. Pero por definición de 𝐼𝑚(𝑓) los 𝑛-vectores linealmente independientes
𝑓(𝑣⃗𝑖 ) pertenecen a la imagen de la transformación lineal 𝑓. Luego 𝑑𝑖𝑚[𝐼𝑚(𝑓)] = 𝑛.
Ahora debemos suponer que 1 < 𝑟 < 𝑛.
Sea 𝐵𝑁𝑢(𝑓) = {𝑣⃗1 ; 𝑣⃗2 ; 𝑣⃗3 ; … ; 𝑣⃗𝑟 } una base del núcleo de la transformación lineal 𝑓, por lo
que dim[𝑁𝑢(𝑓)] = 𝑟 < 𝑛.
Sea 𝐵𝑉 = {𝑣⃗1 ; 𝑣⃗2 ; 𝑣⃗3 ; … ; 𝑣⃗𝑟 ; 𝑣⃗𝑟+1 ; 𝑣⃗𝑟+2 ; 𝑣⃗𝑟+3 ; … ; 𝑣⃗𝑛 } una base del espacio vectorial V,
por lo que dim(𝑉) = 𝑛.
Hay que ver que el conjunto de vectores {𝑣⃗𝑟+1 ; 𝑣⃗𝑟+2 ; 𝑣⃗𝑟+3 ; … ; 𝑣⃗𝑛 } es linealmente
independiente y genera a la imagen de la transformación lineal 𝑓.
Que es linealmente independiente es inmediato. Ya habíamos demostrado que cualquier
subconjunto de un conjunto de vectores linealmente independiente es linealmente
independiente.
Por definición de imagen de 𝑓 se tiene:
𝐼𝑚(𝑓) = 〈𝑓(𝑣⃗1 ); 𝑓(𝑣⃗2 ); 𝑓(𝑣⃗3 ); … ; 𝑓(𝑣⃗𝑟 ); 𝑓(𝑣⃗𝑟+1 ); 𝑓(𝑣⃗𝑟+2 ); 𝑓(𝑣⃗𝑟+3 ); … ; 𝑓(𝑣⃗𝑛 )〉
Pero sabemos que 𝑓(𝑣⃗𝑘 ) = ⃗⃗
0 ∀𝑘 con 1 ≤ 𝑘 ≤ 𝑟, porque los 𝑣⃗𝑘 pertenecen al núcleo de la
transformación lineal 𝑓. Por lo que alcanza con que nos quedemos con el conjunto
{𝑓(𝑣⃗𝑟+1 ); 𝑓(𝑣⃗𝑟+2 ); 𝑓(𝑣⃗𝑟+3 ); … ; 𝑓(𝑣⃗𝑛 )}. Ahora debemos ver que este conjunto es una base
de 𝐼𝑚(𝑓).
Supongamos que existen escalares 𝑎𝑖 , con 𝑟 + 1 ≤ 𝑖 ≤ 𝑛 no todos nulos, tal que podemos
escribir al vector nulo como combinación lineal de 𝑓(𝑣⃗𝑖 ):
𝑖=𝑛
⃗0⃗ = ∑ 𝑎𝑖 𝑓(𝑣⃗𝑖 )
𝑖=𝑟+1
⃗⃗ al vector ∑𝑖=𝑛
Llamemos 𝑢 ⃗𝑖 . Luego ⃗0⃗ = 𝑓(𝑢
𝑖=𝑟+1 𝑎𝑖 𝑣 ⃗⃗), por lo tanto 𝑢
⃗⃗ pertenece al núcleo, luego
a𝑢
⃗⃗ lo podemos escribir como una combinación lineal de la base 𝐵𝑁𝑢(𝑓) .
40
𝑖=𝑟
𝑢
⃗⃗ = ∑ 𝑐𝑖 𝑣⃗𝑖
𝑖=1
𝑖=𝑛
𝑢
⃗⃗ = ∑ 𝑎𝑖 𝑣⃗𝑖
𝑖=𝑟+1
Debido a que 𝑢
⃗⃗ = 𝑢
⃗⃗, surge:
𝑖=𝑟 𝑖=𝑛
∑ 𝑐𝑖 𝑣⃗𝑖 = ∑ 𝑎𝑖 𝑣⃗𝑖
𝑖=1 𝑖=𝑟+1
O lo que es equivalente:
𝑖=𝑟 𝑖=𝑛
41
b. 𝑓 es un epimorfismo si, y sólo si, dim(𝑊) = 𝑟𝑔(𝑓).
La demostración es consecuencia inmediata del teorema previo.
Isomorfismos
Dados dos ℱ–espacios vectoriales (𝑉(ℱ), ⊕𝑉 , ⊙𝑉 ) y (𝑊(ℱ), ⊕𝑊 , ⊙𝑊 ) y dada la
transformación lineal 𝑓, 𝑓: 𝑉 → 𝑊, si 𝑓 es isomorfa (i.e. “biyectiva”) se dirá que el espacio
vectorial 𝑉 es isomorfo al espacio vectorial 𝑊 (por abuso de lenguaje se dice que 𝑉 es
isomorfo a 𝑊).
Observación 1:
𝑉 es isomorfo a 𝑉.
Alcanza con ver que la transformación lineal “identidad” conecta isomórficamente 𝑉 con 𝑉.
O, dicho de otra manera, la transformación lineal identidad es isomorfa. Luego por la
definición previa, se tiene un isomorfismo de 𝑉 sobre 𝑉.
A este isomorfismo se lo denomina “isomorfismo trivial”.
Observación 2:
Si la transformación lineal 𝑓: 𝑉 → 𝑊 es isomorfa, es decir 𝑉 es isomorfo a 𝑊, se puede
demostrar que 𝑊 es isomorfo a 𝑉. Es decir, existe una transformación lineal 𝑔: 𝑊 → 𝑉
isomorfa. En particular, se puede definir la aplicación de transformaciones lineales sobre
transformaciones lineales (composición de transformaciones lineales), de lo que resulta
inmediato que 𝑔 = 𝑓 −1 .
Observación 3:
Si la transformación lineal 𝑓: 𝑉 → 𝑊 es isomorfa (𝑉 es isomorfo a 𝑊), y la transformación
lineal 𝑔: 𝑊 → 𝑈 es isomorfa (𝑊 es isomorfo a 𝑈), entonces 𝑉 es isomorfo a 𝑈 (vía
composición 𝑔(𝑓(𝑣⃗)), con 𝑣⃗ ∈ 𝑉 y 𝑓(𝑣⃗) ∈ 𝑊).
Notemos que estas tres observaciones nos permiten decir que un isomorfismo es una relación
de equivalencia sobre la clase de espacios vectoriales. La primera observación cumple la
propiedad de reflexividad, la segunda la de simetría y la tercera la de transitividad.
42
El hecho de que un isomorfismo es una relación de equivalencia, nos permitirá enunciar el
siguiente teorema, del que prescindiremos la demostración.
Corolario 1:
Dado un espacio vectorial de dimensión finita n, V, se puede encontrar otro espacio
vectorial de dimensión n, W, isomorfo a V.
En muchas ocasiones se indica por abuso de lenguaje que V es n-isomorfo a W. Esto quiere
decir que el espacio vectorial 𝑉 de dimensión n es isomorfo al espacio vectorial 𝑊 (también
de dimensión n).
Corolario 2:
Todo ℱ–espacio vectorial de dimensión finita n, V, es isomorfo a ℱ 𝑛 .
En particular sabemos que dado un ℱ-espacio vectorial V de dimensión finita, y una base
ordenada de este espacio, 𝐵𝑂𝑉 , 𝐵𝑂𝑉 = {𝑣⃗1 , 𝑣⃗2 , 𝑣⃗3 , …, 𝑣⃗𝑛 }, existe un conjunto único de
escalares 𝑐𝑖 , con 1 ≤ 𝑖 ≤ 𝑛, tales que:
𝑖=𝑛
43
Matriz asociada a una transformación lineal (representación de transformaciones
lineales por matrices)
Sean dos ℱ–espacios vectoriales (𝑉(ℱ), ⊕𝑉 , ⊙𝑉 ) y (𝑊(ℱ), ⊕𝑊 , ⊙𝑊 ) de dimensión
finita. Sean 𝐵𝑉 = {𝑣⃗1 , 𝑣⃗2 , 𝑣⃗3 , …, 𝑣⃗𝑛 } y 𝐵𝑊 = {𝑤
⃗⃗⃗1 , 𝑤 ⃗⃗⃗3 , …, 𝑤
⃗⃗⃗2 , 𝑤 ⃗⃗⃗𝑚 } bases ordenadas de 𝑉 y
𝑊, respectivamente. Sea 𝑓: 𝑉 → 𝑊 una transformación lineal.
Dado que 𝑓(𝑣⃗𝑖 ) ∈ 𝑊, ∀𝑖 con 1 ≤ 𝑖 ≤ 𝑛, se podrá escribir como una combinación de los
elementos de la base 𝐵𝑊 , es decir:
𝑖=𝑚
𝑓(𝑣⃗1 ) = ∑ 𝑡𝑖,1 𝑤
⃗⃗⃗𝑖 = 𝑡1,1 𝑤
⃗⃗⃗1 + 𝑡2,1 𝑤
⃗⃗⃗2 + 𝑡3,1 𝑤
⃗⃗⃗3 + ⋯ + 𝑡𝑚,1 𝑤
⃗⃗⃗𝑚
𝑖=1
𝑖=𝑚
𝑓(𝑣⃗2 ) = ∑ 𝑡𝑖,2 𝑤
⃗⃗⃗𝑖 = 𝑡1,2 𝑤
⃗⃗⃗1 + 𝑡2,2 𝑤
⃗⃗⃗2 + 𝑡3,2 𝑤
⃗⃗⃗3 + ⋯ + 𝑡𝑚,2 𝑤
⃗⃗⃗𝑚
𝑖=1
𝑖=𝑚
𝑓(𝑣⃗3 ) = ∑ 𝑡𝑖,3 𝑤
⃗⃗⃗𝑖 = 𝑡1,3 𝑤
⃗⃗⃗1 + 𝑡2,3 𝑤
⃗⃗⃗2 + 𝑡3,3 𝑤
⃗⃗⃗3 + ⋯ + 𝑡𝑚,3 𝑤
⃗⃗⃗𝑚
𝑖=1
⋮
𝑖=𝑚
𝑓(𝑣⃗𝑛 ) = ∑ 𝑡𝑖,𝑛 𝑤
⃗⃗⃗𝑖 = 𝑡1,𝑛 𝑤
⃗⃗⃗1 + 𝑡2,𝑛 𝑤
⃗⃗⃗2 + 𝑡3,𝑛 𝑤
⃗⃗⃗3 + ⋯ + 𝑡𝑚,𝑛 𝑤
⃗⃗⃗𝑚
𝑖=1
Es decir:
𝑗=𝑚
𝑓(𝑣⃗𝑘 ) = ∑ 𝑡𝑗,𝑘 𝑤
⃗⃗⃗𝑗
𝑗=1
Esta manera sugestiva de escribir la combinación lineal nos lleva al enunciado del siguiente
teorema:
44
transformación lineal 𝑓: 𝑉 → 𝑊 existe una matriz mxn sobre el cuerpo ℱ, T,
asociada a 𝑓. Además, f → 𝑇 es un isomorfismo entre todas las
transformaciones lineales 𝑓: 𝑉 → 𝑊 y todas las matrices mxn sobre ℱ.
Demostración:
Sin mayores precisiones tomaremos estas ideas intuitivas como “ejemplificación” de la
existencia de tal matriz, a la vez que modelo de su construcción/obtención.
Sabemos que todo elemento del espacio vectorial 𝑉 puede escribirse como combinación
lineal única de los elementos de la base 𝐵𝑉 .
𝑖=𝑛
𝑣⃗ = ∑ 𝑐𝑖 𝑣⃗𝑖
𝑖=1
Luego, aplicamos a ambos lados del signo “=” una transformación lineal 𝑓.
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛
𝑤
⃗⃗⃗ = ∑ 𝑑𝑖 𝑤
⃗⃗⃗𝑖 = 𝑑1 𝑤
⃗⃗⃗1 + 𝑑2 𝑤
⃗⃗⃗2 + 𝑑3 𝑤
⃗⃗⃗3 + ⋯ + 𝑑𝑚 𝑤
⃗⃗⃗𝑚
𝑖=1
45
𝑑1
𝑑2
[𝑤
⃗⃗⃗]𝐵𝑊 → 𝑑3
⋮
[𝑑𝑚 ]
Debido a que 𝑤
⃗⃗⃗ = 𝑤
⃗⃗⃗, se tiene lo siguiente
𝑖=𝑚 𝑖=𝑛
⃗⃗⃗𝑖 = ∑ 𝑐𝑖 𝑓(𝑣⃗𝑖 )
∑ 𝑑𝑖 𝑤
𝑖=1 𝑖=1
𝑓(𝑣⃗𝑘 ) = ∑ 𝑡𝑗,𝑘 𝑤
⃗⃗⃗𝑗
𝑗=1
46
Los coeficientes 𝑡𝑗,𝑘 son las coordenadas del vector 𝑓(𝑣⃗𝑘 ) en la base 𝐵𝑊 . Nuevamente
apelamos al isomorfismo entre 𝑓(𝑣⃗𝑘 ) y [𝑓(𝑣⃗𝑘 )]𝐵𝑊 . Esto es:
𝑡1,𝑘
𝑡2,𝑘
[𝑓(𝑣⃗𝑘 )]𝐵𝑊 → 𝑡3,𝑘
⋮
[𝑡𝑚,𝑘 ]
Volvamos a la siguiente expresión:
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛
𝑓(𝑣⃗𝑖 ) = ∑ 𝑡𝑗,𝑖 𝑤
⃗⃗⃗𝑗
𝑗=1
Luego la reemplazamos:
𝑖=𝑛 𝑖=𝑛 𝑗=𝑚
Además, como
𝑗=𝑚 𝑗=𝑚 𝑖=𝑛
𝑤
⃗⃗⃗ = ∑ 𝑑𝑗 𝑤
⃗⃗⃗𝑗 = ∑ (∑ 𝑡𝑗,𝑖 𝑐𝑖 ) 𝑤
⃗⃗⃗𝑗
𝑗=1 𝑗=1 𝑖=1
∑ 𝑑𝑗 𝑤 ⃗⃗⃗𝑗 = ⃗0⃗
⃗⃗⃗𝑗 − ∑ (∑ 𝑡𝑗,𝑖 𝑐𝑖 ) 𝑤
𝑗=1 𝑗=1 𝑖=1
𝑗=𝑚 𝑖=𝑛
⃗⃗⃗𝑗 = ⃗⃗
∑ [𝑑𝑗 − (∑ 𝑡𝑗,𝑖 𝑐𝑖 )] 𝑤 0
𝑗=1 𝑖=1
Y debido a que 𝑤
⃗⃗⃗𝑗 , ∀𝑗, 1 ≤ 𝑗 ≤ 𝑚, pertenecen a un conjunto linealmente independiente se
sigue que:
47
𝑖=𝑛
𝑑𝑗 = ∑ 𝑡𝑗,𝑖 𝑐𝑖
𝑖=1
Es decir, el escalar
𝑖=𝑛
∑ 𝑡𝑗,𝑖 𝑐𝑖
𝑖=1
𝑑1 𝑐1
𝑑2 𝑐2
𝑑3 = 𝑇 𝑐3
⋮ ⋮
[𝑑𝑚 ] [𝑐𝑛 ]
Ejemplos:
48
1. Sea la transformación lineal ℘, con ℘: ℝ3 → ℝ2 , tal que ∀ 𝑣⃗ ∈ ℝ3 , con 𝑣⃗ = 〈𝑣𝑥 ; 𝑣𝑦 ; 𝑣𝑧 〉,
℘(𝑣⃗) = 〈𝑣𝑥 ; 𝑣𝑦 〉.
Hallar la matriz asociada a ℘ en las bases canónicas de ℝ3 y de ℝ2 .
Solución.
𝐵ℝ3 = {〈1; 0; 0〉; 〈0; 1; 0〉; 〈0; 0; 1〉}; dim(𝐵ℝ3 ) = 3
𝐵ℝ2 = {〈1; 0〉; 〈0; 1〉}; dim(𝐵ℝ2 ) = 2
Luego la matriz 𝑇 asociada a la transformación lineal ℘ pertenece a ℝ2𝑥3 .
℘(〈1; 0; 0〉) = 〈1; 0〉 = 1〈1; 0〉 + 0〈0; 1〉
℘(〈0; 1; 0〉) = 〈0; 1〉 = 0〈1; 0〉 + 1〈0; 1〉
℘(〈0; 0; 1〉) = 〈0; 0〉 = 0〈1; 0〉 + 0〈0; 1〉
Recordamos lo siguiente:
𝑡1,𝑘
𝑗=𝑚 𝑡2,𝑘
𝑓(𝑣⃗𝑖 ) = ∑ 𝑡𝑗,𝑖 𝑤
⃗⃗⃗𝑗 𝑒𝑞𝑢𝑖𝑣𝑎𝑙𝑒𝑛𝑡𝑒 𝑎 [𝑓(𝑣⃗𝑘 )]𝐵𝑊 → 𝑡3,𝑘
𝑗=1 ⋮
[𝑡𝑚,𝑘 ]
𝑑1 𝑡11 𝑡12 𝑡13 ⋯ 𝑡1𝑛 𝑐1
𝑑2 𝑡21 𝑡22 𝑡23 ⋯ 𝑡2𝑛 𝑐2
𝑑3 = 𝑡31 𝑡32 𝑡33 ⋯ 𝑡3𝑛 𝑐3
⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮
[𝑑𝑚 ] [𝑡𝑚1 𝑡𝑚2 𝑡𝑚3 ⋯ 𝑡𝑚𝑛 ] [𝑐𝑛 ]
Al hacer el producto
𝑣𝑥
1 0 0 𝑣
¿?= [ ] [ 𝑦]
0 1 0 𝑣
𝑧
49
𝑣𝑥
𝑣𝑥 1 0 0 𝑣
[𝑣 ] = [ ] [ 𝑦]
𝑦 0 1 0 𝑣
𝑧
Al hacer el producto
−1 0 𝑣𝑥
¿?= [ ][ ]
0 −1 𝑣𝑦
Vemos que efectivamente
−𝑣𝑥 −1 0 𝑣𝑥
[−𝑣 ] = [ ][ ]
𝑦 0 −1 𝑣𝑦
Lema:
Si la transformación lineal 𝑓: 𝑉 → 𝑉 es un isomorfismo (i.e. biyectiva), entonces la matriz 𝑇
asociada a 𝑓 es invertible.
Para demostrar este lema recurriremos a la definición de composición de transformaciones
lineales.
50
Definición.
Sean (𝑉(ℱ), ⊕𝑉 , ⊙𝑉 ), (𝑊(ℱ), ⊕𝑊 , ⊙𝑊 ) y (𝑍(ℱ), ⊕𝑍 , ⊙𝑍 ) tres ℱ–espacios
vectoriales.
Sean 𝑓: 𝑉 → 𝑊 y 𝑔: 𝑊 → 𝑍 dos transformaciones lineales.
Se definirá la composición de transformaciones lineales de la siguiente manera:
(𝑔𝑜 𝑓)(𝑣⃗⃗) ≡ 𝑔(𝑓(𝑣⃗))
La composición de transformaciones lineales es una transformación lineal.
a. (𝑔𝑜 𝑓)(𝑣⃗⃗+𝑢⃗⃗) ≡ 𝑔(𝑓(𝑣⃗ + 𝑢
⃗⃗))
𝑔(𝑓(𝑣⃗ + 𝑢
⃗⃗)) = 𝑔(𝑓(𝑣⃗) + 𝑓(𝑢
⃗⃗)) porque 𝑓 es una transformación lineal.
𝑔(𝑓(𝑣⃗ + 𝑢
⃗⃗)) = 𝑔(𝑓(𝑣⃗)) + 𝑔(𝑓(𝑢
⃗⃗)) porque 𝑔 es una transformación lineal.
b. (𝑔𝑜 𝑓)(𝑎𝑣⃗⃗) ≡ 𝑔(𝑓(𝑎𝑣⃗))
𝑔(𝑓(𝑎𝑣⃗)) = 𝑔(𝑎𝑓(𝑣⃗)) porque 𝑓 es una transformación lineal.
𝑔(𝑓(𝑎𝑣⃗)) = 𝑎𝑔(𝑓(𝑣⃗)) porque 𝑔 es una transformación lineal.
Luego (𝑔𝑜 𝑓)(𝑣⃗⃗) es una transformación lineal.
Observación:
Sabemos que la transformación lineal ℶ, con ℶ: ℝ2 → ℝ2 , tal que ∀ 𝑣⃗ ∈ ℝ2 , con 𝑣⃗ =
⃗⃗}. Luego, a partir del
〈𝑣𝑥 , 𝑣𝑦 〉, ℶ(𝑣⃗) = 〈−𝑣𝑥 , −𝑣𝑦 〉, es un monomorfismo, porque 𝑁𝑢(ℶ) = {0
teorema de la dimensión, sabemos que ℶ es un epimorfismo, por lo tanto, la transformación
lineal ℶ es isomórfica. Y esto es intuitivo, dado que la aplicación sucesiva de ℶ invierte dos
veces respecto del origen (vuelve al “sistema” a su estado original, para expresarlo e términos
físicos).
Veamos:
ℶ(𝑣⃗) = 〈−𝑣𝑥 ; −𝑣𝑦 〉
ℶ(ℶ(𝑣⃗)) = ℶ(〈−𝑣𝑥 ; −𝑣𝑦 〉) = 〈−(−𝑣𝑥 ); −(−𝑣𝑦 )〉 = 〈𝑣𝑥 ; 𝑣𝑦 〉
51
Luego ℶ2 = ℶ(ℶ(𝑣⃗)) ≡ (ℶo ℶ) = 𝑰 (donde 𝑰 es la transformación lineal identidad).
Vemos, también, que:
−1 0 −1 0 1 0
[ ][ ]=[ ]
0 −1 0 −1 0 1
Este caso es uno de los casos excepcionales en los que la matriz al cuadrado da como
resultado la matriz identidad. Esto significa que la propia matriz es su inversa.
3. Sea la transformación lineal ℛ: 𝑉 → 𝑊 que implica una rotación 𝜋/2 en sentido anti-
horario. Obtener la matriz asociada a ℛ para:
3.a- 𝑉 = 𝑊 = ℝ2 , para la base canónica 𝐵ℝ2 = {〈1; 0〉; 〈0; 1〉}.
3.b- 𝑉 = 𝑊 = ℝ2 , para la base ordenada 𝐵𝑉 = {〈1; 0〉; 〈0; 1〉}, y 𝐵𝑊 = {〈1; 1〉; 〈−1; 0〉}
3.c- 𝑉 = 𝑊 = ℝ2 , para la base ordenada 𝐵𝑉 = 𝐵𝑊 = {〈1; 1〉; 〈−1; 0〉}.
Solución.
3.a-
Es fácil, pensando en los ejes coordenados cartesianos canónicos, ver que:
ℛ(〈1; 0〉) = 〈0; 1〉 = 0〈1; 0〉 + 1〈0; 1〉
ℛ(〈0; 1〉) = 〈−1; 0〉 = (−1)〈1; 0〉 + 0〈0; 1〉
Luego la matriz 𝑇 resulta:
0 −1
𝑇=[ ]
1 0
Generalización: puede demostrarse que en la base ordenada canónica 𝐵ℝ2 , la transformación
lineal ℛ𝜃 : ℝ2 → ℝ2 , donde 𝜃 es el ángulo de rotación arbitrario antihorario, tiene asociada
la matriz de rotación:
cos(𝜃) −𝑠𝑒𝑛(𝜃)
𝑇=[ ]
𝑠𝑒𝑛(𝜃) cos(𝜃)
3.b-
Nuevamente, es fácil ver que:
ℛ(〈1; 0〉) = 〈0; 1〉 = 𝑎〈1; 1〉 + 𝑏〈−1; 0〉 = 〈𝑎 − 𝑏; 𝑎〉
ℛ(〈0; 1〉) = 〈−1; 0〉 = 𝑐〈1; 1〉 + 𝑑〈−1; 0〉 = 〈𝑐 − 𝑑; 𝑐〉
La matriz 𝑇 es:
𝑎 𝑐
𝑇=[ ]
𝑏 𝑑
52
Resolviendo 〈0; 1〉 = 〈𝑎 − 𝑏; 𝑎〉, y 〈−1; 0〉 = 〈𝑐 − 𝑑; 𝑐〉, se tiene que
1 0
𝑇=[ ]
1 1
3.c-
Recurriendo nuevamente a la idea cartesiana, podemos obtener las rotaciones pedidas.
ℛ(〈1; 1〉) = 〈−1; 1〉 = 𝑎〈1; 1〉 + 𝑏〈−1; 0〉 = 〈𝑎 − 𝑏; 𝑎〉
ℛ(〈−1; 0〉) = 〈0; −1〉 = 𝑐〈1; 1〉 + 𝑑〈−1; 0〉 = 〈𝑐 − 𝑑; 𝑐〉
La matriz 𝑇 es:
𝑎 𝑐
𝑇=[ ]
𝑏 𝑑
Resolviendo 〈−1; 1〉 = 〈𝑎 − 𝑏; 𝑎〉 y 〈0; −1〉 = 〈𝑐 − 𝑑; 𝑐〉 se tiene
1 −1
𝑇=[ ]
2 −1
Definición
Por último, vamos a definir el espacio vectorial de las transformaciones lineales a partir de
los siguientes considerandos:
Dados dos ℱ–espacios vectoriales (𝑉(ℱ), ⊕𝑉 , ⊙𝑉 ) y (𝑊(ℱ), ⊕𝑊 , ⊙𝑊 ) y dada la
transformación lineal 𝑓, 𝑓: 𝑉 → 𝑊,
ℒ(𝑉; 𝑊) = {𝑓: 𝑉 → 𝑊}
ℒ(𝑉; 𝑊) es un espacio vectorial con las siguientes operaciones: si 𝑓 y 𝑔 pertenecen a
ℒ(𝑉; 𝑊),
a. (𝑓 + 𝑔)(𝑣⃗) ≡ 𝑓(𝑣⃗) + 𝑔(𝑣⃗) para todo 𝑣⃗ que pertenece a 𝑉.
b. (𝑐𝑓)(𝑣⃗) ≡ 𝑐(𝑓(𝑣⃗)) para todo 𝑣⃗ que pertenece a 𝑉 y para todo 𝑐 que pertenece a ℱ.
53