Академический Документы
Профессиональный Документы
Культура Документы
1 Números complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1 Antecedentes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Definiciones y Propiedades Fundamentales. . . . . . . . . . . . . . . . . . . . . . 2
1.3 La unidad imaginaria i. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4 Interpretación geométrica, módulo y argumento. Forma Polar. . . . 8
1.5 Exponenciales complejos y teorema de DeMoivre . . . . . . . . . . . . . . 13
1.6 Polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.1 Definiciones básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2 Operaciones Básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.3 Propiedades de las operaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.4 Clasificación de las Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.5 Matriz Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.5.1 Operaciones Elementales Renglón. . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.5.2 Métodos de reducción de Gauss y de Gauss-Jordan . . . . . . . . . 59
2.5.3 Cálculo de la Inversa de una Matriz. . . . . . . . . . . . . . . . . . . . . . . . . . 68
2.6 El Determinante de una matriz cuadrada. . . . . . . . . . . . . . . . . . . . . . . 71
2.7 La matriz Adjunta. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
6
El presente material contiene apuntes básicos del curso de Álgebra Lineal estructurados
con base en el programa de estudios del Tecnológico Nacional de México. El texto está
dirigido a estudiantes de nivel superior, que cursan alguna de las ingenierías que se ofertan
en el TecNM.
El libro está compuesto por cinco capítulos que abarcan los conocimientos básicos de un
curso tradicional de Álgebra Lineal con el enfoque de resolución de problemas. El primer
capítulo aborda el estudio de los números complejos, sus operaciones y propiedades; en el
segundo capítulo se estudian las matrices, es decir, la realización de arreglos bidimensionales
de números ordenados en filas y columnas para realizar diferentes tipos de operaciones
matemáticas; el capítulo tres está dedicado a los sistemas de ecuaciones lineales, con dos
o más ecuaciones con varias incógnitas y los métodos de solución. En el capítulo cuatro
denominado espacios vectoriales se aborda desde su definición hasta productos internos y el
capítulo cinco está centrado en cinco transformaciones lineales especiales sobre los espacios
vectoriales permitiendo visualizar su efecto gráficamente, en el plano y en el espacio.
A diferencia de muchos libros de texto de matemáticas, que se enfocan en demostracio-
nes formales y desarrollos sofisticados, la exposición del contenido del presente libro se
encuentra enfocada principalmente en la resolución de problemas con ejemplos inéditos,
aplicando los teoremas y definiciones, como fruto de la labor y experiencia docente dentro
del aula con estudiantes de ingeniería. En este sentido el lector no encontrará demostraciones
tradicionales, sino ejemplos completamente desarrollados haciendo notoria la aplicación de
las definiciones, teoremas y proposiciones, y son expuestos de manera natural como parte
del contenido.
12
La obra se encuentra estructurada de tal forma que facilita al lector encontrar los distintos
elementos temáticos, así pues, se utiliza un formato particular para cada tipo de contenido,
por ejemplo, el lector encontrará todos los teoremas encuadrados en un marco especial
como se muestra en la figura 1a, mientras que las definiciones poseen también su propia
representación como se distingue en la figura 1b.
Los autores.
1 — Números complejos
1.1 Antecedentes.
Al inicio de los estudios que una persona realiza, uno de primeros conceptos adquiridos
es “número”. De hecho el primer conjunto de “números” estudiado es aquel que nos sirve
para contar objetos materiales, los números naturales: N = {1, 2, 3, ...} y con ello inicia
nuestra formación matemática. Habiendo conocido este conjunto también definimos la
primera operación que podemos realizar con este conjunto de números: la suma.
Ahora que podemos sumar, deseamos “deshacer” esta operación y por ello definimos la
operación inversa a la suma: la resta, sin embargo esta última presenta problemas cuando
nos topamos con cosas del tipo: 4 − 8 =? dado que la respuesta no tiene explicación sobre
el conjunto de números naturales que conocemos hasta ese momento. Es entonces cuando
pasamos al siguiente nivel en los números: los enteros: Z = {0, ±1, ±2, · · · }.
Posteriormente se define una nueva operación que nos permite simplificar las sumas
extensas: la multiplicación, 2 + 2 + 2 + 2 = 4 × 2 = 8, y nuevamente nos enfrentamos al
problema de “deshacer” aquellos resultados que obtenemos con esta nueva operación. Esto
nos lleva a la definición de la operación inversa a la multiplicación: la división. Sin embargo
esta nueva operación nos presenta un nuevo tipo de problemas dado que divisiones del tipo
8 8
4 tienen respuesta dentro de Z pero divisiones del tipo 3 no lo tienen.
Para resolver el problema anterior definimos un nuevo conjunto de números, los racio-
nales1 : Q = { ba |b 6= 0}. Y este conjunto resuelve el problema anterior.
Creamos una nueva operación que no ayudará a simplificar la multiplicación: 2 × 2 ×
2 × 2 = 24 . Y de la misma manera que en los conjuntos anteriores también buscamos una
operación “inversa” a la potenciación, la radicación, y esta nos llevará ante la necesidad de
1 En realidad el conjunto de los racionales se define con ayuda de relaciones de equivalencia pero este no
es el objetivo de este curso, por lo cual bastará con la definición dada
2 Números complejos
√
definir un nuevo conjunto de números, esto debido a que expresiones del tipo 2 no tienen
explicación dentro del conjunto de los números racionales. Esto nos ayuda para definir a los
números irracionales.
Hasta este punto hemos mostrado de manera superficial aquellos problemas que han
planteado la necesidad de definir a los diferentes conjuntos de números hasta llegar al con-
junto universalmente conocido, los reales: R. Sin embargo quedaba pendiente un problema
que no se resolvía con√ ayuda de los irracionales, puesto que a pesar de poder explicar√
expresiones del tipo 2, aún no existía una explicación lógica para el resultado de −1.
Iniciaremos a partir de este punto para definir el siguiente nivel dentro de los conjuntos de
números, los complejos.
Como se verá más adelante, existen diferentes formas de representar a los números
complejos, sin embargo partiremos de la definición anterior.
Ejemplo 1.1
Debemos observar que esta definición nos plantea las reglas de las operaciones básicas
de números complejos. Por ejemplo, si queremos sumar el complejo (1, −1) con el
1.2 Definiciones y Propiedades Fundamentales. 3
(a, b) + (c, d) = (a + c, b + d)
(1, −1) + (5, 3) = (1 + 5, −1 + 3)
= (6, 2).
Teorema 1.1
Las operaciones de suma y multiplicación de números complejos satisfacen las leyes aso-
ciativa, conmutativa y distributiva. Es decir, si x, y, z son números complejos arbitrarios,
tenemos lo siguiente:
Ley asociativa: x + (y + z) = (x + y) + z y x(yz) = (xy)z.
Ley conmutativa: x + y = y + x y xy = yx.
Ley distributiva: x(y + z) = xy + xz.
Hay que remarcar que en este teorema las variables x, y, z representan números comple-
jos y que dichas propiedades deberían expresarse con los símbolos usados para complejos,
por ejemplo, supongamos que tenemos:
x = (a1 , b1 )
y = (a2 , b2 )
z = (a3 , b3 )
Teorema 1.2
Existen 2 propiedades más dentro del conjunto de los complejos:
Existencia de los neutros:
• (Aditivo) ∃0 ∈ C tal que ∀x ∈ C, x + 0 = x.
• (Multiplicativo) ∃1 ∈ C tal que ∀x ∈ C, x · 1 = x.
Existencia de los inversos:
• (Aditivo) ∀x ∈ C, ∃ − x ∈ C tal que x + (−x) = 0.
• (Multiplicativo) ∀x 6= 0 ∈ C, ∃x−1 ∈ C tal que x · (x−1 ) = 1.
ac − bd = 1, ad + bc = 0
con esto observamos que los elementos de C0 se comportan “como si fueran números
reales”. De hecho podemos formalizar esta observación si definimos una función biyectiva
f : R → C dada por f (a) = (a, 0) para toda a ∈ R, con la cual es fácil probar que el conjunto
de los números reales es un subconjunto de los números complejos (bajo isomorfismo),
R ⊂ C, (podemos afirmar que R es un subcampo de C). Así podemos pensar en el sistema
de los números complejos como una extensión del sistema de los números reales.
Esta propiedad anterior del número complejo i nos permite formar la siguiente lista:
i0 = 1
i1 = i
i2 = −1
i3 = (i2 )i = (−1)i = −i
i4 = (i3 )i = (−i)i = −(i2 ) = −(−1) = 1
i5 = (i4 )i = (1)i = i
i6 = (i5 )i = (i)i = i2 = −1
..
.
Ejemplo 1.2
A continuación mostramos algunos ejemplos de cómo usar las potencias de i para
simplificar operaciones:
1. i6 + i4 + i2 + 1 = 1 − 1 + 1 − 1 = 0.
2. Si queremos calcular i350 , empezamos dividiendo 350 entre 4:
87
i350 = i4 (i)2
= i2
= −1
3.
1 2 1
i10 + = i2 i4 + 2
i10 (i4 ) i2
1
= −1 +
−1
= −2
Teorema 1.3
Cada complejo (a, b) puede ser expresado en la forma a + bi. Esta representación recibe
el nombre de“forma binomial”
Ejemplo 1.3
Vamos a mostrar algunas operaciones con los números complejos usando la forma
binomial:
1. √ √
4 + −16 − 2 + −9 = 4i − 3i + 4 − 2
= i+2
1.3 La unidad imaginaria i. 7
2.
(3 + 4i)(5 − 5i) = (3)(5) + (3)(−5i) + (4i)(5) + (4i)(−5i)
= 15 − 15i + 20i − 20i2
= 15 + 5i + 20
= 35 + 5i
3.
[(−2 + 8i) + (5 − 6i)] + (2 − 3i)(2 + 3i) = −2 + 8i + 5 − 6i + 4 + 9i2
= 7 + 2i − 9
= −2 + 2i
4.
(4 + 2i)(4 − 2i) = 16 − 4i2
= 16 + 4
= 20
En el último ejemplo podemos observar una característica que nos permitirá redefinir la
forma de relizar las divisiones de números complejos en forma binomial:
(a + bi)(a − bi) = a2 + b2
Esto quiere decir que:
(a, b)−1 = a
, −b
a2 +b2 a2 +b2
1
= a2 +b2
(a, −b)
entonces
(a + bi)−1 = 1
a2 +b2
(a − bi)
1
= (a+bi)(a−bi) (a − bi)
luego en la división tenemos:
c+di
a+bi = (c + di)(a + bi)−1
1
= (c + di)( (a+bi)(a−bi) (a − bi))
c+di
= a+bi · a−bi
a−bi
Ahora bien, es claro que esta última expresión es mucho más fácil de recordar que la
fórmula que aplicamos para hallar el inverso multiplicativo de un número complejo. Veamos
un ejemplo de su uso:
Ejemplo 1.4
1+i 1 + i 1 + 2i
= ·
1−i 1 − 2i 1 + 2i
8 Números complejos
(1 + i)(1 − 2i)
=
(1 − 2i)(1 + 2i)
3+i
= 2
1 + 22
3+i
= .
5
Hx,yL
i yÈÈ
x+
y=r SenHΑL
r =ÈÈ
Α
x=r CosHΑL
x
z1 +z2
z2
z1
z1 -z2
x = rCosθ , y = rSenθ
y con ello obtenemos:
x + iy = r(Cosθ + iSenθ ).
Esta última expresión es conocida como la representación de los números complejos
en la forma trigonométrica (o polar). Obsérvese que lo único que debemos hacer para
cambiar un número escrito en forma trigonométrica a la forma binomial es simplemente
evaluar las funciones trigonométricas dadas y multiplicar por el valor r.
10 Números complejos
Ejemplo 1.5
Vamos √
a calcular el módulo y el argumento de los siguientes complejos:
1. ( 3, 1)
Para calcular el módulo sustituimos en la fórmula:
√ q√
k( 3, 1)k = ( 3)2 + 12 = 2
Y el argumento sería:
√
1
Arg( 3, 1) = ArcTan √ = 30◦
3
√
2. (− 3, 1)
Para calcular el módulo sustituimos en la fórmula:
√ q √
k(− 3, 1)k = (− 3)2 + 12 = 2
√
1
Arg(− 3, 1) = 180◦ + ArcTan √ = 180◦ + (−30◦ ) = 150◦
− 3
3. (−2, −2)
Para calcular el módulo sustituimos en la fórmula:
q √ √
k(−2, −2)k = (−2)2 + (−2)2 = 8 = 2 2
Teorema 1.4
Sea z un número complejo y |z| su norma (valor absoluto), entonces
|z| > 0 si z 6= 0.
|z1 − z2 | = |z2 − z1 |.
|z1 + z2 | ≤ |z1 | + |z2 |.
|z1 z2 | = |z1 ||z2 |.
| zz12 | = |z|z12 || .
Ejemplo 1.6
A continuación calculamos el conjugado de algunós números complejos:
Complejo Conjugado
z = 2 + 2i z = 2 − 2i
z = −3 − i z = −3 + i
z = 5i z = −5i
z=4 z=4
√ √
1 3 1 3
z= − 2 2 i z= + 2 2 i
Teorema 1.5
Sea z un número complejo y sea z su conjugado, entonces:
z1 + z2 = z1 + z2 .
z1 z2 = z1 z2 .
(z1 /z2 ) = z1 /z2 .
zz = |z|2 .
ez = ex (Cos(y) + iSen(y)).
Cabe señalar que la fórmula anterior cuenta con una demostración que justifica su validez,
sin embargo dicha demostración se escapa de los objetivos del presente material, por lo
cual tomaremos la fórmula como válida y la aplicaremos para el cálculo de operaciones con
números complejos
Ejemplo 1.7
De acuerdo con la definición anterior podemos reescribir:
Esta definición resulta de gran utilidad para demostrar un teorema muy conocido: El
teorema de D’Moivre, el cual se presenta a continuación y nos permite calcular fácilmente
potencias de números complejos.
Con ayuda de este último teorema, conocido como el teorema de D’Moivre, podemos
inclusive calcular las raíces de cualquier número complejo, de hecho la fórmula para calcular
cualquier raíz está dada por el siguiente teorema.
Teorema 1.7
Si n es cualquier número entero y positivo, y r y α son, respectivamente, el módulo y el
argumento de cualquier número complejo, entonces:
Ejemplo 1.8
Vamos a calcular (1 + i)6 , para ello primero calculamos la representación trigonométrica
de este complejo. p √
k1 + ik = 12 + 12 = 2
1
Arg(1 + i) = ArcTan = 45◦
1
√
entonces 1 + i = 2 (Cos(45◦ + iSen(45◦ ))) , con lo cual:
h√ i6
(1 + i)6 = 2 (Cos(45◦ + iSen(45◦ )))
√
= ( 2)6 (Cos(6 · 45◦ + iSen(6 · 45◦ ))
= 8 (Cos(270◦ ) + iSen(270◦ ))
= 8(0 − i) = −8i
Por única ocasión, para verificar este resultado podemos multiplicar el complejo para
hallar la potencia deseada, así entonces:
3
(1 + i)6 = (1 + i)2
y como podemos observar el resultado que obtuvimos con el uso del teorema anterior
coincide con el resultado obtenido multiplicando el complejo hasta calcular la potencia
deseada.
1.6 Polinomios 15
Teorema 1.8
Si a y b son complejos, tenemos:
ea eb = ea+b
Teorema 1.9
Cada complejo z 6= 0 puede ser expresado en la forma:
z = reiθ
z1 z2 = r1 eiθ r2 eiφ = r1 r2 eθ +φ .
1.6 Polinomios
Los números complejos se pueden usar para dar solución a todas las ecuaciones alge-
braicas que se puedan definir a partir de polinomios, de hecho el teorema fundamental del
Álgebra establece que cualquier polinomio con coeficientes complejos tiene al menos una
raíz que puede ser real o complejo, en la última sección de este capítulo veremos un breve
repaso de la teoría básica de polinomios y las raíces de ecuaciones polinómicas.
a0 + a1 x + ... + an xn
donde a0 , a1 , ..., an son números complejos. A estos números se les llama coeficientes
del polinomio. Al símbolo x se le llama indeterminada. a0 , a1 x, ..., an xn son los términos
del polinomio. Los coeficientes ai pueden ser todos reales, en cuyo caso decimos que se
trata de un polinomio con coeficientes reales, o pueden ser todos racionales (o enteros),
y diremos entonces que el polinomio tiene coeficientes racionales (o enteros).
f (α) = a0 + a1 α + ... + an α n
∑ ai b j .
i+ j=n
Proposición 1.6.1
El grado de la suma de dos polinomios no nulos es menor o igual que el máximo de los
grados de los sumandos.
Proposición 1.6.2
El grado del producto de dos polinomios no nulos es la suma de los grados de los
factores.
Proposición 1.6.3
Sea f (x) cualquier polinomio y sea g(x) un polinomio no nulo. Existen dos únicos
polinomios, q(x) y r(x), que satisfacen las condiciones siguientes:
1. f (x) = g(x)q(x) + r(x).
2. grado de r(x) < grado de g(x).
Los polinomios q(x) y r(x) son el cociente y el residuo respectivamente. Los polinomios
f (x) y g(x) son el dividendo y el divisor, respectivamente.
Se dice que a es raíz de f (x) si f (a) = 0. A las raíces de f (x) también se les llama
ceros de f (x). Las raíces de f (x) son las soluciones de la ecuación f (x) = 0, entendiendo
por ecuación una ecuación que solo es verdadera si en lugar de x se ponen ciertos números
a los cuales llamamos soluciones de la ecuación.
Proposición 1.6.4
Sea f (x) un polinomio y sea a ∈ C. Existen un polinomio q(x) (cociente) y r ∈ C (resto),
tales que
f (x) = (x − a)q(x) + r.
Además q(x) y r son únicos.
18 Números complejos
La diferencia entre las dos últimas propociciones reside en el uso de números complejos
para determinar las soluciones y factorizaciones de los polinomios.
Aquí bn−1 = an y cada número del renglón inferior se obtiene sumando los números
que están por encima de él. El residuo es r y el cociente es:
bn−1 xn−1 + bn−2 xn−2 + ... + b1 x + b0
Ejemplo 1.9
Sea P(x) = 3x3 − 12x2 + 3x + 18
(a) Determine el cociente y el residuo cuando P(x) se divide entre x − 2.
1.6 Polinomios 19
2 3 -12 3 18
6 -12 -18
3 -6 -9 0
Teorema 1.11
P(c) = 0 si y sólo si x − c es un factor de P(x).
Ejemplo 1.10
Aplicaremos los resultados anteriores para resolver los siguientes problemas:
(a) Sea P(x) = x3 − 4x2 + x + 6. Demuestre que P(−1) = 0, y utilice este hecho para
factorizar completamente a P(x).
(b) Obtenga un polinomio F(x) de grado 4 que tenga como ceros −3, 0, 1 y 5.
Solución (a). Para calcular P(−1) calculamos la división sintética del polinomio
P(x) entre x + 1 = x − (−1):
-1 1 -4 1 6
-1 5 -6
1 -5 6 0
5±1
⇒x=
2
5+1 5−1
⇒ x1 = = 3, x2 = = 2,
2 2
con lo cual
P(x) = (x + 1)(x − 2)(x − 3).
Solución (b). Si las ráices del polinomio son x − 3, 0, 1 y 5, esto quiere decir que
x − (−3), x − 0, x − 1 y x − 5 dividen al polinomio buscado, con lo cual:
Ejemplo 1.11
Factorice el polinomio P(x) = 2x3 + x2 − 13x + 6.
De acuerdo con el teorema anterior, los ceros racionales del polinomio son de la
forma qp , donde los valores posibles para p y q son los divisores de 6 y 2 respectivamente,
entonces:
p : 1, 2, 3, −1, −2, −3
q : 1, 2, −1, −2
Para determinar las raices del polinomio usaremos el teorema del residuo, es decir,
buscaremos valores de p y q tales que P(p/q) = 0. A continuación se muestran algunos
1.6 Polinomios 21
de estos casos:
1
= 2(13 ) + (12 ) − 13(1) + 6
P 1 = −4
1 3 2
= 2 12 + 12 − 13 12 + 6 = 0
P 2
con lo cual entonces x − 12 divide al polinomio P(x). Ahora aplicamos división sintéti-
ca:
1/2 2 1 -13 6
1 1 -6
2 2 -12 0
y entonces:
1
P(x) = x − (2x2 + 2x − 12)
2
Por último factorizamos el polinomio 2x2 +2x −12 = 2(x2 +x −6) usando la fórmula
general de la ecuación de segundo grado y concluimos que:
1
P(x) = 2 x − (x + 3)(x − 2).
2
Teorema 1.13
Sea f (x) un polinomio de grado n > 0 con coeficientes complejos. Existen n números
complejos α1 , α2 , ..., αn , no necesariamente diferentes dos a dos, y un número compljeo
c tales que
f (x) = c(x − α1 )(x − α2 ) · · · (x − αn )
además esta factorización es única.
22 Números complejos
Definición 1.12
α es raíz de multiplicidad m del polinomio f (x) de grado positivo si (x − α)m divide a
f (x) pero (x − α)m+1 no lo divide.
Teorema 1.14
Todo polinomio de grado n ≥ 1 tiene exactamente n ceros, siempre y cuando un cero de
multiplicidad k sea contado k veces.
Ejemplo 1.12
Determine la factorización completa y los cinco ceros del polinomio P(x) = 3x5 + 24x3 +
48x.
Primero tenemos que:
1.6 Polinomios 23
Ejemplo 1.13
Obtenga un polinomio de grado 4 con ceros i, −i, 2 y -2, y con P(3) = 25.
Sabemos que el polinomio será de la forma
más aún como las raíces deben ser i, −i, 2 y −2, entonces:
Ejemplo 1.14
Obtenga un polinomio P(x) de grado 3 que tenga coeficientes enteros y ceros 21 y 3 − i.
De acuerdo con el teorema de las raíces conjugadas la tercera raíz del polinomio será
el conjugado de 3 − i es decir, 3 + i, y entonces el polinomio se formará con el producto:
13x2
1
P(x) = x − (x − (3 − i))(x − (3 + i)) = x3 − + 13x − 5
2 2
2 — Matrices
Definición 2.1
Una matriz sobre un campo F es un arreglo rectangular de elementos del campo F,
ordenados en filas y columnas (para los objetivos del presente material, se considerará
que F = R o bien F = C y en la mayoría de los casos se tomará F = R).
26 Matrices
Ejemplo 2.1
Como se puede observar, la definición no especifica el número de filas ni de columnas
necesarias para formar una matriz, esto implica que se pueden formar diferentes tipos de
matrices, eligiendo el número de filas y columnas que deseemos.
Podemos formar matrices con una sola fila y varias columnas (tres en siguiente
caso):
2 −3 1 .
También podemos formar matrices con una sola columna y varias filas (cuatro en
el siguiente ejemplo):
3
0
1/2
2
En general podemos formar matrices con cualquier número de filas y de columnas,
por ejemplo una matriz con 3 renglones y 2 columnas sería:
2 −3
0 −1
9 4
Definición 2.2
Dependiendo del número de filas o de columnas que las constituyen, las matrices se
denominan como:
matriz renglón, si sólo posee una fila;
matriz columna, si solo posee una columna;
matriz cuadrada, si la matriz tiene igual número de filas que de columnas, o
matriz rectangular, si el número de filas y de columnas de la matriz no coincide.
Además las matrices renglón (columna) también pueden ser interpretadas como
vectores en algún espacio Rn .
Ejemplo 2.2
La matriz !
5 −7 9
A=
5 0 −3
pertenece al conjunto M2×3 (R), mientras que la matriz
2 7i
B= 1 − i 1 + i
9i −5
pertenece al conjunto M3×2 (C). Además podemos referenciar a las distintas componentes
de estas matrices usando la simbología ai j , así por ejemplo, el elemento a22 , es el
componente de la matriz A, que se encuentra en la fila 2 y columna 2, es decir a22 = 0;
mientras que b22 = 1 + i.
Definición 2.3
El orden de una matriz (o dimensión de la matriz) se representa como n × m y co-
rresponde al número de filas y columnas que posee respectivamente, así entonces, una
matriz de la forma
a11 a12 ... a1m
21 a22 ... a2m
a
A= . .. . . ..
.. . . .
an1 an2 ... anm
es denominada matriz de orden n × m.
Definición 2.4
Se llama diagonal principal de una matriz A a la diagonal formada por los elementos
aii .
cumplen en estas operaciones. Antes de empezar con las operaciones, conviene primero
aclarar bajo qué condiciones dos matrices serán iguales, la siguiente definición aborda este
punto.
Igualdad
Definición 2.5
Diremos que dos matrices A y B son iguales si tienen la misma dimensión y sus
correspondientes elementos son iguales; es decir si A y B ∈ Mm×n (F) y si A = [ai j ], B =
[bi j ], con ai j = bi j para 1 ≤ i ≤ m, 1 ≤ j ≤ n.
Ejemplo 2.3
En general, para que dos matrices sean iguales, ambas matrices deben ser del mismo
orden y además deben tener los mismos componentes en las mismas posiciones, es decir,
no basta con que los elementos que componen a las matrices sean los mismos, sino que
además deben estar en las mismas posiciones, por ejemplo, las matrices
1 1 1
1 1 1 1
21 31 14
2 3 4 5
A= 1 1 1 1 B = 3 4 5
3 4 5 6 1 1 1
1 1 1 1 4 5 6
4 5 6 7 1 1 1
5 6 7
no son iguales, puesto que a pesar estan compuestas por los mismos números, estos no
se encuentran en la misma posición y además el orden de ambas no coincide.
Suma
Definición 2.6
Sean A = [ai j ] y B = [bi j ] matrices de igual dimensión. Entonces A + B es la matriz
obtenida al sumar los correspondientes elementos de A y B; es decir
es decir,
a a · · · a1m b b · · · b1m
11 12 11 12
21 a22 · · · a2m b21 b22 · · · b2m
a
+ = ···
. .. . . ..
.. . . . ... ..
.
.. ..
. .
an1 an2 · · · anm bn1 bn2 · · · bnm
2.2 Operaciones Básicas 29
a + b11 a12 + b12 · · · a1m + b1m
11
a + b
21 21 a22 + b22 · · · a2m + b2m
··· =
.. .. .. ..
. . . .
an1 + bn1 an2 + bn2 · · · anm + bnm
En pocas palabras, para sumar dos matrices la suma se realiza coordenada a coordenada,
es por ello que se impone la condición de igualdad del orden para las matrices que se deseen
sumar.
Ejemplo 2.4
Si
1 1 1 1 1 2 3 4
2 3 4 5 2 3 4 5
A= 1 1 1 1 B= −1 −1 −1 −1
3 4 5 6 3 4 5 6
1 1 1 1 1 1 1 1
4 5 6 7 4 5 6 7
Entonces, de acuerdo con lo anterior:
1 1 1 1
A+B =
0 0 0 0
2 2 2 2
4 5 6 7
0 0 ... 0
0 0 ... 0
0n×m =
.... . . ..
. . . .
0 0 ... 0
Se puede observar que de acuerdo con la definición, para cada conjunto de matrices
Mn×m (R) existe un neutro aditivo en dicho conjunto, es decir, existen diferentes tipos de
matrices cero dependiendo del orden de matrices con el estemos trabajando.
Ejemplo 2.5
En el conjunto de matrices reales de orden 3 × 2, (M3×2 (R)), el neutro aditivo es:
0 0
03×2 = 0 0
0 0
Es fácil ver que esta matriz cumple que para cualquier A ∈ M3×2 (R) :
a11 a12 0 0 a11 a12
A + 03×2 = a 21 a 22
+ 0 0 = a21 a22 = A
a31 a32 0 0 a31 a32
Definición 2.8
Sea A = [ai j ]. Entonces −A es la matriz obtenida al reemplazar los elementos de A por
sus inversos aditivos; es decir
−A = −[ai j ] = [−ai j ],
o bien
a11 a12 ... a1n −a11 −a12 ... −a1n
a a22 ... a2n −a −a ... −a
21 21 22 2n
−A = − . =
.. .. .. .. ..
.. .. ..
. . . . . . .
am1 am2 am2 amn −am1 −am2 ... −amn
2.2 Operaciones Básicas 31
Ejemplo 2.6
Sea A ∈ M3×3 (R) :
1 −2 0
A= 2
3 4 3
0 − 21 5
entonces
−1 2 0
−A = 2
−
3 −4 −3
1
0 2 −5
o bien:
a11 a12 ... a1n b11 b12 ... b1n
21 a22 ... a2n 21 b22 ... b2n
a b
− . = ···
. .. .. .. .. . . .
.. . . . .. . . ..
am1 am2 am2 amn bm1 bm2 ... bmn
32 Matrices
a − b11 a12 − b12 ... a1n − b1n
11
a −b a22 − b22 ... a2n − b2n
21 21
··· =
.. .. ... ..
. . .
am1 − bm1 am2 − bm2 ... amn − bmn
Ejemplo 2.7
Sean !
3 −6 −2
A= ,
3 1 5
y !
−3 5 8
B=
−6 0 4
entonces
! !
3 − (−3) −6 − 5 −2 − 8 6 −11 −10
A−B = =
3 − (−6) 1−0 5−4 9 1 1
Definición 2.10
Sea A = [ai j ] y t ∈ F(recordemos que el campo puede ser R, o bien C)a . Entonces tA
es la matriz obtenida de multiplicar todos los elementos de A por t; es decir
tA = t[ai j ] = [tai j ],
o bien
a11 a12 · · · a1m ta11 ta12 · · · ta1m
a21 a22 · · · a2m 21 ta22 · · · ta2m
ta
t = .
.. .. . . . .. .. ..
. .. ..
. . . . .
an1 an2 · · · anm tan1 tan2 · · · tanm
a en este caso decimos que t es un escalar
2.2 Operaciones Básicas 33
Ejemplo 2.8
Sean
−1 6 −2
A= 3 yt =2
5 4 4
0 1 2
Entonces
2 · (−1) 2 · (6) 2 · (−2) −2 12 −4
3
2 · (4) = 10 32
tA = 2 · (5) 2 · 4
8
2 · (0) 2 · (1) 2 · (2) 0 2 4
Sea !
−1 6
A= ,
4 2
entonces ! !
−1 6 1 −6
−1 · A = −1 · = = −A
4 2 −4 −2
En general es fácil ver que este resultado se repite para cualquier matriz de cualquier
orden. De aquí podemos establecer la siguiente proposición:
Proposición 2.2.1
Sea A ∈ Mn×m (R), entonces
−1 · A = −A,
es decir, el producto de una matriz por el escalar -1 produce el inverso aditivo de la
matriz.
Multiplicación
Definición 2.11
Sean A = [ai j ] una matriz de tamaño m × n y B = [b jk ] una matriz de tamaño n × p; (es
decir, el número de columnas de A es igual al número de renglones de B). Entonces
definimos la multiplicación AB como la matriz de m × p, C = [ci j ] donde los elementos
(i, j) están definidos por la fórmula
n
cik = ∑ ai j b jk = ai1b1k + ... + ainbnk
j=1
34 Matrices
Ejemplo 2.9
Vamos a multiplicar dos matrices: A, B ∈ M2×2 (R). De acuerdo con la definición el
resultado será una matriz C de orden 2 × 2. Sean:
! ! !
1 2 5 6 c11 c12
= .
3 4 7 8 c21 c22
Es decir:
! ! ! !
1 2 5 6 1×5+2×7 1×6+2×8 19 22
= =
3 4 7 8 3×5+4×7 3×6+4×8 43 50
La fórmula para el cálculo del producto de dos matrices puede parecer complicada,
sin embargo es posible reinterpretarla considerando el producto de filas y columnas de la
siguiente manera.
Supongamos que
a11 a12 · · · a1m b11 b12 · · · b1p
21 a22 · · · a2m 21 b22 · · · b2p
a b
A= . .. . . .. , y que B = ,
.. ... .. . . ..
. . . . . .
an1 an2 · · · anm bm1 bm2 · · · bmp
a11 a12 · · · a1m b b12 · · · b1p c11 c12 · · · c1p
11
a21 a22 · · · a2m b
21 b22 · · · b2p c21 c22 · · · c2p
· . = .
.. .. . . . .. ... .. .. .. . . ..
. .. ..
. . . .
. . . .
an1 an2 · · · anm bm1 bm2 · · · bmp cn1 cn2 · · · cnp
a11 a12 ... a1m
a21 a22 ... a2m b11 b12 ... b1 j ... b1p
∗ ∗ ··· ∗ ··· ∗
.. .. . . .
. .. b21 b22 ... b2 j ... b2p ∗ ∗ ··· ∗ ··· ∗
. . ·
=
.. .. . . . .. .. .. .. . . . ..
. .. . ci j . .
ai1 ai2 ... aim . . . . . . .
.. .. .
..
. . . ..
bm1 bm2 ... bm j ... bmp ∗ ∗ ··· ∗ ... ∗
an1 an2 ... anm
a11 a12 · · · a1m b11 b12 · · · b1p c11 ∗ · · · ∗
a21 a22 · · · a2m 21 b22 · · · b2p
b ∗ ∗ ··· ∗
· . = ,
.. .. . . . .. . . .. .. .. . .
. .. ..
. . . . .
. . . ∗
an1 an2 · · · anm bm1 bm2 · · · bmp ∗ ∗ ··· ∗
es decir
b11
b21
c11 = a11 a12 · · · a1m · . = a11 b11 + a12 b21 + ... + a1m bm1
..
bm1
Ejemplo 2.10
Sean
! !
0 1 1 4 −2
A= y B=
2 3 3 0 4
! ! ! !
0 1 1 4 −2 (0)(1) + (1)(3) ∗ ∗ 3 ∗ ∗
· = = ,
2 3 3 0 4 ∗ ∗ ∗ ∗ ∗ ∗
Para c22 :
! ! ! !
0 1 1 4 −2 3 0 4 3 0 4
· = = .
2 3 3 0 4 11 (2)(4) + (3)(0) ∗ 11 8 ∗
Para finalizar:
! ! ! !
0 1 1 4 −2 3 0 4 3 0 4
· = = .
2 3 3 0 4 11 8 (2)(−2) + (3)(4) 11 8 8
Es fácil ver que esta forma de multiplicar las matrices coincide con la definición dada. De
hecho este método sólo es una técnica para recordar fácilmente cuáles son las operaciones
que se deben realizar en una multiplicación de matrices.
En general podemos decir que la matriz identidad juega un papel equivalente al del 1 en
la multiplicación.
Ejemplo 2.11
La matriz identidad es una matriz que tiene puros 1’s en la diagonal principal.
A continuación se muestran algunos ejemplos:
!
1 0
I2 =
0 1
Ejemplo 2.12
Como mencionamos anteriormente, la matriz identidad cumple que al multiplicarse por
cualquier matriz (con la que sea conformable), el resultado será la misma matriz que se
multiplicón, por ejemplo:
! ! !
1 0 −1 −4 3 −1 −4 3
=
0 1 1 −2 −5 1 −2 −5
Nótese que en ambos casos se multiplicó por una matriz identidad, aunque no la
38 Matrices
misma, ya que las dimensiones necesarias para que sea conformable pueden llegar a
variar dependiendo del lado por que se realice la multiplicación.
En particular para matrices cuadradas se tiene que la matriz identidad funciona en
ambos sentidos:
−5 −1 −5 1 0 0 1 0 0 −5 −1 −5 −5 −1 −5
1 2 4 0 1 0 = 0 1 0 1 2 4 = 1 2 4
1 −4 −4 0 0 1 0 0 1 1 −4 −4 1 −4 −4
(A + B) +C = A + (B +C)
y entonces
! ! !
−2 4 8 4 5 2 2 9 10
(A + B) +C = + = ,
6 4 −2 −5 −1 −1 1 3 −3
y luego sumar A :
! ! !
−1 3 4 3 6 6 2 9 10
A + (B +C) = + =
1 4 −5 0 −1 2 1 3 −3
Ejemplo 2.14
Para ilustrar la propiedad asociativa, vamos a mostrar un ejemplo de aplicación de ésta:
Sean
! ! −4 0
5 −1 −3 −3 −4
A= B= yC= −1 −1 .
−1 3 −2 0 −2
0 2
Primero vemos que es posible realizar los productos (AB)C y A(BC), ya que A es de
orden 2 × 2, B es de orden 2 × 3 y C es de orden 3 × 2. Entonces empezamos verificando
la propiedad asociativa:
(AB)C = A(BC),
calculando la expresión indicada en el lado izquierdo (AB)C y de aquí calculamos
primero, como se indica, el producto AB :
!
−13 −15 −18
AB = ,
−3 3 −2
luego entonces:
! −4 0 !
−13 −15 −18 67 −21
(AB)C = −1 −1 = .
−3 3 −2 9 −7
0 2
y luego ! ! !
5 −1 15 −5 67 −21
A(BC) = = ,
−1 3 8 −4 9 −7
con lo cual se comprueba que A(BC) = (AB)C.
A pesar de que tenemos las propiedades anteriores, una propiedad que es común en
42 Matrices
AB = BA
Ejemplo 2.15
A continuación mostramos un ejemplo de que la multiplicación de matrices no es
conmutativa. Sean
2 −2 1 −1 −2 0
A= 0 2
1 , B = 0 −1 1
,
2 1 −2 −1 −2 2
entonces
−3 −4 0
AB =
−1 −4 ,
4
0 −1 −3
mientras que:
−2 −2 −3
BA =
2 ,
−1 −3
2 0 −7
con lo cual se observa claramente, en este caso, que AB 6= BA.
Ejemplo 2.16
A continuación se muestra una matriz triangular superior:
1 4 2
0 3 4 ,
0 0 1
como se puede observar, los elementos por debajo de la diagonal superior de la matriz
son cero. Como se observa en este caso, no importa qué valores se coloquen sobre la
diagonal principal ni por arriba de esta.
Cuando el arreglo de números se invierte al caso anterior obtenemos una matriz
triangular inferior, por ejemplo:
1 0 0
2 8 0 ,
4 9 7
en este caso, los elementos por arriba de la diagonal principal serán cero.
Ejemplo 2.17
Las siguientes matrices son matrices diagonales:
!
1 0
0 4
3 0 0
0 −2 0
0 0 0
En el segundo caso se muestra una matriz diagonal, en la cual uno de los elementos
de la diagonal principal es cero.
Ejemplo 2.18
Una matriz escalar sería:
2 0 0
0 2 0 ,
0 0 2
en este caso el escalar sería 2, ya que es el elemento que aparece en la diagonal principal
de la matriz.
Ejemplo 2.19
La matriz !
1 0
A=
0 1
se puede considerar como una matriz periódica ya que con un periodo k = 2, se tiene
2.4 Clasificación de las Matrices 45
que:
!2 !
1 0 1 0
A2 = = =A
0 1 0 1
Ejemplo 2.20
Para la siguiente matriz, con p = 2 se puede demostrar que A p = 0 :
2
0 −8 0 0 0 0
0
0 0
= 0 0 0 ,
0 5 0 0 0 0
Ejemplo 2.21
!2 !
1 0 1 0
=
0 1 0 1
Ejemplo 2.22
!2 !
−1 0 1 0
=
0 1 0 1
La matriz transpuesta se puede obtener intercambiando las filas por las columnas de una
matriz dada.
Ejemplo 2.23
! !
1 2 1 3
A= → At =
3 4 2 4
1 2 3 1 4 7
→ Bt = 2 5 8 .
B=
4 5 6
7 8 9 3 6 9
Ejemplo 2.24
1 2 3 1 2 3
→ At = 2 0 5 = A
A=
2 0 5
3 5 6 3 5 6
2.4 Clasificación de las Matrices 47
4 −5 2 4 −5 2
t
B = −5 0 3 → B = −5 0 3
= B.
2 3 9 2 3 9
Ejemplo 2.25
0 −2 4 0 2 −4 0 −2 4
t
A= 2
0 2 → A = −2 0 −2 = − 2
0 2 = −A.
−4 −2 0 4 2 0 −4 −2 0
Ejemplo 2.26
!
1+i 2 − 3i
A= .
2 − 4i 3 + 8i
Ejemplo 2.27
2+i 3 −1 + 4i 2−i 3 −1 − 4i
c
A=
4−i 5 −2 − 2i
→ A = 4 + i 5 −2 + 2i .
1 3 − i 1 + 3i 1 3 + i 1 − 3i
Ejemplo 2.28
! ! !
3 2+i 3 2−i ct 3 2+i
A= → Ac = →A = = A.
2−i 1 2+i 1 2−i 1
Ejemplo 2.29
! !
i 2+i −i 2−i
A= → Ac = → ...
−2 + i 3i −2 − i −3i
! !
ct −i −2 − i i 2+i
··· → A = =− = −A.
2−i −3i −2 + i 3i
Ejemplo 2.30
√1 √1 √1 − √12
A= 2 2 → At = 2
− √12 √1
2
√1
2
√1
2
!
√1 √1 √1 − √12 1 0
A ∗ At = 2 2 ∗ 2 = .
− 12
√ √1
2
√1
2
√1
2
0 1
AA−1 = A−1 A = In .
Ejemplo 2.31
La matriz
−2 −3 0
A = −3 −3 1
,
4 2 −3
50 Matrices
entonces
7 −9 −3 −2 −3 0 1 0 0
−1
A A = −5 6
2 −3 −3 1 = 0 1 0
,
6 −8 −3 4 2 −3 0 0 1
Supongamos que A es una matriz invertible, ¿cuántas inversas podría tener A?, es decir,
si A es invertible sabes que hay al menos una matriz B tal que AB = I = BA, pero aún no
sabemos cuántas de estas hay en total.
Supongamos que A es una matriz cuadrada para la cual existen dos matrices adicionales
B1 y B2 , las cuales cumplen que B1 A = AB1 = I y B2 A = AB2 = I. Por la definición anterior,
A sería una matriz invertible, ya que B1 y B2 serían sus inversas y además:
Esto quiere decir que B1 = B2 , con lo cual tenemos como resultado el siguiente teorema.
Teorema 2.3
Si A es una matriz invertible, entonces su inversa es única y se representa por A−1 .
Determinar si una matriz dada es invertible o no, es un trabajo que necesita más herra-
2.5 Matriz Inversa 51
donde
f Ri , R j
representa una fórmula que involucra los renglones Ri y R j y cuyo resultado se va a colocar
en el renglón Ri de la matriz A. Por ejemplo:
(R1 + R2 ) → R1 ,
aplicado a la matriz !
2 −1
A= ,
5 0
significa que el resultado de la operación (R1 + R2 ) (la suma del renglon 1 mas el renglón
2) lo vamos a colocar en R1 (el renglón 1) de la matriz A dejando el resto de las matrices sin
cambio. Simbólicamente lo representamos como:
! !
2 −1 (R1 +R2 )→R1 7 −1
−−−−−−−→
5 0 5 0
Estas operaciones son importantes por que nos permitirán reducir a las matrices hasta
una forma más "simple", en particular, estamos interesados en reducirlas a la identidad, para
que a partir de ello podamos encontrar el inverso multiplicativo de matrices.
Como podrá observar, dentro de la lista de propiedades que se cumplen para las ope-
raciones de matrices, no hablamos de la existencia de los inversos multiplicativos, esto es
debido a que esta propiedad no se cumple en general para todas las matrices.
Para estudiar la propiedad de existencia del inverso multiplicativo, vamos a definir
3 tipos diferentes de fórmulas que podemos usar sobre las matrices, estas son llamadas
52 Matrices
R1 R1
... ...
(kR j +Ri )→Ri
Ri −−−−−−−−→ k ∗ R j + Ri
... ...
Rm Rm
Ejemplo 2.32
A continuación mostramos algunos ejemplos de la aplicación de estas operaciones
elementales. Sea:
−2 2 −5
3 4 −4
A= −2 −5
.
−1
3 −2 −5
Podemos intercambiar los renglones 2 y 3 (tipo I):
−2 2 −5 −2 2 −5
3 4 −4 R2 ↔R3 −2 −5 −1
−2 −5 −1 −−−−→ 3
4 −4
3 −2 −5 3 −2 −5
1 1
5
− R1 = − −2 2 −5 = 1 −1 2
,
2 2
luego este resultado lo colocamos en el primer renglón de la matriz A. Simbólicamente
representamos esta operación como:
−2 2 −5 1 −1 52
1
3 4 −4 − 2 R1 →R1 3 4 −4
−2 −5 −1 −−−−−−→ −2 −5 −1
3 −2 −5 3 −2 −5
Por último, para mostrar una operación tipo III, vamos a multiplicar el renglón 2 por
el escalar -1 y se lo sumaremos al renglón 4:
54 Matrices
−1R2 + R4 = −1 3 4 −4 + 3 −2 −5
= −3 −4 4 + 3 −2 −5
= 0 −6 −1 ,
luego este resultado sustituye al renglón 4 de la matriz, dejando el resto de los renglones
sin cambiar. Simbólicamente se escribe como:
−2 2 −5 −2 2 −5
3 4 −4 −1R2 +R4 →R4 3
−−−−−−−−→ 4 −4
−2 −5 −1 .
−2 −5 −1
3 −2 −5 0 −6 −1
Para que esta última operación sea válida, debemos colocar el resultado final de la
suma en alguno de los dos renglones involucrados, generalmente en el renglón que no se
multiplicó por escalar.
Definición 2.31
Dada una matriz A cualquiera decimos que B es equivalente a A si podemos transformar
A en B mediante una combinación finita de las operaciones elementales renglón
Ejemplo 2.33
En el ejemplo anterior y de acuerdo con la definición dada, cada una de las matrices
obtenidas con las operaciones realizadas son equivalentes a la matriz A, es decir, las tres
matrices:
5
−2 2 −5 1 −1 2 −2 2 −5
−2 −5 −1 4 −4 4 −4
; A2 = 3 ; A3 = 3
A1 = ,
3
4 −4
−2 −5 −1
−2 −5 −1
3 −2 −5 3 −2 −5 0 −6 −1
2.5 Matriz Inversa 55
−2 2 −5
3 4 −4
son equivalentes por renglón a la matriz A =
−2 −5 −1
3 −2 −5
Las operaciones elementales renglón se pueden usar para hallar la matriz inversa de una
matriz invertible sencilla.
Ejemplo 2.34
Sea: !
0 2
A=
1 2
Intentamos determinar una matriz, representada por A−1 , tal que A−1 A = I2 , es decir,
si !
x y
A−1 = ,
z w
entonces se busca que: ! ! !
x y 0 2 1 0
= .
z w 1 2 0 1
Para determinar esta matriz vamos aplicar las siguientes operaciones elementales
renglón a la matriz A en forma consecutiva:
Operación 1: R1 ↔ R2
Operación 2: 12 R2 → R2
Operación 3: −2R2 + R1 → R1
En forma simbólica tenemos:
! ! ! !
0 2 R1 ↔R2 1 2 21 R2 →R2 1 2 −2R2 +R1 →R1 1 0
A= −−−−→ A1 = −−−−−→ A2 = −−−−−−−−→ A3 = .
1 2 0 2 0 1 0 1
es decir A1 = E1 A : ! ! !
0 1 0 2 1 2
= .
1 0 1 2 0 1
La segunda operación ( 12 R2 → R2 ) se puede realizar multiplicando la matriz A1 por
!
1 0
E2 = ,
0 1/2
es decir A2 = E2 A1 : ! ! !
1 0 1 2 1 2
1
= .
0 2 0 2 0 1
Por último la tercera operación se puede obtener multiplicando por
!
1 −2
E3 = ,
0 1
es decir, A3 = E3 A2 :
! ! !
1 −2 1 2 1 0
=
0 1 0 1 0 1
E1 A E2 A1 E3 A2
A / A1 / A2 / A3
Donde Op1, Op2 y Op3 son las operaciones elementales renglón que se usaron para
transformar la matriz A en la identidad y las flechas verticales apuntado hacia arriba y
hacia abajo implican que los resultados mostrados son iguales.
Resumiendo, hemos obtenido la matriz identidad por medio de la aplicación sucesiva
de operaciones elementales renglón. Equivalentemente también se obtuvieron los mismos
2.5 Matriz Inversa 57
I2 = A3
= E3 A2 (se sustituyó el valor de A3 )
= E3 (E2 A1 ) (se sustituyó el valor de A2 )
= E3 (E2 (E1 A)) (se sustituyó el valor de A1 )
= (E3 E2 E1 )A (se reagruparon los factores).
Este último resultado implica que la matriz que se obtiene del producto E3 E2 E1
cumple el mismo papel que el de la inversa de la matriz A. Es decir:
A−1 = E3 E2 E1
! ! !
1 −2 1 0 0 1
=
0 1 0 1/2 1 0
!
1 1
= .
− 12 0
Con lo cual:
! ! ! ! !
0 2 1 1 1 1 0 2 1 0
= =
1 2 − 21 0 − 12 0 1 2 0 1
Ejemplo 2.35
Las siguientes son ejemplos de matrices elementales (renglón):
1 0 0 1 0 0
0 1 0
R2 ↔ R3 0 0 1
0 0 1 0 1 0
! !
1 0 4 0
4R1 → R1
0 1 0 1
1 0 0 0 1 0 0 0
0 1 0 0 0 1 0 2
0 0 1 0
2R4 + R2 → R2
0
0 1 0
0 0 0 1 0 0 0 1
Teorema 2.4
Sea A una matriz cuadrada, Op una operaación elemental y E la matriz elemental
producida por Op. Si A1 es el resultado obtenido al aplicar la operación Op a A,
entonces A1 = EA, en forma de diagrama se tiene que:
2.5 Matriz Inversa 59
Op
AO / A1
O
EA /
A A1
Aquí las flechas verticales representan la igualdad de los elementos señalados.
Ejemplo 2.36
Esta es una matriz en forma escalonada.
0 2 −1
0 0 8 .
0 0 0
Matriz en forma escalonada, aunque sin renglones cero:
2 3 0
0 −3 0 .
0 0 1
60 Matrices
Como mencionamos anteriormente, existen dos métodos que nos ayudan a convertir
matrices en formas más “simples”, es decir, estos dos métodos convierten matrices a las
formas escalonada o escalonada reducida definidas anteriormente, estos métodos son:
1. Método de Gauss: Convierte la matriz en una escalonada.
2. Método de Gauss-Jordan: Convierte la matriz en una forma escalonada reducida.
Como ya se mostró anteriormente, si podemos convertir a una matriz en forma escalona-
da reducida y además ésta forma coincide con la identidad, entonces la matriz original es
invertible y podemos hallar su inversa por medio de las operaciones realizadas. Por ello los
dos algoritmos listados anteriormente son importantes.
A continuación listamos los pasos del algoritmo de reducción de Gauss para transformar
cualquier matriz a una forma escalonada:
Ejemplo 2.37
A continuación se muestra un ejemplo de la aplicación del método de Gauss para convertir
a la matriz en una matriz escalonada. Podemos representar el proceso completo en el
siguiente esquema.
0 4 −8 2 4 −2
R1 ↔R2 − 12 R1 +R3 →R3
2 4 −2 − −−−→ 0 4 −8 −
−−−−−−−→ · · ·
1 6 4 1 6 4
2 4 −2 2 4 −2
−1R2 +R3 →R3
· · · → 0 4 −8 −−−−−−−−→ 0 4 −8
.
1 6 4 0 0 13
Por ocasión especial explicaremos paso a paso el procedimiento empleado para entender
mejor el algoritmo.
1. Empezamos seleccionando como renglón pivote, el renglón 1. De aquí el elemento
pivote (el primer elemento diferente de cero) quedaría en la segunda columna.
0 4 −8
2 4 −2
1 6 4
En este caso a21 = 0, por lo cual únicamente falta convertir al elemento a31 = 1 en
cero, para ello empleamos una operación elemental renglón tipo III.
2 4 −2 2 4 −2
− 21 R1 +R3 →R3
0 4 −8 −−−−−−−−→ 0 4 −8
1 6 4 0 4 5
4. Con esto hemos terminado de tabajar con el renglón 1, por lo cual ahora cambiamos
al renglón 2, el cual será el renglón pivote. Entonces el elemento pivote ahora será
el elemento a2,2 = 4
2 4 −2
0 4 −8
0 4 5
5. Usaremos a este pivote para convertir en cero al único elemento que se encuentra
debajo de él. Para ello aplicamos una operación tipo III:
2 4 −2 2 4 −2
−1R2 +R3 →R3
0 4 −8 − −− −−− −−→ 0 4 −8
0 4 5 0 0 13
Con este último paso hemos conseguido llegar a una matriz escalonada
2 4 −2
0 4 −8
0 0 13
Para lograr convertir en cero a los elementos que se encuentran debajo de algún pivote
bastará dividir el inverso aditivo del elemento que se quiere eliminar, entre el elemento
pivote que se está empleando. Por ejemplo, supongamos que tenemos una matriz de la
forma:
∗ ∗ ∗ ··· ∗
. . .. .. ..
.. .. . . .
∗ · · · a i j ··· ∗
.. .. .. .. ,
..
. . . . .
∗ · · · a ··· ∗
kj
∗ ··· ∗ ··· ∗
2.5 Matriz Inversa 63
Ejemplo 2.38
Suponga que en la siguiente matriz, vamos a usar el pivote a11 para eliminar a los
elementos a21 y a31
−1 −4 −5 −5
A= 2 −1 ,
−3 −1
−5 4 −4 2
de acuerdo con la observación anterior, debemos aplicar las operaciones de la forma
a
− aki jj Ri + R j → R j . Para el elemento a21 , quedaría en la forma − aa21
11
R1 + R2 → R2 .
Sustituyendo los valores:
−1 −4 −5 −5 −1 −4 −5 −5
− 2 R1 +R2 →R2
2 −1 −3 −1 −−−1
−−−−−−−→ 0 −9 −13 −11 ,
−5 4 −4 2 −5 4 −4 2
Es fácil ver que el proceso de conversión de una matriz a una forma escalonada se
puede realizar de diferentes maneras, así por ejemplo, en el caso anterior se puede hacer una
variación en el paso 2 al intercambiar los renglones 1 y 3 de la matriz dada, con lo cual se
obtendría otra matriz diferente, pero también sería escalonada. Es decir, podemos realizar el
siguiente proceso de conversión:
0 4 −8 1 6 4
R1 ↔R3 −2R1 +R2 →R2
2 4 −2 −−− −→ 2 4 −2 −
−−−−−−−→ · · ·
1 6 4 0 4 −8
1 6 4 1 6 4
48 R2 +R3 →R3
··· →
2 4 −2 −−−−−−−→ 0 −8 −10
0 4 −8 0 0 −13
64 Matrices
Proposición 2.5.1
Sea A una matriz, entonces existen diferentes matrices escalonadas que son equivalentes
por filas a la matriz A.
Ejemplo 2.39
A continuación se muestra otro ejemplo de aplicación del método de Gauss
2 −1 −3 2 −1 −3
−2R1 +R2 →R2 12 R1 +R3 →R3
4 −2 −6 − − −− −−−−→ 0 0 0 −−−−−−−→ · · ·
1 1
−1 2 2 −1 2 2
2 −1 −3 2 −1 −3
R2 ↔R3
··· → 0 0 1
0 −−−−→ 0 0
2
1
0 0 2 0 0 0
En este caso obtenemos una matriz escalonada que posee un renglón de puros ceros,
el cual necesitamos intercambiar para colocarlo en la parte inferior de la matriz.
Observe que en el tercer paso del método anterior, no se especifican las operaciones que
se deben emplear, en su lugar se deja abierta la posibilidad de emplear cualquier operación
de tipo III que convenga, sin embargo no es dificil descubrir que las operaciones que
a
debemos aplicar serán de la forma − aki jj Ri + R j → R j , donde el elemento ak j es el que se
encuentra por encima del pivote ai j , y es el elemento que se desea convertir en cero.
2.5 Matriz Inversa 65
Ejemplo 2.40
Empezamos el proceso de Gauss-Jordan, aplicado a la matriz
2 −1 −3
A= 4 2 −6
−1 12 4
1 − 12 − 32 1 − 21 − 32
25 R3 →R3
··· → 0
1 0 −−−−−→ 0
1 .
0
5
0 0 2 0 0 1
Posteriormente vamos a usar los pivotes, para eliminar los elementos que se encuen-
tren por encima de ellos, para ello aplicaremos operaciones elementales renglón tipo
III.
Para eliminar al elemento a12 , usamos el pivote del segundorenglón (a22 = 1), con
la operación −a12 R2 + R1 → R1 , que en este caso sería − − 12 R2 + R1 → R1 , o bien,
considerando los signos negativos: 12 R2 + R1 → R1 :
1 − 21 − 32 1 0 − 3
2
( 21 )R2 +R1 →R1
0 1
0 −−−−−−−−−→ 0 1 0
,
0 0 1 0 0 1
66 Matrices
con esto hemos terminado de usar al pivote a22 , ya que no hay más elementos que
convertir a cero. Ahora tomamos al pivote a33 y lo usamos para convertir en cero
únicamente al elemento a13 (ya que el elemento a23 ya es cero) para ello usaremos la
operación −a13 R3 + R1 → R1 (en este caso nuevamente hay que considerar los signos
negativos):
3
1 0 −2 1 0 0
( 23 )R3 +R1 →R1
0 1 0 −
−−−−−−−−→ 0 1 0
0 0 1 0 0 1
1
1 − 12 − 32 1
1 − 12 − 23 2
1 3
1 −2 −2
2 R1 →R1 4 R2 →R2 5 R3 →R3
−−−−−→ 0
4 0 −−−−−→ 0
1 0 −−−−−→ 0 1
0 → ···
5 5
0 0 2 0 0 2 0 0 1
1
1 0 − 23 3
1 0 0
2 R2 +R1 →R1 2 R3 +R1 →R1
−−−−−−−→ 0 1
0 −−−−−−−→ 0 1 0
.
0 0 1 0 0 1
Ejemplo 2.41
La ventaja del método de Gauss-Jordan es que nos permite realizar las operaciones en
forma ordenada y sistematizada, sin embargo, el proceso para convertir una matriz a una
forma escalonada reducida, se puede realizar aplicando las operaciones elementales en
diferente orden (siempre y cuando usemos operaciones válidas en los renglones).
A continuación vamos a calcular la forma escalonada reducida de la matriz
6 5 −3
2 1 4 .
0 8 7
−1 −1
6 5 −3 1 1 5 1 5
6 R1 →R1 6 2
−2R1 +R2 →R2
6 2 −3
2 R2 →R2
−2
2 1 4 −−−−−→ 2 1 4 −−−−−−−−→ 0 5 −−−−−−→ · · ·
3
0 8 7 0 8 7 0 8 7
5 −1 5 −1 5 −1
1 6 2 1 6 2 1 1 6 2
−8R +R →R R3 →R3
−15 −−−−−−−−→ −15 −−−−−→ −15 → · · ·
2 3 3
67
→
0 1 2 0 1 2 0 1 2
0 8 7 0 0 67 0 0 1
23
1 0 4 1 0 0 1 0 0
− 5 R2 +R1 →R1 − 23 R3 +R1 →R1 152 R3 +R2 →R2
−15 −
1 −15
−−6−−−−−−→ 0 1 2
4
−−−−−−−−→ 0 2
−−−−−−−−→ 0 1 0 .
0 0 1 0 0 1 0 0 1
En este caso, primero se convirtió cada pivote en 1 para convertir en cero a los
elementos por debajo de cada pivote de manera más fácil y por último se convirtieron en
cero a los elemento que quedaban encima de los pivotes.
Todas las operaciones son válidas y al final se logra convertir a la matriz en una
matriz escalonada reducida.
Ejemplo 2.42
En los dos ejemplos anteriores, la matriz escalonada reducida que se obtuvo fue la
matriz identidad, sin embargo esto no tiene por que ser siempre cierto. A continuación se
muestra un ejemplo, en el cual la matriz escalonada reducida no es la identidad:
2 −1 −3 2 −1 −3 1 2 −1 −3
−2R1 +R2 →R2 2 R1 +R3 →R3
4 −2 −6 − −−−− −− −→ 0 0 0 −−−−−−−→ 0 0 0 → ···
−1 12 4 −1 21 4 0 0 5
2
2 −1 −3 1 1 − 12 − 32 1 − 1
2 − 3
2
R ↔R3 2 R1 →R1 52 R2 →R2
−−2−−→ 0 0
5 −
2
− − − −
→ 0 0
5 −
2
− − − −
→ 0 0
1 → ···
0 0 0 0 0 0 0 0 0
68 Matrices
3
1 − 21 0
2 R2 +R1 →R1
−−−−−−−→ 0
0 .
1
0 0 0
En el método de Gauss, se mostró que bajo diferente orden de aplicación de las opera-
ciones elementales, se pueden obtener diferentes matrices escalonadas que son equivalentes
con la original. Para el caso de las matrices escalonadas reducidas, esto no ocurre ya que
cada matriz es equivalente por filas a una única matriz escalonada reducida.
Teorema 2.5
Sea A ∈ Mn×m , entonces A tiene una única matriz escalonada reducida que es equivalente
a ella por operaciones elementales renglón.
Ejemplo 2.43
Calcularemos la inversa de la siguiente matriz por medio de algoritmo de Gauss-Jordan:
−2 −3 0
A= −3 −3 1 .
4 2 −3
Antes de empezar construimos la matriz aumentada:
−2 −3 0 1 0 0
−3 −3 1 0 1 0
4 2 −3 0 0 1
3
−2 −3 0 1 0 0 1 0 2 − 12 0 0
− 12 R1 →R1
3 3 3
··· → 0
2 1 − 2 1 0 −−−−−−→ 0
1 2 − 32 1 0 → ···
0 0 − 13 −2 83 1 0 0 − 13 −2 38 1
3
2
1 0 2 − 21 0 0 1 0 0 0 3
2 − 12
3 R2 →R2
−3R3 →R3
−−−−−→ 0 1 23
−1 2
3
2
0 −−−−−−→ 0 1 3 −1 32
→ ···
0
0 0 − 13 −2 8
3 1 0 0 1 6 −8 −3
1 0 −1 1 −1 0
− 3 R2 +R1 →R1 1R3 +R1 →R1
· · · −−2−−−−−−→ 0 1
2
3 −1 2
3 −−−−−−−→ · · ·
0
0 0 1 6 −8 −3
70 Matrices
1 0 0 7 −9 −3 1 0 0 7 −9 −3
− 32 R3 +R2 →R2
2 2
· · · → 0 1 3 −1 3
0 −−−−−−−−→ 0 1 0 −5 6
2
0 0 1 6 −8 −3 0 0 1 6 −8 −3
y
7 8 3 7 −9 −3
1 0 0
AA−1 =
−5 2 −3 −5 6 2 = 0 1 0
9 0 4 6 −8 −3 0 0 1
Ahora bien, la inversa de una matriz cuadrada no siempre existe, ya que el proceso ante-
rior está sujeto a la condición de que al aplicar la reducción de Gauss-Jordan, obtengamos
la matriz identidad, lo cual no siempre ocurre.
Ejemplo 2.44
−2 −3 0
Vamos a intentar calcular la inversa de la matriz A =
−3 −3 .
1
5 6 −1
−2 −3 0 1 0 0
−3 −3
Primero construimos la matriz aumentada: 1 , y le apli-
0 1 0
5 6 −1 0 0 1
camos el método de Gauss-Jordan:
2.6 El Determinante de una matriz cuadrada. 71
−2 −3 0 1 0 0 −2 −3 0 1 0 0
− 32 R1 +R2 →R2
−3 −3 1 0 1 0 −− − − −− − −→ 3 3 → ···
0 2 1 − 2 1 0
5 6 −1 0 0 1 5 6 −1 0 0 1
5
−2 −3 0 1 0 0
R1 +R3 →R3 R2 +R3 →R3
−2−−−−−−→ 0
3
2 1 − 32 1 0
−−−−−−→ · · ·
0 − 32 −1 52 0 1
3 1
−2 −3 0 1 0 0 1 2 0 2 0 0
− 12 R1 →R1
3
→
0 2 1 − 32 1 0
−−−−−−→ 0
3
1 − 23 1 0
2 → ···
0 0 0 1 1 1 0 0 0 1 1 1
3 1
2
1 0 0 0 2 2 1 0 −1 2 −1 0
3 R2 →R2
− 32 R2 +R1 →R1
−−−−−→ 0 1 3 −1 3 0 −−−−−−−−→ 0 1 32 −1 23 0
2 2
,
0 0 0 1 1 1 0 0 0 1 1 1
sin embargo, como ésta no es la identidad (por que el último renglón es de puros ceros),
entonces quiere decir que la matriz A no es invertible.
matriz !
a b
A= ,
c d
en la cual podemos suponer que a 6= 0, ya que si no fuese así, entonces podemos hacer
intercambio de renglones para conseguir que se cumpla la condición anterior.
Entonces, para calcular la inversa de A, vamos a aplicar el método de reducción de
Gauss-Jordan a la matriz aumentada:
!
a b 1 0
.
c d 0 1
el diagrama queda:
! !
1 b 1
a b 1 0 a R1 →R1 1 a a 0
··· → −−−−−→ → ···
0 d − bc
a − ac 1 0 d − bc
a − ac 1
A continuación convertimos al pivote a22 en 1, para ello aplicamos:
1 1 bc c
R2 → R2 = 0 d − a −a 1
d − bc
a d − bc
a
d− bc 1 c
1
= 0 a
bc bc −a bc
d− a d− a d− a
c 1
= 0 1 − ,
a(d− bc
a) d− bc
a
2.6 El Determinante de una matriz cuadrada. 73
y en el diagrama tenemos
! 1 b 1
b 1 R2 →R2 1 0
1 a a 0 d− bc
a a a
··· → −−−−−−−→ 1
→ ···
0 d − bc − ac 1 0 1 − c bc
a a(d− a ) d− bc
a
b bc −b
= 0 − b
a a2 (d− bc ) a(d− bc ) + 1 a a 0
1
a a
= 1 0 bc
+ a1 − b
a2 (d− bc
a) a(d− bc
a)
1 b 1
0 − ba R2 +R1 →R1 1 0 bc
+ a1 − b
a a a2 (d− bc ) a(d− bc
a)
··· → 1
−−−−−−−−→ a .
0 1 − c bc 0 1 − c bc 1
a(d− a ) d− bc
a a(d− a ) d− bc
a
Simplificando: ! !
d −b
1 d −b
A−1 = ad−bc
−c
ad−bc
= .
a ad − bc −c a
ad−bc ad−bc
Ahora bien, observando la forma obtenida para la matriz inversa, podemos afirmar que
para que la matriz A ∈ M2×2 tenga inversa, se debe cumplir que ad − bc 6= 0. Es decir,
podemos afirmar que ésta fórmula determina si una matriz de 2 × 2 es o no invertible.
Definición 2.35!
— Determinante de matrices de 2 × 2.
a b
Sea A = ∈ M2×2 , definimos el determinante de A, representado por |A|, o
c d
det(a), como:
a b
det(A) = |A| = = ad − bc
c d
74 Matrices
Teorema 2.6
Sea A ∈ M2×2 , entonces A es invertible sí y sólo sí det(A) 6= 0, además, si A es invertible
entonces: !
−1 1 d −b
A =
det(A) −c a
Ejemplo 2.45
De las matrices: ! !
−1 3 −1 3
A1 = ; A2 = ,
2 −6 2 6
la matriz A1 no es invertible, mientras que la matriz A2 sí lo es. Para probar esto calcula-
mos el determinante:
−1 3
det(A1 ) = = (−1)(−6) − (2)(3) = 0,
2 −6
y
−1 3
det(A2 ) = = (−1)(6) − (2)(3) = −12.
2 6
Más aún, de acuerdo al teorema anterior, la inversa de A2 se puede calcular como:
! !
1 1
1 6 −3 −
A−1
2 = −12 = 1
2 4
1
.
−2 −1 6 12
det(A) = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a31 a22 a13 − a32 a23 a11 − a33 a21 a12 .
Existe un método para recordar la fórmula para el cálculo del determinante, denominado
Método de Sarrus. El método consiste en, repetir las dos primeras filas de la matriz,
abajo de la misma, de manera que queden cinco filas. Después sumar los productos de
las diagonales descendentes (en línea azul) y sustraer los productos de las diagonales
ascendentes (en linea roja). Esto resulta en:
a11 a12 a13
a a a13 a a22 a23
11 12 21 a11 a22 a33 + a21 a32 a13 + a31 a12 a23
det a21 a22 = a31
a23 a32 a33 =
−a31 a22 a13 − a11 a32 a23 − a21 a12 a33
a31 a32 a33 a
11 a12 a13
a21 a22 a23
Como se puede observar, los factores que aparecen en este desarrollo coinciden con los
del teorema anterior, aunque en diferente orden. Este método es más sencillo de recordar y
de operar y en muchos casos facilita el cálculo del determinante de matrices de 3 × 3.
Ejemplo 2.46
Calcular el determinante de la matriz
2 5 3
2 2 −1
2 4 2
2 5 3
2 2 −1
(2)(2)(2) + (2)(4)(3) + (2)(5)(−1)
2 4 2 = = −2
2
−(2)(2)(3) − (2)(4)(−1) − (2)(5)(2)
5 3
2 2 −1
Ahora vamos a construir la definición más general del determinante que se pueda aplicar
a matrices cuadradas de cualquier dimensión. Para ello necesitaremos dos conceptos previos:
permutaciones e inversiones en una permutación.
Ejemplo 2.47
Vamos a elaborar la lista de todas las permutaciones de los siguientes conjuntos (el total
se calcula con n!):
Si S = {1, 2}, entonces
S p = {12, 21}
Para el conjunto: {1, 2, 3}, en total son 3! = 3 ∗ 2 ∗ 1 = 6 permutaciones, mostradas
en el conjunto:
S p = {123, 132, 213, 231, 312, 321}
Para el conjunto {1, 2, 3, 4}, hay 4! = 24 permutaciones, listadas a continuación:
1234, 1243, 1324, 1342, 1423, 1432,
2134, 2143, 2314, 2341, 2431, 2413,
Sp =
3124, 3142, 3214, 3412, 3421, 3241,
4123, 4132, 4231, 4213, 4312, 4321
Además las permutaciones se pueden definir como funciones, así por ejemplo, para la
permutación 3142 tenemos la función tal que:
Definición 2.38
Se dice que una permutación j1 j2 ... jn del conjunto S = {1, 2, ..., n} tiene una inversión
si un entero mayor jr aparece antes de uno menor ji en dicha permutación.
Además, una permutación se denomina par o impar si el número total de inversiones
en ella es par o impar, respectivamente.
Ejemplo 2.48 La permutación 2134, tiene únicamente una inversión (21), por lo
tanto es impar.
Por otro lado, la permutación 4132 tiene 4 inversiones ((41), (43), (42) y (32)) por
lo tanto es par.
Ejemplo 2.49
Vamos a calcular el signo de las permutaciones de 3 elementos:
Definición 2.40
— El determinante de una Matriz de n × n.
Sea A = aij una matriz de n × n. Definimos el determinante de A, que se escribe
como det(A) o |A|, como
donde la suma varía sobre todas las permutaciones σ ∈ S p consideradas como funciones.
Ejemplo 2.50
Para ejemplificar el cálculo de determinantes con la definición anterior, vamos a calcular
nuevamente el determinante de la matriz (calculado anteriormente en el ejemplo 2.46):
2 5 3
2 2 −1
2 4 2
luego solo bastará sustituir los elementos correspondientes con los de la matriz, por
ejemplo, como la matriz es:
2 5 3
2 2 −1 ,
2 4 2
2.7 La matriz Adjunta. 79
entonces:
a11 = 2; a23 = −1; a32 = 4.
Para el cálculo del Determinante, necesitamos realizar los cálculos anteriores para
cada una de las permutaciones del conjunto {1, 2, 3}. La siguiente tabla muestra todos
los sumandos necesarios:
det(A) = 8 + 8 − 20 − 10 + 24 − 12 = −2.
Ejemplo
2.51
2 −1 4
Sea A =
0 1 . Encuentre M13 y M32 .
5
6 3 −4
Para M13 , eliminamos el renglón 1 y la columna 3:
2 −1 4 !
0 1
M13 = 0 1 5 = 6 3 .
6 3 −4
80 Matrices
Ai j = (−1)i+ j Mij
donde Mij es el determinante del menor i j.
Ejemplo 2.52
Usaremos la matriz A del ejemplo anterior para calcular los cofactores A13 y A32 :
2 −1 4
A= 0 1 5 ,
6 3 −4
entonces:
!
0 1
A13 = (−1)1+3 |M13 | = (−1)4 det = 1 · (−6) = −6.
6 3
!
2 4
A32 = (−1)3+2 |M32 | = (−1)5 det = (−1)(10) = −10.
0 5
3 2 9
Ejemplo 2.53 Sea A =
4 8 −1 , entonces los cofactores de la primera
3 2 9
fila de la matriz serían:
!
8 −1
A11 = (−1)1+1 |M11 | = (−1)2 det = 1 · (74) = 74.
2 9
!
4 −1
A12 = (−1)1+2 |M12 | = (−1)3 det = (−1) · (39) = −39.
3 9
!
4 8
A13 = (−1)1+3 |M13 | = (−1)4 det = 1 · (−16) = −16.
3 2
Luego entonces de acuerdo con el teorema anterior, el determinante sería:
!
1+2 3
0 5
A12 = (−1) |M |
12 = (−1) = −(−30) = 30
6 −4
!
1+3 4
0 1
A13 = (−1) |M13 | = (−1) = −6
6 3
+ − + −
− + − +
+ − + −
− + − +
Este arreglo facilita el cálculo de la adjunta que se define a cotinuación, puesto que evita
tener que estar calculando el factor (−1)i+ j en cada cofactor
La matriz adjunta se puede usar, como veremos a continuación, para calcular la inversa
de una matriz cuadrada, sin tener que emplear el método de Gauss-Jordan, ni las operaciones
elementales renglón.
2.7 La matriz Adjunta. 83
Teorema 2.8
Sea A una matriz de n × n. Entonces A es invertible si y sólo si det(A) 6= 0. Además si
det(A) 6= 0, la inversa de A está dada por:
1
A−1 = Adj(A).
det(A)
Ejemplo
2.54
2 −1 4
Sea A =
0 1 5 y calculamos su adjunta:
6 3 −4
A11 = −19; A12 = 30; A13 = −6;
A21 = 8; A22 = −32; A23 = −12;
A31 = −9; A32 = −10; A33 = 2.
Entonces el determinante sería:
Los sistemas de ecuaciones lineales representan relaciones entre variables que se deben
satisfacer simultáneamente. Existen diferentes métodos para hallar las soluciones de estos
sistemas: métodos gráficos, de Gauss con sustitución hacia atrás, de Gauss-Jordan, la regla
de Cramer, entre otros.
Una primera caracteristica de los sistemas de ecuaciones lineales radica en que pueden
ser representados con ayuda de ciertas matrices y estas mismas pueden ser usadas para
resolver los sistemas asociados a ellas, por ello en este capítulo se retomarán algunos
elementos de la teoría de matrices que se estudió en el capítulo anterior. En general, en este
capítulo, se aborda el estudio de estos sistemas, sus propiedades y los métodos de solución.
3.1 Definiciones
Como en cada uno de los capítulos anteriores, empezamos con la definición de los
objetos con los que se trabajará, en este caso nos referimos a los sistemas de ecuaciones
lineales, los cuales están compuestos por ecuaciones lineales.
a1 x1 + a2 x2 + ... + an xn = b
..
.
Nosotros deseamos determinar si un sistema de esta forma tiene una solución, es decir,
determinar si existen numeros x1 , x2 , ..., xn los cuales satisfagan cada una de las ecuaciones
al mismo tiempo.
Ejemplo 3.1
La ecuación 2x+y = 3, es un ejemplo de una ecuación lineal que tiene infinitas soluciones
que se pueden calcular con las exresiones: x = t, y = 3 − 2t, donde t puede tomar
cualquier valor, por ejemplo, si t = 3, entonces la pareja x = 3, y = −3 sería solución de
la ecuación, ya que al sustituir tenemos que 2(3) + (−3) = 3.
Por otro lado, el conjunto de ecuaciones:
−5x − y − 5z = 3
4x + y + 2z = 2
−3x − y − 3z = −3
poseen solución y los que no. A continuación se define la clasificación de estos sistemas.
Ejemplo 3.2
El sistema de ecuaciones lineales:
−5x − y − 5z = 3
4x + y + 2z = 2
−3x − y − 3z = −3
3x − y + 2z = 2
5x + y − 4z = −7
3x − y + 2z = −3
A pesar de que se ha dado una clasificación para los sistemas de ecuaciones lineales, es
necesario especificar más a detalle la naturaleza de las soluciones de estos sistemas. En este
sentido hay algunas interrogantes que vale la pena responder al respecto:
y supongamos también, que este sistema tiene dos conjuntos diferentes de soluciones:
x1 = c1 , x2 = c2 , · · · , xn = cn , y x1 = d1 , x2 = d2 , · · · , xn = dn Entonces es fácil demostrar
que deben existir infinitas soluciones para el sistema de ecuaciones planteado.
Para encontrar infinitas soluciones del sistema bastará tomar dos valores reales k1 y k2 ,
tales que k1 + k2 = 1, con lo cual los nuevos valores x1 = k1 c1 , x2 = k1 c2 , · · · , xn = k1 cn ,
serán solución del sistema (modificado):
Ejemplo 3.3
El sistema de ecuaciones:
x + 0y + 3z = 5
3x + y + 11z = 13
−2x − 5y − 16z = 0
tiene al menos dos conjuntos de soluciones distintas: (x, y, z) = (−1, −6, 2) y (x, y, z) =
(8, 0, −1) .
Entonces, si tomamos k1 = 12 y k2 = 21 (es claro que k1 + k2 = 1), entonces un nuevo
conjunto de soluciones sería:
1 1 7
x = (−1) 2 + (8) 2 = 2
1 1
y = (−6) 2 + (0) 2 = −3
1 1
1
z = (2) 2 + (−1) 2 = 2,
ya que al sustituir:
7 1
2 +0+3 2 =5
7 1
3 2 + (−3) + 11 2 = 13
1 1
−2 2 − 5(−3) − 16 2 = 0,
Eligiendo nuevos valores para k1 y k2 tales que k1 + k2 = 1, podemos formar nuevas
soluciones del sistema. En conclusión, con dos conjuntos de soluciones diferentes,
podemos formar infinitas soluciones del sistema.
Proposición 3.1.1
Si un sistema de ecuaciones lineales tiene al menos dos conjuntos de soluciones distintas,
entonces el sistema tiene infinitas soluciones.
Con esta nueva observación, los sistemas de ecuaciones lineales compatibles se puede
subclasificar en dos casos como se muestra a continuacin.
90 Sistemas de Ecuaciones Lineales
−3x + 2y = −1
4x − 5y = −8
3.2 Solución de los sistemas de Ecuaciones Lineales. 91
y = − −1+3x
2
−8−4x
y= −5
1 2 3 4 5 6
4y − 5z = −12
2x − 2z = −2
4x + y − 2z = 6
que al graficarse se intersectan en el punto (3, 2, 4) (ver figura 3.2), con lo cual este sistema
tiene una única solución.
y como ambos despejes dan el mismo resultado, entonces sus gráficas consisten en una
misma línea recta (ver figura 3.3). Esto implica que este sistema tiene infinitas soluciones,
dadas por cada uno de los puntos contenidos en la recta.
Para el caso de los sistemas de ecuaciones lineales compatibles indeterminados con 3
incógnitas, un ejemplo sería el sistema:
2x + 3y + 4z = 3
x − 2y − 2z = −1
3x + y + 2z = 2
ya que al despejar la variable “z” de las ecuaciones se forman las 3 funciones lineales:
3−2x−3y
z= 4
z = −1−x+2y
−2
2−3x−y
z= 2
3.2 Solución de los sistemas de Ecuaciones Lineales. 93
1.0
0.5
-1 1 2 3 4 5
-0.5
-1.0
y al graficar observamos que los tres planos se intersectan en una línea continua (ver figura
3.4), con lo cual el sistema tiene infinitas soluciones y es indeterminado.
-4 -2 2 4
-5
-10
Figura 3.5: Gráfica de un sistema incompatible de 2 × 2 (las ecuaciones del sistema forman
rectas paralelas).
gráficamente forman tres planos paralelos entre sí (ver figura 3.6), lo que indica el que el
sistema es incompatible.
Una ventaja de las ecuaciones lineales degeneradas es que podemos determinar fácil-
mente si tiene o no solución dependiendo del término independiente de la ecuación, como
lo muestra el siguiente ejemplo:
Ejemplo 3.4
La ecuación 0x + 0y = 3 es degenerada y no tiene solución, ya que no existen valores que
cumplan la igualdad de la ecuación. Por otro lado, la ecuación 0x + 0y + 0z = 0 también
es degenerada pero tiene infinitas soluciones, ya que cualquier valor que se asigne a las
variables satisfacerá la igualdad.
96 Sistemas de Ecuaciones Lineales
En general podemos afirmar que el siguiente teorema es válido para ecuaciones lineales
degeneradas.
Teorema 3.1
Consideremos una ecuación degenerada
Si tenemos una ecuación lineal no degenerada, entonces dicha ecuación debe poseer
algúna primera incógnita con coeficiente diferente de cero. Es decir, la primera incógnita de
una ecuación lineal, será la primera con coeficiente no nulo y su posición p en la ecuación
será entonces el menor valor entero de j para el cual a j 6= 0.
Teorema 3.2
Consideremos una ecuación no degenerada a1 x1 + ... + an xn = b con primera incógnita
x p Entonces:
Cualquier conjunto de valores de las incógnitas x j con j6=p dará una solución
particular de la ecuación (las incógnitas x j se llaman variables libres).
Toda solución de la ecuación se obtiene asignando valores arbitrarios a las varia-
bles x j con j 6= p, y expresando el valor de x p en términos de las otras variables.
Ejemplo 3.5
El teorema anterior nos explica como calcular soluciones de una ecuación no degenerada,
por ejemplo, en la ecuación:
2x − 5y + 7z = 8,
la primera variable no cero es “x”, con coeficiente 2.
En esta ecuación las variables “y” y “z” son variables libres y pueden tomar cualquier
valor para resolver la ecuación planteada. La variable x se puede expresar en términos de
las variables libres en la forma:
x = (8 + 5y − 7z)/2,
con lo cual para obtener una solución de la ecuación, bastará con asignar valores a las
variables “y” y “z” y calcular el valor correspondiente para la variable x, por ejemplo, si
y = 1 y z = 1, entonces con x = (8 + 5(1) − 7(1))/2 = 3 formamos una solución de la
3.3 Método de sustitución hacia atrás 97
Ejemplo 3.6
El siguiente sistema de ecuaciones lineales se encuentra en forma triangular:
2x − 4y + 2z + 8w = 2
6y + 0z − 4w = 3
2z − w = −8
w =0
Una ventaja de los sistemas triangulares es que son fáciles de resolver ya que la última
variable se encuentra despejada, y apartir de ahí sustituir en las ecuaciones anteriores
para ir despejando el resto de las vriables en forma regresiva.
98 Sistemas de Ecuaciones Lineales
10
5
0
-5
-10
-50
-10
-5
0
5
10
Teorema 3.3
Consideremos el sistema de “r” ecuaciones lineales con “n” incógnitas, en forma
escalonada. Existen dos casos:
r = n: Hay tantas ecuaciones como incógnitas. Entonces el sistema tiene solución
única.
r < n: Hay menos ecuaciones que incógnitas. Entonces podemos asignar arbitra-
riamente valores a las n-r variables libres y obtener una solución del sistema.
Ejemplo 3.7
El sistema de ecuaciones lineales:
x1 + 2x2 + 2x3 − x4 = 1
x2 + x3 + x4 = −1
−x3 − 2x4 = −2
x1 + 2x2 + 5x3 + x4 = 1
2x2 + x3 + x4 = −1
−x3 − 2x4 = −2
4x4 = 8
Ejemplo 3.8
Los sistemas de ecuaciones lineales en forma escalonada reducida, son tan sencillos, que
ya se encuentran resueltos. Por ejemplo, el siguiente es un sistema escalonado reducido:
x +0y +0z = 2
0x +y +0z = −1
0x +0y +z 4
bn−1 − a(n−1)n xn
⇒ xn−1 = .
a(n−1)(n−1)
Para despejar xn−2 tenemos la ecuación:
con lo cual:
n
bi − ∑ ai j x j
j=i+1
xi = ,
aii
para i = n − 1, n − 2, . . . , 1.
El teorema 3.3 indica cómo identificar los sistemas determinados e indeterminados
cuando el sistema se encuentra en forma escalonada y además es útil para resolver estos
sistemas aplicando el método de sustitución. El proceso anterior puede parecer complicado,
sin embargo es relativamente sencillo cuando se aplica en casos específicos. A continuación
mostramos algunos ejemplos de esto:
Ejemplo 3.9
El sistema:
2x + 5y + 3z = 18
3y + 2z = 6
5z = 0
es determinado, ya que el número de ecuaciones (3) es igual al número de incógnitas del
sistema (3). Ahora bien, las soluciones del sistema se encuentran aplicando el método de
sustitución hacia atrás. Empezamos despejando la variable “z”:
0
5z = 0 ⇒ z = ⇒ z = 0,
5
luego usamos este valor en la segunda ecuación para despejar el valor de “y”:
6
3y + 2z = 6 ⇒ 3y + 2(0) = 6 ⇒ y = = 2,
3
y por último sustituimos los valores de “y” y “z” en la primera ecuación para despejar el
valor de “x”:
2x + 5y + 3z = 18 ⇒ 2x + 5(2) + 3(0) = 18 ⇒ 2x = 18 − 10 ⇒ x = 4.
102 Sistemas de Ecuaciones Lineales
Ejemplo 3.10
Retomando los sistemas planteados en el ejemplo 3.7.
Primero resolvemos el sistema:
x1 + 2x2 + 5x3 + x4 = 1
2x2 + x3 + x4 = −1
−x3 − 2x4 = −2
4x4 = 8
4x4 = 8 ⇒ x4 = 2,
Ejemplo 3.11
El sistema que falta por resolver del ejemplo 3.7 es:
x1 + 2x2 + 2x3 − x4 = 1
x2 + x3 + x4 = −1
−x3 − 2x4 = −2
x2 + x3 + x4 = −1 ⇒ x2 + (2 − 2x4 ) + x4 = −1 ⇒ x2 = −3 + x4 ,
Entonces las infinitas soluciones del sistema se pueden hallar por medio de:
x1 = 3 + 3t
x2 = −3 + t
x3 = 2 − 2t
x4 = t
donde x4 = t indica que ésta es una variable libre, es decir, puede tomar cualquier valor,
mientras que el resto de las incógnitas serán determinadas con base en el valor dado a x4 .
Así por ejemplo, si x4 = 0, entonces x1 = 3, x2 = −3 y x3 = 2 forman una solución del
sistema, ya que al sustituir todas las ecuaciones del sistema se cumplen:
Ejemplo 3.12
Los siguientes sistemas de ecuaciones lineales son equivalentes:
4x + 2y = −2 4x − y = −11
y
0x + 3y = 9 −4x + 2y = 14
Para demostrar esta afirmación graficamos las ecuaciones de ambos sistemas (ver
figura 3.8) y podemos ver que en ambos casos las rectas se intersectan en el punto (−2, 3)
con lo cual los sistemas son equivalentes.
Figura 3.8: Gráfica de dos sistemas equivalentes (ambos sistemas tienen solución en el
punto (-2,3)).
Comprobar que dos sistemas de ecuaciones lineales sean equivalentes es un proceso que
puede resultar complicado, sin embargo existe una forma de producir sistemas que sean
equivalentes a un sistema de ecuaciones dado, para ello podemos efectuar una sucesión de
las siguientes operaciones elementales, sobre las ecuaciones E1 , E2 , . . . , Em del sistema
inicial.
Ejemplo 3.13
Vamos a generar 3 sistemas de ecuaciones equivalentes al sistema:
9x − 2y + 4z + 2w = 19
−4x + y − 2z = −6
2x + z = 2
4x − y + 2z + w = 9
2x +z =2 2x +z =2
4x −y +2z +w =9 w =3
2x +z =2
w =3
El lector puede verificar, sustituyendo, que cada uno de los cinco sistemas de ecua-
ciones lineales generados tiene como solución x = 1, y = −2, z = 0, w = 3.
Entonces, los cinco sistemas generados son equivalentes al sistema original, sin
embargo el último sistema es el más sencillo de todos, ya que ahí ya se conocer las
variables “w” e “y”, con lo cual es fácil encontrar todas las soluciones del sistema.
106 Sistemas de Ecuaciones Lineales
Nota Estas operaciones elementales son equivalentes a las operaciones elementales renglón
en matrices y nos sirven para formar sistemas equivalentes que sean más fáciles de
resolver. En particular nos interesan 2 tipos de sistemas: los sistemas escalonados y los
escalonados reducidos. Estos sistemas se obtendrán con los métodos de reducción de
Gauss y de Gauss-Jordan aplicados en los sistemas de ecuaciones lineales.
Ejemplo 3.14
El sistema dado por:
c1 + c2 + c3 = 0
−3c1 + 2c2 − c3 = 0
9c1 + 4c2 + c3 = 1
tiene como matriz de coeficientes a la matriz:
1 1 1
−3 2 −1
9 4 1
y la matriz aumentada:
1 1 1 0
−3 2 −1 0
9 4 1 1
.
2x + 3y = 5 2a + 3b = 5
y
4x − 5y = −3 4a − 5b = −3
es la matriz de coeficientes,
x1
x2
X =
..
.
xn
b1
b2
es el vector de incógnitas, y b = es el vector de términos independientes.
..
.
vm
Ejemplo 3.15
Vamos a retomar el sistema de ecuaciones lineales del ejemplo 3.13:
9x − 2y + 4z + 2w = 19
−4x + y − 2z = −6
2x + z = 2
4x − y + 2z + w = 9
Ejemplo 3.16
El sistema de ecuaciones es...
2x + 4y + 6z = 8
4x + 5y + 6z = 10
3x + 7y + 6z = 11
sistema:
2 4 6 8
4 5 6 10
3 7 6 11
A continuación mostramos la cadena de operaciones aplicadas:
2 4 6 8 1 2 3 4 1 2 3 4
1 1 →R1
4 5 6 10 −2−R−
−4R1 +R2 →R2
−−→ 4 5 6 10 −−−−−−−−→ 0 −3 −6 −6
→ ···
3 7 6 11 3 7 6 11 3 7 6 11
1 2 3 4 1 2 3 4
−3R1 +R3 →R3 − 31 R2 →R2 −R2 +R3 →R3
· · · −−−− −−−−→ 0 −3 −6 −6 −−−−−−→ 0 1
2 2 −−−−−−−→ · · ·
0 1 −3 −1 0 1 −3 −1
1 2 3 4 1 2 3 4
− 15 R3 →R3
··· →
0 1 2 2 −−−−−−→ 0
1 2 2
3
0 0 −5 −3 0 0 1 5
Esta última matriz corresponde al sistema de ecuaciones lineales escalonado:
x + 2y + 3z = 4
y + 2z = 2
3
z = 5
y por último resolvermos el sistema, aplicando sustitución hacia atrás, empezamos con la
tercera ecuación:
3
z= ,
5
sustituimos en la segunda ecuación:
3 4
y + 2z = 2 ⇒ y + 2 =2⇒y= ,
5 5
Ejemplo 3.17
Vamos a resolver nuevamente el sistema planteado en el ejemplo 3.16:
2x + 4y + 6z = 8
4x + 5y + 6z = 10
3x + 7y + 6z = 11
1 0 0 53 1 0 0 3
5
R3 +R1 →R1 −2R3 +R2 →R2
4
· · · −−−−−−→ 0 1 2 2 −−−−−−−−→ 0 1 0
5
0 0 1 35 0 0 1 3
5
donde:
a a · · · a1n x b1
11 12 1
a
21 a22 · · · a2n x
2
b2
A= . , x = . , y b= ,
.. .. . . . .. .. ..
. .
.
an1 an2 · · · ann xn bn
Ejemplo 3.18
Resolver el sistema de ecuaciones lineales:
x −3y =0
x −5y −4z = 2 .
5x −y +4z = −2
114 Sistemas de Ecuaciones Lineales
A X b
x −3y =0
1 −3 0 x 0
x −5y −4z = 2 →
1 −5 −4
y = 2
,
5x −y +4z = −2
5 −1 4 z −2
con lo cual:
det(Ax ) = 0; det(Ay ) = 0; det(Az ) = −24,
entonces, aplicando la regla de Cramer:
0 0 −24 1
x= = 0; y= = 0; z= =− .
48 48 48 2
obtenemos las soluciones del sistema.
AX = b
⇒ A−1 (AX) = A−1 b
⇒ (A−1 A)X = A−1 b
⇒ IX = A−1 b
⇒ X = A−1 b
donde I es la matriz identidad de n × n. Entonces la solución del sistema está dado por el
producto A−1 b.
3.6 Método de la Matriz Inversa 115
Ejemplo 3.19
Resolver el sistema de ecuaciones:
7x −9y −3z = 2
−5x +6y +2z = −4
6x −8y −3z = 5
X Ab
7x −9y −3z = 2
7 −9 −3 x 2
−5x +6y +2z = −4 →
y = −4
−5 6 2
6x −8y −3z = 5
6 −8 −3 z 5
A−1
AX = A−1
b
−2 −3 0 7 −9 −3 x −2 −3 0 2
−3 −3 1 −5 6
2 y
=
−3 −3 1 −4
4 2 −3 6 −8 −3 z 4 2 −3 5
1 0 0 x 8
0 1 0 y
= 11
0 0 1 z −15
x 8
y
=
11
z −15
116 Sistemas de Ecuaciones Lineales
y con este proceso encontramos las soluciones del sistema. Cabe señalar que para
poder aplicar este método es indispensable que la matriz de coeficientes A cumpla que
det(A) 6= 0, paara poder garantizar la existencia de la matriz inversa.
Proposición 3.6.1
Sea AX = b la representación matricial de un sistema de n ecuaciones con n incógnitas,
entonces el sistema será compatible determinado sí y sólo sí det(A) 6= 0.
Ejemplo 3.20
Para determinar el rango de una matriz es necesario aplicar el método de Gauss-Jordan
para reducir la matriz dada a su forma escalonada reducida y de ahí, determinar el número
de renglones no cero que quedan.
Por ejemplo, al aplicar el método de Gauss-Jordan a la matriz
−1 2 −1
A = −2 3 −2
−1 2 −2
3.6 Método de la Matriz Inversa 117
obtenemos la matriz:
−1 2 −1 1 0 0
Gauss−Jordan
−2 3 −2 −
−−−−−−−→ 0 1 0 ,
−1 2 −2 0 0 1
con lo cual, el rango de la matriz A es 3, que en este caso es igual al número de renglones
que tiene la matriz.
Por otro lado, la matriz
1 2 −3 1 0 7
Gauss−Jordan
B= 2 3 −1 −−−−−−−−→ 0 1 −5
2 4 −6 0 0 0
Teorema 3.5
Sea AX = b un sistema de ecuaciones lineales de n × n, representado en forma matricial,
donde [A|b] representa la matriz aumentada del sistema, entonces:
Si det(A) 6= 0, entonces el sistema es compatible determinado, es decir, tiene
solución única.
Si det(A) = 0 y rango([A|b]) < n, entonces el sistema es compatible indetermina-
do, es decir, tiene infinitas soluciones.
Por último, si det(A) = 0 y rango([A|b]) = n, entonces el sistema es incompatible,
es decir, no tiene solución.
Ejemplo 3.21
Vamos a crear 1 sistema de ecuaciones lineales de cada tipo, para ello usaremos las
herramientas que proporciona el teorema anterior.
Consideremos una matriz aumentada de la forma:
1 −2 −1 3
[A|b] =
2 −1 −2 5 ,
3 −3 a b
118 Sistemas de Ecuaciones Lineales
Por otro lado, si queremos crear un sistema de ecuaciones que no sea determinado,
entonces primero tomamos a = −3, con lo cual det(A) = 0. Para discriminar entre un
sistema compatible indeterminado y uno incompatible sólo necesitamos seleccionar un
valor adecuado para b para cada caso. Para hallar esos valores primero aplicamos el
método de Gauss a la matriz aumentada del sistema:
1 −2 −1 3 1 −2 −1 3
Gauss
2 −1 −2 5 − −−→ 0 3 0 −1
3 −3 −3 b 0 0 0 b−8
x − 2y − z = 3
3y = −1
x − 2y − z = 3
3y = −1
0 = 1
El concepto de espacio vectorial abarca a muchos de los objetos matemáticos que usual-
mente se estudian en los cursos escolares: números reales, números complejos, polinomios,
matrices, funciones continuas sobre un intervalo y coordenadas en el plano y el espacio.
Todos estos conjuntos comparten ciertas características comunes, empezando por el
hecho de que en cada uno de ellos se pueden definir al menos dos operaciones básicas:
una suma y una multiplicación por escalar. Estas operaciones son binarias y se pueden
interpretar como funciones definidas sobre un conjunto especial, así por ejemplo, la suma de
complejos se puede interpretar como una función representada con el símbolo + y definida
sobre el conjunto C × C, en términos simbólicos esto se representa como:
+ : C×C → C
⊕ : V ×V → V,
es decir, toma elementos de la forma (u, v) donde u y v son elementos del conjunto V y
los opera para obtener un resultado, representado por u ⊕ v, que pertenece al conjunto V.
Decimos que la operación ⊕ es binaria por que se aplica con dos operandos y además es
cerrada, por que el resultado de la operación pertenece al mismo conjunto que los operandos.
De manera similar, la operación la operación es de tipo:
: F ×V → V,
con lo cual indicamos que la operación toma elementos de la forma (r, v), donde r ∈ F y
v ∈ V y los opera para obtener un resultado, r v, que pertenece al conjunto V.
Definición 4.1
Sea V un conjunto no vacío de objetos denominados vectores, sea F un campo de
númerosa denominados escalares, y sean ⊕ y dos operaciones binarias (que pueden
ser interpretadas como funciones) tales que
⊕ : V ×V → V ; y
: F ×V → V
Entonces decimos que V es un espacio vectorial sobre F (también llamado F−espacio
vectorial), si las funciones con los vectores cumplen las siguientes condiciones:
Propiedad asociativa:
Si tomamos tres elementos, u, v y w del conjunto V, entonces podemos aplicar la
función ⊕ a estos tres elementos de dos formas distintas y ambas dan el mismo
resultado, es decir:
u ⊕ (v ⊕ w) = (u ⊕ v) ⊕ w
Propiedad Conmutativa:
Si tomamos dos vectores, u y v, de V, entonces no importa el orden en que
apliquemos la función ⊕ :
u ⊕ v = v ⊕ u.
Existencia del Elemento Neutro Aditivo:
Dentro del conjunto V, existe un vector especial, representado por el símbolo
0V , tal que si a este se aplicamos la función ⊕ junto con cualquier otro vector v,
entonces el resultado siempre será el vector v, es decir:
∃ 0V ∈ V tal que v ⊕ 0V = 0V ⊕ v = v.
r (u ⊕ v) = (r u) ⊕ (r v).
(r + s) u = (r u) ⊕ (s u).
1 v = v para toda v ∈ V.
a Un campo es un conjunto de números con dos operaciones definidas en él: suma y multiplicación, las
cuales cumplen ciertas propiedades. La definición y el estudio de los campos se escapan de los objetivos
del presente material por lo cual, para los contenidos del capítulo, tomaremos F = R a menos que se
indique lo contrario
Nota La operación ⊕ recibe el nombre de suma (de vectores) aunque no tiene por qué
coincidir con la suma usualmente conocida. La operación recibe el nombre de
producto por escalar, ya que consiste en una operación binaria cuyos operandos son un
elemento del campo F, denominado escalar, y un vector del conjunto V.
124 Espacios Vectoriales
Ejemplo 4.1
Vamos a demostrar que el conjunto V = R2 es un espacio vectorial sobre el campo de
números reales R, junto con las operaciones definidas a continuación:
⊕ : R2 × R2 → R2
(a, b) ⊕ (c, d) → (a + c, b + d)
y
: R × R2 → R2
t (a, b) → (ta,tb)
Estas definiciones indican la forma de aplicar la operación sobre los operandos, así
por ejemplo, la suma se realiza de la siguiente manera:
Para probar que con los elementos dados se forma un espacio vectorial vamos a
revisar cada una de las propiedades listadas en la definición anterior. Para comprobar las
propiedades tomamos:
Propiedad Asociativa
Primero verificamos la propiedad asociativa, para ello necesitamos verificar que
u ⊕ (v ⊕ w) = (u ⊕ v) ⊕ w. Primero calculamos el lado izquierdo de la igualdad que
deseamos probar:
Como podemos comprobar, ambos cálculos nos dieron el mismo resultado, con lo
cual se puede afirmar que la propiedad asociativa sí se cumple.
Propiedad Conmutativa
Ahora probaremos que u ⊕ v = v ⊕ u. Empezamos calculando el lado izquierdo de la
igualdad:
u ⊕ v = (a, b) ⊕ (c, d) = (a + c, b + d)
luego calculamos el lado derecho:
y claramente ambos resultados son iguales, con lo cual tenemos que la propiedad conmu-
tativa también se satisface.
donde (·, ·) indica la posición del vector buscado. En este caso es fácil ver que si tomamos
−u = (−a, −b), entonces la condición se satisface:
r (s u) = r (s (a, b))
= r (sa, sb)
= (r(sa), r(sb))
= (rsa, rsb),
(r + s) u = (r + s) (a, b)
= ((r + s)a, (r + s)b)
= (ra + sa, rb + sb),
H-2,2L H2,3L
2
-3 -2 -1 1 2 3
-1
H2,-1L
H-2,-3L -2
-3
reales R con las operaciones de suma y multiplicación por escalar usuales de cada uno de
ellos. En cada uno de los ejemplos se omiten las demostraciones ya que generalmente son
operaciones básicas pero muy engorrosas.
Ejemplo 4.2
El conjunto V = R3 es un espacio vectorial bajo las operaciones:
⊕ : R3 × R3 → R3
(a, b, c) ⊕ (d, e, f ) → (a + d, b + e, c + f )
y
: R × R3 → R3
r ⊕ (a, b, c) → (ra, rb, rc)
H1,2,3L
3
H3,1,1L
1 1
2
Ejemplo 4.3
En general, el conjunto V = Rn con n ∈ N es un espacio vectorial bajo las operaciones:
⊕ : Rn × Rn → Rn
(a1 , a2 , . . . , an ) ⊕ (b1 , b2 , . . . , bn ) → (a1 + b1 , a2 + b2 , . . . , an + bn )
y
: R × Rn → Rn
r ⊕ (a1 , a2 , . . . , an ) → (ra1 , ra2 , . . . , ran )
Ejemplo 4.4
Cualquier conjunto de matrices de la forma V = Mn×m (R) define un espacio vectorial
junto con las operaciones usuales de suma de matrices y multiplicación de matriz por
escalar como se definieron anteriormente. Por ejemplo, el conjunto de matrices M2×2 (R)
forma un espacio vectorial junto con la operación de suma:
Ejemplo 4.5
El conjunto de polinomios en la variable x con coeficientes reales, V = R[x], forma un
espacio vectorial con la operación de suma:
(a0 + a1 x + a2 x2 + · · · + an xn + · · · ) ⊕ (b0 + b1 x + b2 x2 + · · · + bn xn + · · · ),
se define como:
: R × R[x] → R[x]
se define como
Es relativamente sencillo demostrar que estos conjuntos forman espacios vectoriales con
las operaciones usuales. A continuación se muestra un espacio vectorial con operaciones
singulares con el fin de ilustrar la estructura a seguir en un proceso de demostración general.
Ejemplo 4.6
Sea R0 = R − {0}, el conjunto formado por todos los números reales, con excepción
del número 0, es decir, el 0 no pertenece al conjunto R0 . Formamos un conjunto V de
la forma V = R0 × R0 , es decir, V está formado por elementos de la forma (a, b), donde
a y b pueden ser cualquier número real, excepto el 0. Vamos a demostrar que V es un
4.1 Definición de Espacios Vectoriales 131
⊕ : V ×V → V
(a, b) ⊕ (c, d) → (ac, bd)
y
: R ×V → V
t (a, b) → (at , bt )
En este caso la operación “suma” definida sobre el conjunto V no es en realidad una
suma, sin embargo este conjunto sí resulta ser un espacio vectorial con esta operación
(lo mismo aplica para la multiplicación por escalar), lo cual demuestra por qué en la
definición no se especifica cómo realizar las operaciones.
Antes de iniciar la demostración se ejemplifica la aplicación de estas operaciones,
por ejemplo:
(2, 5) ⊕ (3, −2) = (2 · 3, 5 · (−2)) = (6, −10)
y por otro lado, un ejemplo de la multiplicación por escalar sería:
Propiedad Asociativa
Primero verificamos la propiedad asociativa: u ⊕ (v ⊕ w) = (u ⊕ v) ⊕ w. Empezamos
calculando el lado izquierdo de la igualdad que deseamos probar:
Como podemos comprobar, ambos cálculos nos dieron el mismo resultado, con lo
cual se puede afirmar que la propiedad asociativa sí se cumple.
Propiedad Conmutativa
Ahora probaremos que u ⊕ v = v ⊕ u. Empezamos calculando el lado izquierdo de la
igualdad:
u ⊕ v = (a, b) ⊕ (c, d) = (ac, bd)
luego calculamos el lado derecho:
u ⊕ 0V = u
⇒ (a, b) ⊕ (x, y) = (a, b)
⇒ (ax, by) = (a, b)
recordando que se mostró en la propiedad anterior que en este conjunto 0V = (1, 1).
Luego, para que la propiedad se cumpla se debe satisfacer que:
r (s u) = r (s (a, b))
= r (as , bs )
= ((as )r , (bs )r )
= (a(rs) , b(rs) ),
(r + s) u = (r + s) (a, b)
= (a(r+s) , b(r+s) ),
en este caso aplicamos la propiedad que establece que: (xn )(xm ) = x(n+m) . Del lado
derecho tenemos:
Para demostrar que un conjunto dado no es un espacio vectorial, bastará con probar que
al menos una de las propiedades de la definición no se cumple. A continuación se muestra
un ejemplo de esto.
Ejemplo 4.7
Sea V = R2 y definimos las operaciones como en el ejemplo anterior:
⊕ : V ×V → V
(a, b) ⊕ (c, d) → (ac, bd)
4.1 Definición de Espacios Vectoriales 135
y
: R ×V → V
t (a, b) → (at , bt )
Demostraremos que este conjunto no es un espacio vectorial sobre R. Para ello
verificamos que en este conjunto no existe un elemento neutro 0V , que cumpla que:
u ⊕ 0V = u.
Ejemplo 4.8
El conjunto V = M2×2 (R) no es un espacio vectorial sobre el campo R con las operacio-
nes:
⊕ : M2×2 (R) × M2×2 (R) → M2×2 (R)
A⊕B → A−B
y
: R × M2×2 (R) → M2×2 (R)
rA → rA
donde A − B es la resta usual de matrices y rA es la multiplicación de una matriz por un
escalar como se estudió en el capítulo 2.
Para demostrar que este conjunto no es espacio vectorial con las operaciones dadas,
revisamos la propiedad conmutativa. Sean
! !
a b e f
A= , yB= .
c d g h
con lo cual vemos que ambos resultados son diferentes y entonces el conjunto dado no
forma un espacio vectorial con las operaciones definidas.
En este punto el lector debe haber notado ya que un espacio vectorial no se forma
únicamente con el conjunto de vectores V sino que las operaciones definidas (así como
también el campo) también son importantes en la estructura de espacio vectorial. De esta
manera un conjunto de vectores puede formar un espacio vectorial bajo ciertas operaciones y
ese mismo conjunto puede no formar un espacio vectorial bajo otras operaciones diferentes,
como ocurre con el ejemplo anterior de matrices, el cual sí es espacio vectorial bajo las
operaciones usuales pero no resultó ser espacio vectorial con las operaciones definidas en el
ejemplo anterior.
Teorema 4.1
En un espacio vectorial V, en neutro aditivo 0V es único.
La definición de espacio vectorial exige que exista un elemento neutro aditivo 0V , sin
embargo la misma definición no explica cómo hallar a este elemento o si el neutro será
único. independientemente del espacio y sus propiedades, se puede demostrar que en un
espacio vectorial, el elemento neutro aditivo será único. Para demostrar esta afirmación
supongamos que esto no es verdad y que en algún espacio vectorial existen al menos dos
elementos neutros: e1 y e2 , entonces de acuerdo con la definición del elemento neutro se
debe cumplir que para cualquier vector v ∈ V :
v ⊕ e1 = v
y también
v ⊕ e2 = v
entonces, si tomamos v = e2 en la primera igualdad entonces tendríamos que
v ⊕ e1 = v ⇒ e2 ⊕ e1 = e2
v ⊕ e2 = v ⇒ e1 ⊕ e2 = e1
4.1 Definición de Espacios Vectoriales 137
e2 = e2 ⊕ e1 = e1 ⊕ e2 = e1
con lo cual tenemos que e1 = e2 y entonces no pueden existir dos elementos neutros en el
espacio vectorial, lo cual demuestra nuestra afirmación de que el elemento neutro en un
espacio vectorial es único.
Ejemplo 4.9
Como afirma el teorema anterior, el neutro aditivo es único, aunque no especifica cómo
hallar a este elemento neutro, lo cual podría llegar a implicar un trabajo considerable
dependiendo del espacio que se defina. A continuacioón mostramos al elemento neutro
de algunos de los espacios vectoriales tradicionalmente conocidos con sus operaciones
usuales:
En el espacio vectorial R2 el neutro es el vector de coordenadas (0, 0).
En el espacio vectorial R3 el neutro es el vector de coordenadas (0, 0, !0).
0 0
En el espacio vectorial M2×2 (R) el neutro es el vector matriz .
0 0
En el espacio vectorial de polinomios reales en la variable x, es conjunto R[x], el
elemento neutro es el vector polinomio 0 + 0x + 0x2 + 0x3 + · · ·
En el espacio vectorial de funciones continuas sobre el intervalo [0, 1], el neutro es
el vector función f (x) = 0.
Otra propiedad de los espacios vectoriales es la unicidad del elemento inverso aditivo: si
v es un vector de un espacio vectorial V, entonces existe otro vector, representado por −v,
tal que v ⊕ (−v) = 0V . Más aún este elemento es único para cada vector v.
Teorema 4.2
Sea V un F−espacio vectorial y sea v ∈ V, entonces el inverso aditivo de v, representado
por −v es único.
Para demostrar esta propiedad supongamos que existe un vector v que posea dos ele-
mentos inversos w1 y w2 (en este caso no podríamos usar el símbolo −v ya que el inverso
no es único). Entonces, por definición del inverso se cumple que:
v ⊕ w1 = 0V
y también
v ⊕ w2 = 0V
con lo cual:
(v ⊕ w1 ) ⊕ w2 = 0V ⊕ w2 = w2
138 Espacios Vectoriales
(v ⊕ w1 ) ⊕ w2 = v ⊕ (w1 ⊕ w2 ) = (v ⊕ w1 ) ⊕ w2 = 0V ⊕ w1 = w1 .
En conclusión:
w2 = (v ⊕ w1 ) ⊕ w2 = (v ⊕ w2 ) ⊕ w1 = w1
es decir, para cada v ∈ V, sólo hay un elemento inverso (y como es único) que se puede
representar por el símbolo −v.
Ejemplo 4.10
En los espacios vectoriales tradicionalmente conocidos, con las operaciones usuales, se
conoce la fórmula para hallar al inverso aditivo en cada uno de ellos:
En el espacio vectorial R2 , para cada vector (a, b) el inverso aditivo será de la
forma (−a, −b).
En el espacio vectorial R3 , para cada vector (a, b, c), el inverso aditivo será de la
forma (−a, −b, −c).
En el espacio vectorial M2×2 (R), para cada vector
!
a11 a12
,
a21 a22
v = a0 + a1 x + a2 x2 + · · · + an xn + . . .
entonces
Teorema 4.3
Para cualquier vector v del espacio vectorial V se cumple que 0F v = 0v , donde 0F es
el número cero del campo F.
4.1 Definición de Espacios Vectoriales 139
Este último teorema nos permite hallar de manera sencilla al neutro aditivo de un espacio
vectorial V. Para demostrar esta propiedad veamos que, por la propiedad distributiva:
con lo cual:
es decir:
0V = 0F v,
lo cual demuestra la propiedad anterior.
Ejemplo 4.11
Vamos a reutilizar el espacio vectorial del ejemplo 4.6. El conjunto V = (R − {0}) ×
(R − {0}) es un espacio vectorial con las operaciones:
⊕ : V ×V → V
(a, b) ⊕ (c, d) → (ac, bd)
y
: R ×V → V
t (a, b) → (at , bt )
Además como ya se demostró anteriormente, en este espacio 0V = (1, 1).
Sea v = (a, b) ∈ V, entonces
Teorema 4.4
Sea V un espacio vectorial sobre un campo F. Entonces se cumplen las siguientes
propiedades:
Si r u = 0, donde r ∈ F y u ∈ V, entonces r = 0F ó u = 0V .
Para cualquier vector v ∈ V, (−1) v = −v. Esto implica que para hallar el
inverso bajo la operación ⊕ bastará con calcular el producto (−1) v.
Para todo r ∈ F y todo u ∈ V, (−r) u = r (−u) = −(r u).
Ejemplo 4.12
Consideremos el siguiente conjunto:
Es fácil ver que S ⊂ R2 , y tenemos entonces que para que un vector (x, y) de R2
pertenezca al conjunto S debe cumplir la condición y = 2x, de la definición de S; por
ejemplo, (1, 2) ∈ S ya que 2 = 2(1) ⇒ y = 2x con lo cual, el vector (1, 2) sí cumple la
condición de la definición de S.
Por otro lado tenemos que (1, 3) ∈ / S ya que 3 6= 2(1) ⇒ y 6= 2x, es decir, el vector
(1, 3) no cumple la condición de la definición de los elementos de S.
Es fácil ver que este conjunto forma un nuevo espacio vectorial si usamos las mismas
operaciones que se definen tradicionalmente sobre el conjunto R2 . A continuación vamos
a revisar las propiedades de existencia del neutro aditivo y la existencia del inverso
aditivo sobre este conjunto y dejaremos las pruebas del resto de las propiedades al lector.
4.2 Subespacios Vectoriales 141
⊕ : R2 × R2 → R2
(a, b) ⊕ (c, d) → (a + c, b + d)
: R × R2 → R2
r (a, b) → (ra, rb)
Existe una forma más sencilla de demostrar que un conjunto es un subespacio vectorial,
sin necesidad de demostrar cada una de las condiciones de la definición 4.1.
142 Espacios Vectoriales
Teorema 4.5
Sea V un espacio vectorial sobre F y S ⊆ V un conjunto no vacío, entonces S es un
subespacio vectorial de V si y sólo si cumple las siguientes condiciones:
El conjunto S es cerrado bajo la suma: Cualquiera dos elementos de S sumados
dan como resultado un elemento que también está en S. Es decir, si u, v ∈ S,
entonces u ⊕ v ∈ S.
El conjunto S es cerrado bajo la multiplicación por escalares: Cualquier
elemento de S multiplicado por cualquier escalar da como resultado un elemento
que también está en S. Es decir, si r ∈ F y v ∈ S, entonces r v ∈ S.
Nota A partir de ahora usaremos el símbolo + para representar la suma de vectores en general
en lugar del símbolo ⊕ que hemos estado empleando hasta el momento, entendiendo
que al lector le ha quedado claro que el símbolo + representa una operación que puede
(o no) ser la suma que usualmente se conoce, y que a pesar de no tener claramente
definida la forma de aplicar la operación, si conocemos, en cambio, sus propiedades.
De igual manera usaremos el símbolo · para representar la multiplicación por escalar
que hemos estado representado por el símbolo .
Ejemplo 4.13
El conjunto ( ! )
a 0
W= a, b ∈ R
0 b
forma un subespacio vectorial del espacio M2×2 (R) bajo las operaciones usuales de
matrices.
Para demostrar esto usaremos el teorema anterior. Verificamos primero la cerradura
de la suma.
Sean ! !
a 0 c 0
u= y v= ,
0 b 0 d
entonces ! ! !
a 0 c 0 a+c 0
u+v = + =
0 b 0 d 0 b+d
y este resultado claramente satisface la condición dada en la definición del conjunto W,
lo cual quiere decir que u + v ∈ W.
Por otro lado, si r ∈ R, entonces
! !
a 0 ra 0
r·u = r = ∈W
0 b 0 rb
4.2 Subespacios Vectoriales 143
Ejemplo 4.14
el conjunto
W = {(a, b, 0)|a, b ∈ R}
forma un subespacio vectorial del espacio R3 bajo las operaciones definidas en R3 .
Para probar la cerradura de la suma tomamos
entonces
u + v = (a, b, 0) + (c, d, 0) = (a + c, b + d, 0) ∈ W
y probamos así que la suma es cerrada.
Para la multiplicación por escalar tomamos r ∈ R y vemos que:
Ejemplo 4.15
En el espacio vectorial R[x], de polinomios reales en la variable x, el conjunto formado
por polinomios de la forma ax + 3ax2 donde a ∈ R forma un subespacio vectorial. Si
denotamos por W a este conjunto, entonces:
Esto indica que para que un vector de R[x] pertenezca al conjunto W debe ser de la
forma ax + 3ax2 , es decir, el polinomio debe ser de grado dos, su término independiente
debe ser 0 y el coeficiente del término cuadrático (x2 ), debe ser el triple del coeficiente
del término lineal (x). Así por ejemplo, el polinomio 5x + 15x2 pertenece al conjunto W,
mientras que el polinomio 5x − 15x2 no.
Para demostrar que en este caso W es un subespacio vectorial definimos:
u = ax + 3ax2 , y v = bx + 3bx2
144 Espacios Vectoriales
y al sumar obtenemos:
el cual pertenece a W.
Por otro lado, si r ∈ R, entonces:
Teorema 4.6
Sea V un espacio vectorial sobre un campo F, y sea W un subconjunto de vectores de
V, entonces W forma un subespacio vectorial bajo las mismas operaciones definidas
sobre V si y sólo si para cualesquiera dos vectores u, v ∈ W y cualesquiera dos escalares
c1 , c2 ∈ F se cumple que:
c1 v1 + c2 v2 ∈ W.
Decimos que los teoremas 4.5 y 4.6 son equivalentes ya que se puede demostrar cual-
quiera de ellos a partir del otro, además estos dos teoremas nos proporcionan diferentes
métodos para demostrar que un subconjunto W forma un subespacio vectorial de un espacio
V. La demostración es relativamente sencilla y se deja al lector como ejercicio.
Teorema 4.7
Sea U un subespacio de un espacio vectorial V. Entonces U contiene al vector cero de
V, (0V ).
El teorema anterior nos muestra una condición necesaria mas no suficiente para un
subespacio vectorial sin embargo una reinterpretración de este teorema anterior nos permite
identificar fácilmente los conjunto que no son subespacios vectoriales:
Corolario 4.2.1
Sea U un subconjunto de un espacio vectorial V, si 0V ∈
/ U, entonces U no es un
subespacio vectorial.
Ejemplo 4.16
Vamos a probar que el conjunto
W = {(a, a2 , 1)| a ∈ R}
Primera prueba
Primero revisamos la propiedad de cerradura para la suma. Sean
entonces
u + v = (a, a2 , 1) + (c, c2 , 1) = (a + c, a2 + c2 , 1 + 1)
y se puede ver que este resultado no pertenece al conjunto W ya que la segunda
coordenada no es igual al cuadrado de la primera como lo exige la definición de W
(a2 + b2 6= (a + b)2 ) y la tercera coordenada es 2 6= 1, entonces W no es un subespacio
vectorial.
Segunda prueba
Volveremos a demostrar que W no es un espacio vectorial, pero ahora usaremos
el corolario anterior. Como ya sabemos, si consideramos que V = R3 , entonces 0V =
(0, 0, 0), pero 0V ∈
/ W ya que este vector no cumple que la tercera coordenada sea igual a
146 Espacios Vectoriales
Ejemplo 4.17
Demostrar que el conjunto de coordenadas del espacio vectorial R3 contenidas en el
siguiente conjunto forman un subespacio vectorial.
P = {(x, y, z)| 2x − y + 3z = 0}
Supongamos que u = (a, b, c) y v = (d, e, f ) son dos vectores que pertenen al conjunto
P, entonces, por definición, deberían satisfacer la condición:
2a − b + 3c = 0, y 2d − e + 3 f = 0.
ru + tv = r(a, b, c) + t(d, e, f )
= (ra, rb, rc) + (td,te,t f )
= (ra + td, rb + te, rc + t f )
con lo cual probamos que el vector ru + tv también cumple la condición con la que se
define al conjunto P, por lo cual podemos afirmar que ru + tv ∈ P y entonces P es un
subespacio vectorial.
El subespacio vectorial del ejemplo anterior está conformado por coordenadas que se
pueden representar gráficamente como un plano en el espacio R3 , como se observa en la
figura 4.3
4.3 Combinaciones Lineales 147
-5
-5
0 0
0
-5
Ejemplo 4.18
Tomamos el espacio vectorial V = R2 y el conjunto de vectores
Para formar una combinación lineal bastará elegir tres escalares que se multipliquen
con cada uno de los vectores anteriores y se sumen, por ejemplo, una combinación lineal
sería:
4 · (1, −1) + (−2) · (2, −1) + 0 · (−1, 4) = (0, −2)
148 Espacios Vectoriales
Ejemplo 4.19
Para mostrar un ejemplo de una combinación lineal en M2×2 (R), tomamos el conjunto
de vectores: ( ! !)
1 −1 0 2
U = {v1 , v2 } = , ,
2 −3 4 −1
y entonces se puede formar una combinación lineal si multiplicamos el primero vector
por 2 y el segundo vector por -2:
! ! !
1 −1 0 2 2 −6
2· + (−2) · =
2 −3 4 −1 −4 −4
En general lo que nos interesa no es formar combinaciones lineales, sino más bien
es saber si un vector dado puede obtenerse como combinación lineal de un conjunto de
vectores. El problema principal consiste, entonces, en encontrar los escalares que cumplen
la igualdad en la combinación lineal. A continuación se muestran algunos ejemplos en los
que se verifica que un vector sea combinación lineal de un conjunto de vectores.
Ejemplo 4.20
Demostrar que el vector (5, 4, 2) puede obtenerse como combinación lineal de los vecto-
res del conjunto: U = {(1, 2, 0), (3, 1, 4), (1, 0, 3)}.
Vamos a empezar suponiendo que existen escalares c1 , c2 , c3 tales que:
entonces lo que debemos hacer es tratar de hallar los escalares que satisfagan la igualdad
anterior. Veamos que:
c1 + 3c2 + c3 = 5
2c1 + c2 = 4
4c2 + 3c3 = 2
y entonces, para hallar los valores de los escalares, tenemos que resolver el sistema de
ecuaciones lineales. Aplicamos el método de reducción de Gauss-Jordan sobre la matriz
aumentada del sistema:
1 3 1 5 1 3 1 5
R2 −2R1 →R2 4R52 +R3 →R3
2 1 0 4 −
−−−−−−→ 0 −5 −2 −6 −−−−−−−→ · · ·
0 4 3 2 0 4 3 2
1 3 1 5 1 3 1 5
− 15 R2 →R2 5R73 →R3
· · · → 0 −5 −2 −6 2 6
−−−−−−→ 0 1
−−−−−→ · · ·
5 5
7
0 0 5 − 14
5 0 0 7
5 − 14
5
1 3 1 5 1 0 − 15 7
5
R1 −3R2 →R1 R1 + R53 →R1
··· → 2 6 −−−−−−−→ 2 6 −−−−−−−→ · · ·
0 1 5 5 0 1 5 5
0 0 1 −2 0 0 1 −2
1 0 0 1 1 0 0 1
R2 − 2R53 →R2
2 6
··· → 0 1 5 5 −− −− − − −→ 0 1 0 2
0 0 1 −2 0 0 1 −2
Ejemplo 4.21 !
2 −3
En el R−espacio vectorial V = M2×2 (R), determinar si el vector se puede
0 2
obtener como combinación lineal del conjunto:
( ! !)
1 0 0 1
U= , .
0 1 0 0
Como el conjunto U solo tiene dos vectores, vamos a emplear dos escalares c1 y c2
como incógnitas, y escribimos la combinación lineal buscada:
! ! !
1 0 0 1 2 −3
c1 · + c2 · =
0 1 0 0 0 2
! ! !
c1 0 0 c2 2 −3
⇒ + =
0 c1 0 0 0 2
! !
c1 c2 2 −3
⇒ = .
0 c1 0 2
En este caso se debería formar un sistema de cuatro ecuaciones, una por cada
componente de la matriz, aunque como se puede observar la componente a21 de la matriz
ya es igual en ambos miembros de la expresión, por lo cual el sistema en realidad tiene
tres ecuaciones que se muestran a continuación:
Para la componente a11 se debe cumplir que c1 = 2.
La componente a12 nos indica que se debe cumnplir que c2 = −3.
Por último la componente a22 pide que c1 = 2, como en la primera ecuación.
En este caso el sistema que se forma al calcular la combinación lineal con las variables
ci es demasiado sencillo y de hecho ya se encuentra resuelto, por lo cual podemos concluir
que el vector sí es combinación lineal del conjunto dado.
4.3 Combinaciones Lineales 151
Ejemplo 4.22
¿El vector v = 3x3 − 2x2 + 7x − 2 es combinación lineal de los vectores del conjunto
U = x + 1, x − 1, x2 , x3 en el R−espacio vectorial de los polinomios reales en la
variable x, R[x]?
Para responder la pregunta tomamos variables c1 , c2 , c3 y c4 y calculamos la combi-
nación lineal:
c1 · (x + 1) + c2 · (x − 1) + c3 · x2 + c4 · x3 = 3x3 − 2x2 + 7x − 2
⇒ (c1 x + c1 ) + (c2 x − c2 ) + c3 x2 + c4 x3 = 3x3 − 2x2 + 7x − 2
⇒ c4 x3 + c3 x2 + (c1 + c2 )x + (c1 − c2 ) = 3x3 − 2x2 + 7x − 2
De aquí podemos ver que para que la igualdad se cumpla, los coeficientes de los términos
correspondientes deben ser iguales, es decir, los coeficientes del término x3 en ambos
miembros deben ser iguales, es decir c4 = 3 y de igual manera, los coeficientes de
los términos x2 en ambos lados de la igualdad deben cumplir que: c3 = −2. Estas dos
primeras condiciones nos muestran los valores para dos de los cuatro parámetros que
debemos despejar. Los otros dos parámetros deben cumplir que:
c1 + c2 = 7
c1 − c2 = −2
c1 · (x + 1) + c2 · (x − 1) + c3 · x2 + c4 · x3 = 3x3 − 2x2 + 7x − 2
⇒ (5/2) · (x + 1) + (9/2) · (x − 1) + (−2) · x2 + 3 · x3 = 3x3 − 2x2 + 7x − 2
⇒ ((5/2)x + (5/2)) + ((9/2)x − (9/2)) − 2x2 + 3x3 = 3x3 − 2x2 + 7x − 2
⇒ 3x3 − 2x2 + (5/2 + 9/2)x + (5/2 − 9/2) = 3x3 − 2x2 + 7x − 2
⇒ 3x3 − 2x2 + 7x − 2 = 3x3 − 2x2 + 7x − 2
Ejemplo 4.23
Determinar el conjunto gen(W ) en el espacio vectorial R2 si
El conjunto generado se forma con todas las combinaciones lineales del conjunto de
vectores W :
gen(W ) = {c1 · v1 + c2 · v2 + c3 · v3 | c1 , c2 , c3 ∈ R}
= {c1 (1, −1) + c2 (2, −1) + c3 (−1, 4)| c1 , c2 , c3 ∈ R}
= {(c1 , −c1 ) + (2c2 , −c2 ) + (−c3 + 4c3 )| c1 , c2 , c3 ∈ R}
= {(c1 + 2c2 − c3 , −c1 − c2 + 4c3 )| c1 , c2 , c3 ∈ R}
Esta última expresión nos permite identificar claramente la condición que se debe
cumplir para que un vector se encuentre dentro del conjunto generado gen(W ). Además
esto quiere decir que si queremos hallar a un elemento del generado únicamente debemos
seleccionar valores para los escalares c1 , c2 y c3 , por ejemplo, si c1 = 1, c2 = 1 y c3 = 1,
entonces podemos mostrar que el vector (2, 2) pertenece al conjunto gen(W ) ya que:
(c1 + 2c2 − c3 , −c1 − c2 + 4c3 ) = (1 + 2(1) − (1), −(1) − (1) + 4(1)) = (2, 2)
Teorema 4.8
Dado un conjunto W = {w1 , w2 , ..., wn } de vectores de un espacio vectorial V , entonces
el conjunto gen(W ) es un subespacio vectorial de V.
De acuerdo con el teorema 4.6, para que un subconjunto W forme un subespacio bastará
demostrar que se cumple que si v1 , v2 ∈ W, entonces
c1 v1 + c2 v2 ∈ W,
para cualesquiera dos escalares c1 y c2 .
Supongamos que:
v1 , v2 ∈ gen(W ),
esto quiere decir entonces que v1 y v2 son combinación lineal de los vectores de W, es decir,
existen dos conjuntos de escalares {c1 , c2 , ..., cn } y {d1 , d2 , ..., dn } tales que
v1 = c1 v1 + c2 v2 + · · · + cn vn ,
y
v2 = d1 v1 + d2 v2 + · · · + dn vn .
Entonces, si multiplicamos estos vectores por dos escalares cualesquiera k1 y k2 tendría-
mos que:
k1 v1 = k1 (c1 v1 + c2 v2 + · · · + cn vn )
⇒ k1 v1 = (k1 c1 )v1 + (k1 c2 )v2 + · · · + (k1 cn )vn
y por otro lado
k2 v2 = k2 (d1 v1 + d2 v2 + · · · + dn vn )
⇒ k2 v2 = (k2 d1 )v1 + (k2 d2 )v2 + · · · + (k2 dn )vn ,
luego, al sumar tenemos que
Ejemplo 4.24
Demostrar que el conjunto de vectores
Ahora, para demostrar que gen(W ) = R2 , afirmamos que no es posible que gen(W ) 6=
R2 ya que si fueran conjuntos distintos, entonces debería existir al menos un vector
que podemos representar por (x, y) ∈ R2 tal que (x, y) ∈ / gen(W ). En otras palabras si
gen(W ) 6= R entonces debería existir al menos un vector (x, y) que no sea combinación
lineal de los vectores de W.
Para que este vector (x, y) ∈
/ gen(W ) exista, entonces no deberían existir escalares c1
y c2 tales que
c1 (1, 1) + c2 (1, −1) = (x, y).
Esto implica que el sistema de ecuaciones lineales que se forma de esta igualdad no debe
tener solución:
c1 + c2 = x
c1 − c2 = y
pero si analizamos la matriz aumentada de este sistema veremos que el determinante de
la matriz de coeficientes es:
!
1 1
det = −2 6= 0
1 −1
con lo cual el sistema es compatible determinado sin importar los valores de (x, y), esto
quiere decir que nunca podremos encontrar un vector (x, y) que no pertenezca a gen(W ).
En conclusión, no podemos afirmar que gen(W ) 6= R2 , es decir gen(W ) = R2 , por lo
cual W es un conjunto de vectores generadores del espacio vectorial R2 .
Ejemplo 4.25
Determinar si el conjunto de vectores: U = {(1, 0, 1), (0, 1, 1), (1, 1, 2)} es un conjunto
de generadores del espacio vectorial R3 .
Empezamos calculando el espacio generado por los vectores de U.
a1 + a3 = x
a2 + a3 = y
a+ a2 + 2a3 = z
c1 + c3 = x
c2 + c3 = y
0 = −x − y + z
lo cual nos muestra que el sistema original (obtenido por la combinación lineal de
los vectores de U) puede ser compatible indeterminado o también podría llegar a ser
incompatible. La distinción entre estas dos posibilidades depende del resultado de
−x − y + z :
Si al sustituir los valores de las variables x, y y z obtenemos un valor igual a cero,
−x − y + z = 0, entonces el sistema será indeterminado, es decir existirán infinitas
soluciones y entonces el vector formado con estos valores, (x, y, z), pertenecerá al
conjunto gen(U).
156 Espacios Vectoriales
a1 v1 + a2 v2 + ... + am vm = 0V
En caso contrario se dice que los vectores son linealmente independientes sobre F, o
simplemente independientes.
Ejemplo 4.26
Vamos a determinar si el conjunto de vectores
a1 + a2 + 3a3 = 0
a1 − a2 + 4a3 = 0
! !
7
1 1 3 0 R1 −R2 →R1 1 0 2 0
··· → −−−−−−→
0 1 − 12 0 0 1 − 12 0
El resultado final del proceso de gauss-Jordan nos muestra que el sistema escalonado
reducido de las ecuaciones formadas en la combinación lineal, tienen dos ecuaciones y
tres incógnitas y queda de la forma:
c1 + 72 c3 = 0
c2 − 12 c3 = 0
y observamos que el sistema es indeterminado, ya que para hallar los valores de las
incógnitas tendremos una variable libre c3 , y las soluciones quedan:
c1 = − 72 c3
1
c2 = 2 c3
c3 = libre
158 Espacios Vectoriales
Ejemplo 4.27
Demostrar que el conjunto
( ! ! !)
1 −1 −1 1 0 1
U= , ,
0 1 0 1 1 1
! ! ! !
c1 −c1 −c2 c2 0 c3 0 0
+ + =
0 c1 0 c2 c3 c3 0 0
! !
c1 − c2 −c1 + c2 + c3 0 0
=
c3 c1 + c2 + c3 0 0
c1 − c2 = 0
−c1 + c2 + c3 = 0
c3 = 0
c1 + c2 + c3 = 0
4.4 Bases y dimensión de un Espacio Vectorial 159
1 −1 0 0 1 −1 0 0
0 0 1 0 R2 ↔R4 0 2 1 0 R4 −R3 →R4
··· →
0
−−−−→ − −−−−−→ · · ·
0 1 0
0
0 1 0
0 2 1 0 0 0 1 0
1 −1 0 0
0 2 1 0
··· →
0
0 1 0
0 0 0 0
Teorema 4.9
Sea V un espacio vectorial y sean {v1 , v2 , ..., vn } ⊂ V, entonces:
Si 0V es uno de los vectores v1 , ..., vm , los vectores deben ser linealmente depen-
dientes.
Cualquier vector no nulo v es por sí solo linealmente independiente.
Si dos de los vectores son iguales, o si uno es un múltiplo escalar de otro, los
vectores son linealmente dependientes.
Si un conjunto S de vectores es linealmente independiente, necesariamente lo es
cualquier subconjunto de S.
Ejemplo 4.28
En los siguientes conjuntos es fácil determinar si son linealmente independientes o
linealmente dependientes usando el teorema anterior.
160 Espacios Vectoriales
El conjunto {(1, 0), (0, 1), (0, 0)} es linealmente dependiente ya que el tercer vector
es el neutro aditivo, 0V , del espacio vectorial R2 .
En el espacio vectorial R[x], el conjunto que sólo continene a un vector: U =
{3x2 − 5x + 2}, es linealmente independiente.
En el espacio vectorial de matrices M2×3 (R), los vectores del conjunto
( ! ! !)
1 0 −1 0 1 1 2 0 −2
U= , , ,
0 1 1 1 0 1 0 2 2
Teorema 4.10
Para un conjunto no vacío de vectores S = {u1 , u2 , ..., un } en un espacio V, las siguientes
afirmaciones son verdaderas
Si S contiene un subconjunto l. d, entonces S por sí mismo es l. d.
Si S es l. i. entonces cualquier subconjunto de S es l. i.
Ejemplo 4.29
Sean u = (−1, 2) y v = (3, 5). Demuestre que {u, v} constituye una base del R−espacio
vectorial R2 .
Solución
−c1 + 3c2 = 0
2c1 + 5c2 = 0
−α + 3β = x
2α + 5β = y
! !
1 −3 −x 1
11 R2 →R2 1 −3 −x R +3R →R
1
··· → −−−−−→ (2x+y) −− −−−2−−→
1
···
0 11 2x + y 0 1 11
!
−5x+3y
1 0 11
··· → (2x+y)
0 1 11
El proceso para demostrar que un conjunto de vectores forma una base de un espacio
vectorial, consiste en realizar dos pruebas sobre el conjunto: se debe demostrar que los
vectores son linealmente independientes y también se debe demostrar que los vectores
son generadores del espacio vectorial correspondiente. Este proceso puede resultar un
poco complicado, sin embargo existen ciertas bases para las cuales esta demostración
es relativamente sencilla. A continuación se ejemplifican algunas bases de los espacios
vectoriales tradicionalmente conocidos:
Ejemplo 4.30
Los siguientes conjuntos son bases de los respectivos espacios vectoriales:
Una base para el R−espacio vectorial R2 esta dado por el conjunto de vectores:
forma:
donde cada vector vi tiene n componentes y todas son cero excepto la componente
en la posición i que vale 1.
Una base para el espacio vectorial R[x] está dada por el conjunto infinito de la
forma:
{1, x, x2 , x3 , · · · , xn , · · · }
En el espacio vectorial de las matrices M2×2 (R), una base está conformada por los
vectores: ( ! ! ! ! )
1 0 0 1 0 0 0 0
, , , ,
0 0 0 0 1 0 0 1
Nota Las bases dadas en el ejemplo anterior se denominan frecuentemente como bases
canónicas de sus respectivos espacios vectoriales.
Teorema 4.11
Si V es un espacio vectorial y S es una base de V entonces:
Cualquier subconjunto de S es linealmente independiente.
Cualquier subconjunto de S no es generador de V.
Cualquier conjunto que contenga a S será linealmente dependiente. y generador.
Nota Una base también se puede definir como un conjunto maximal de vectores l. i.,
en el sentido de que cualquier conjunto de vectores independientes no puede tener
más elementos que los que hay en S, sin importar cuales ean estos vectores. En otras
palabras, si sabemos que una base S de un espacio vectorial V está conformada por n
vectores, entonces no pueden existir conjuntos de vectores linealmente independientes
con más de n elementos.
Las bases también se definen como conjuntos minimales de vectores generadores,
lo cual quiere decir que una base siempre contendrá el menor número posible de
vectores que son generadores de un espacio vectorial. Esto quiere decir que si una base
S, de un espacio vectorial V, tiene n elementos, entonces ningún conjunto con menos
de n vectores podrá conformar un conjunto de generadores de ese espacio vectorial.
Ejemplo 4.31
Encontrar una base para el conjunto de vectores que se encuentran en el plano definido
por:
P = {(x, y, z)| 2x − y + 3z = 0}
conformado por coordenadas en el espacio vectorial R3 .
En el ejemplo 4.17 ya demostramos que este conjunto efectivamente forma un
subespacio vectorial, ahora encontraremos una base para éste.
La condición 2x − y + 3z = 0 representa una ecuación con tres incógnitas, que para
resolverse necesita emplear dos variables artificiales: y y z, con lo cual entonces las
soluciones de la ecuación están dadas por
t − 3r
x= , y = t, z = r,
2
donde t y r son valores cualesquiera (variables libres). Entonces podemos definir al
conjunto P como:
P = {(x, y, z)| 2x − y + 3z = 0}
= {(x, y, z)| x = t−3r , y = t, z = r, ∧ r, t ∈ R}
t−3r 2
= 2 ,t, r | r, t ∈ R
El vector ((t − 3r)/2,t, r) se puede descomponer como una suma de dos vectores
(t/2,t, 0) y (−3r/2, 0, r) y entonces:
esto quiere decir que los vectores (1/2, 1, 0) y (−3/2, 0, 1) son generadores de P. Enton-
ces, para hallar la base del conjunto P sólo nos falta verificar que estos dos vectores sean
linealmente independientes.
4.4 Bases y dimensión de un Espacio Vectorial 165
Supongamos que U = {v1 , v2 , . . . .vn } es una base para el espacio vectorial V y que
w ∈ V, entonces como U forma un conjunto de vectores generadores de V, deberían existir
al menos un conjunto de escalares {c1 , c2 , ..., cn } tales que:
w = c1 v1 + c2 v2 + ... + cn vn
Ahora supongamos que {d1 , d2 , ..., dn } forma otro conjunto de escalares tales que
w = d1 v1 + d2 v2 + ... + dn vn ,
entonces
y como los vectores v1 , v2 , ..., vn forman una base, entonces son linealmente independientes,
lo cual implica que la única forma en que la combinación lineal
nos da como resultado al vector 0V es cuando sus coeficientes son todos 0, esto implica
entonces que:
c1 − d1 = 0, c2 − d2 = 0, · · · , cn − dn = 0
o bien:
c1 = d1 , c2 = d2 , ··· , cn = dn .
Esta argumentación es una prueba para el siguiente teorema.
166 Espacios Vectoriales
Teorema 4.12
Si {v1 , v2 , ..., vn } es una base para un espacio vectorialV y si w ∈ V, entonces existe
un conjunto único de escalares c1 , c2 , ..., cn tales que
w = c1 v1 + c2 v2 + ... + cn vn .
Ejemplo 4.32
Continuando con el ejemplo 4.30, podemos dar las dimensiones de los espacios vectoria-
les tradicionalmente conocidos:
dim(R2 ) = 2.
dim(R3 ) = 3.
dim(Rn ) = n, siempre que n ∈ N.
dim(M2×2 (R)) = 4.
dim(R[x]) = ∞.
Teorema 4.13
Supongamos que V es un espacio vectorial de dimensión finita, y que W forma un
subespacio vectorial de V, entonces:
dim(W ) ≤ dim(V ).
Si dim(W ) = dim(V ), entonces W = V.
Para concluir esta sección resumimos algunas propiedades básicas de las bases:
La base de un espacio vectorial V no es única.
Todas las bases de V tienen exactamente el mismo número de elementos.
Cualquier conjunto de vectores de un espacio vectorial V de dimensión n que contenga
n + 1 vectores es linealmente dependiente.
Si un conjunto de vectores de un espacio vectorial V de dimensión n tiene n vectores
linealmente independientes, entonces es una base de V.
4.5 Producto Interno 167
Definición 4.9
Un producto interno en un espacio vectorial real (o complejo) V es una función que
mapea cada par ordenado de vectores (x, y) a un escalar real (o complejo) hx|yi tal que
las siguientes cuatro propiedades se cumplan:
1. hx|yi es real con hx|xi ≥ 0, y hx|xi = 0 si y solo si x = 0.
2. hx|αyi = αhx|yi.
3. hx|y + zi = hx|yi + hx|zi.
4. hx|yi = hy|xi para espacios reales.
Un producto interno para los espacios vectoriales Rn está definido para vectores de la
forma u = (a1 , ..., an ), v = (b1 , b2 , ..., bn ) por la función:
n
hu|vi = ∑ ak bk = a1b1 + a2b2 + ... + anbn.
k=1
hu|vi = a1 b1 + a2 b2
Propiedad 3: Si w = (c1 , c2 )
Propiedad 4:
hu|vi = h(a1 , a2 )|(b1 b2 )i
= a1 b1 + a2 b2
= b1 a1 + b2 a2
= h(b1 , b2 )|(a, a2 )i
= hv|ui
y con estas propieades demostramos que la función dada sí es un producto interno en el
espacio R2 .
Estos productos internos también son llamados producto punto, producto escalar o
producto euclideano.
Ejemplo 4.33
Calcular el producto interno de los vectores u = (2, −5) y v = (2, 1) suando el producto
escalar definido anteriormente.
Ejemplo 4.34
Calcular el producto escalar de los vectores u = (2, −1, 0) y v = (5, 0, −3), en el espacio
vectorial R3 .
4.5 Producto Interno 169
4.5.1 Normas
Un primer resultado que se puede obtener a partir del producto interno es el concepto
de norma de vectores en un espacio vectorial. Aunque dicho concepto es más general
en términos matemáticos, aquí nos centraremos principalmente en su aplicación para los
espacios R2 y R3 , donde la norma se puede interpretar geométricamente como la longitud
de un vector en el plano o el espacio.
Ejemplo 4.35
Calcular la norma euclideana del vector (2, −3, 1).
p
k(2, −3, 1)k = 22 + (−3)2 + 12
√
= 4+9+1
√
= 14.
170 Espacios Vectoriales
1.0
0.5
ÈÈvÈÈ=1
-0.5
v
-1.0
Figura 4.4: Vector v = √1 , − √1 y su norma.
2 2
Ejemplo 4.36
Calcular la norma euclideana del vector ( √12 , − √12 ).
r
2 2
k( √12 , − √12 )k = √1 , − √1
q 2 2
1 1
= +
√2 2
= 1
= 1
hu|ui ≥ 0,
Además
p
kuk = 0 ⇒ hu|ui = 0
⇒ hu|ui = 0
⇒ u = 0V (por propiedades del producto interno) euclideano)
Entonces, de las propiedades del producto interno se derivan las siguientes propieadades de
las normas:
Teorema 4.15
Si u ∈ Rn y r es un escalar, entonces se cumplen las siguientes propiedades:
a) kuk > 0 si u 6= 0V .
b) kuk = 0 si y sólo sí u = 0.
c) kruk = |r|kuk.
172 Espacios Vectoriales
A+B
A+B
Ha1 ,a2 L
ÈÈA+BÈÈ
ÈÈBÈÈ ÈÈBÈÈ ÈÈA+BÈÈ
Hb1 ,b2 L
ÈÈAÈÈ
ÈÈAÈÈ
ku + vk ≤ kuk + kvk,
pero geométricamente cuando los vectores forman flechas que son perpendiculares entre sí
(ver figura 4.5), por el teorema de Pitágoras entonces tendríamos que:
esto identifica que cuando los vectores son perpendiculares entonces hu|vi = 0, con lo cual
obtenemos la siguiente definición:
Definición 4.11
Dos vectores u y v en Rn se dice que son perpendiculares u ortogonales si hu|vi = 0.
Ejemplo 4.37
Demuestre que los vectores (1, 2, −3) y (3, 0, 1) son perpendiculares entre sí.
2
-4
-2
-
z -2
0
0
y 0
2
x 2
4
-2 4
-4
Figura 4.6: Representación gráfica de dos vectores ortogonales (ver ejemplo 4.37)
tB +C = A
ktBk tkBk
Cos(θ ) = = .
kAk kAk
luego juntando estos dos resultados tenemos que
hA|Bi
Cos(θ ) =
kAkkBk
⇒ hA|Bi = kAkkBkCos(θ ).
174 Espacios Vectoriales
C A=tB+C
tB
hA|Bi
t=
hB|Bi
Teorema 4.17
Si u y v son dos vectores no nulos, entonces:
hu|vi = kukkvkCos(θ ).
Ejemplo 4.38
El conjunto de vectores:
W = {(−1, 3), (6, 2)}
forma una base ortogonal para el espacio vectorial R2 .
Para comprobar esta afirmación primero verificamos que los vectores son linealmente
independientes. Calculamos las soluciones de la combinación lineal:
por lo cual el sistema es compatible determinado, es decir que únicamente tiene una
solución (la trivial) y por lo tanto los vectores son linealmente independientes.
Ahora comprobamos que los vectores son generadores del espacio vectorial. Calcula-
mos el conjunto generado por estos vectores:
En conclusión los vectores del conjunto W forman una base ortogonal para el espacio
vectorial R2 .
176 Espacios Vectoriales
Ejemplo 4.39
Las bases canónicas de Rn son bases ortogonales. Por ejemplo, la base:
Ejemplo 4.40
El conjunto de vectores
( r ! )
1 1 1 2 1 1 −1 1
W = {v1 , v2 , v3 } = √ ,√ ,√ , − ,√ ,√ , 0, √ , √
3 3 3 3 6 6 2 2
q q
√1 , √1 , √1 2 √1 √1
| − 3, 6, 6 = √1 − 23 + √13 √1 + √13 √1
3 3 3 3 6 6
√
− 2
= 3 + √118 + √118
√
− 2 1 1
= 3 + √
3 2
+ √
3 2
√
− 2 2
= 3 + 3√ 2
√ √ √
− 2
= 3 + 32√22
√ √
− 2
= 3 + 32
= 0
Para v1 y v3 tenemos:
D E
√1 , √1 , √1 −1 √1 √1 (0) + √1 −1
3 3 3
| 0, √2
, 2
= 3 3
√
2
+ √13 √1
2
−1
= (0) + √ 6
+ √16
= 0
q q
2 √1 √1 −1 1 −1
− 3 , 6 , 6 | 0, √2 , √2 = − 23 (0) + √16 √
2
+ √16 √1
2
= (0) + √−1
12
+ √112
= 0
Esto demuestra que los vectores son ortogonales entre sí. Ahora calculamos la norma
de cada uno de ellos, empezando con v1
178 Espacios Vectoriales
2 2 2
√1 √1 √1
√1
3, 3, 3
= 3
+ √13 + √13
1
= 3 + 13 + 13
= 1
El módulo de v2 es:
q
q 2
2 2
2 1 1
− 23 + √16 + √16
−
3, 6, 6
=
√ √
2
= 3 + 16 + 16
2
= 3 + 26
= 1
2 2
−1 √1
2 −1
0, √ , = (0) + √ + √12
2 2 2
= 0 + 12 + 12
= 1
forman una base ortonormal para R3 . La figura 4.8 muestra la representación gráfica de
estos vectores en el espacio R3 .
-1
Figura 4.8: Vectores que forman una base ortonormal en R3 (ver ejemplo 4.40).
v02
u2 = 0 .
v2
v0
uk+1 = k+1 .
v0k+1
Ejemplo 4.41
Vamos a aplicar el proceso de Grahm-Schmidt en el espacio vectorial V = R3 con la base
180 Espacios Vectoriales
v02 = v2 − (v2 · u1 ) u1
D E
1 √1 √1 1 √1 √1
= (0, 1, 1) − (0, 1, 1)| 3 , 3 , 3
√ √
3
, 3, 3
= (0, 1, 1) − 0 + √13 + √13 √1 , √1 , √1
3 3 3
2 2 2
= (0, 1, 1) − 3, 3, 3
−2 1 1
= 3 , 3, 3 .
v02
u2 =
|v02 |
( −2 1 1
3 ,3,3)
= −2 1 1
k( 3 , 3 , 3 )k
( −2
√
1 1
3 ,3,3)
=
6/9
−2 1 1
(√ 3 ,3,3 )
=
2/3
q
2 √1 √1
= − 3, 6, 6
1 1 1
− − 31 , 16 , 16
= (0, 0, 1) − 3, 3, 3
0, − 12 , 21
=
v03
u3 =
|v03 |
(0,− 12 , 12 )
=
k(0,− 12 , 12 )k
1 1
(0,− , )
q2 2
= 1
2
−1 √1
= 0, √2
, 2
En el ejemplo 4.40 anteriormente mostrado, verificamos que esta base cumple las
condiciones de ortonormalidad.
5 — Transformaciones Lineales
f :R→R
T (u + w) = T (u) + T (w)
y
T (αu) = αT (u)
o bien equivalentemente
Proyección
T : Rn → Rn
T (x1 , x2 , ..., xn ) = (x1 , x2 , ..., xi−1 , 0, xi+1 , ..., xn ),
Las proyecciones que nos interesan estudiar son las que se aplican sobre los espacios R2
yR3 ya que estas tienen una interpretación gráfica, a continuación se muestra un ejemplo
de una proyección.
Ejemplo 5.1
La función:
T : R3 → R3
definida como T (x, y, z) = (x, y, 0), es una trasnformación lineal.
Para demostrar la afirmación anterior tomemos:
y α, β ∈ R, entonces:
u
3
0
1
1
2 2
3
THuL
4
THuL
3 u
0
1
1
2
2
3
Dilatación
Definición 5.3 — Dilatación.
Definimos la dilatación como la transformación lineal dada por la función:
T : Rn → Rn
T (x1 , x2 , ..., xn ) = r(x1 , x2 , ..., xn ),
con r ∈ R, r > 1.
Ejemplo 5.2
A continuación comprobaremos que la dilatación para el espacio vectorial R3 , es una
transformación lineal. Primero calculamos el lado izquierdo de la condición dada en
la definición de transformación lineal. Sean u = (a, b, c), w = (d, e, f ) vectores, y sean
α, β ∈ R, entonces:
3
THuL
u 2
1 1
2
2
Ejemplo 5.3
Sean
u1 = (2, 3), u2 = (−3, 2), u3 = (−1, −1), u4 = (3, −3),
aplique la dilatación en el plano con r = 2.
Aplicando la transformación lineal a cada uno de los vectores anteriores tenemos:
T (u1 ) = T (2, 3) = 2(2, 3) = (4, 6).
T (u2 ) = T (−3, 2) = 2(−3, 2) = (−6, 4).
5.1 Definiciones básicas 189
6 THu1L
5
THu2L
4
3 u1
u2
2
-6 -5 -4 -3 -2 -1 1 2 3 4 5 6
u3
-1
THu3L -2
u4
-3
-4
-5
-6 THu4L
Contracción
Definición 5.4 — Contracción.
Definimos la función de contracción como la transformación lineal dada por:
T : Rn −→ Rn
T (x1 , x2 , ..., xn ) = r(x1 , x2 , ..., xn )
Ejemplo 5.4
La demostración de que la contracción es una transformación lineal es similar a la de
la dilatación, ya que la única variación entre estas dos, está en la condición impuesta al
valor de r.
Como ejemplo, vamos a mostrar la aplicación de la contracción en R3 , tomando
r = 0,5. Sean
u1 = (4, 6, 2), u2 = (−8, 2, 4), u3 = (−4, −4, 6),
entonces
T (u1 ) = 0,5(4, 6, 2) = (2, 3, 1).
T (u2 ) = 0,5(−8, 2, 4) = (−4, 1, 2).
190 Transformaciones Lineales
u3
z
u2
THu3L
2 THu2L
-5
THu1L
0
0 u1
0
y
5
x
Reflexión
Definición 5.5 — Reflexión.
Definimos la Reflexión como la transformación lineal dada por:
T : Rn → Rn
T (x1 , ..., xi , ..., xn ) = (x1 , ..., −xi , ..., xn ),
A partir de la definición podemos observar que para un mismo espacio vectorial, existen
diferentes tipos de reflexiones dependiendo de la variable seleccionada para realizar el
cambio de signo.
Nuevamente, las reflexiones que podemos interpretar gráficamente son las que se de-
5.1 Definiciones básicas 191
Ejemplo 5.5
Aplicaremos la reflexión en el espacio vectorial R2 dada por:
T : R2 → R2
T (x, y) = (x, −y),
u1
5
THu3L
3
THu4L
2
u2
1
-4 -3 -2 -1 1 2 3
-1
THu2L
-2
u4
-3
u3
-4
-5
THu1L
La reflexión del ejemplo anterior se realizó sobre el eje x. Una segunda reflexión se
192 Transformaciones Lineales
Ejemplo 5.6
Vamos a aplicar la reflexión:
T : R3 → R3
T (x, y, z) = (x, −y, z),
THu2L
u2
6 z
-4
3
-3
-2
-1
THu1L -4 -3 -2 0 0 y
-1 0 1 2
1 3 4
2
3
u1
4
5
x
Rotación
Definición 5.6 — Rotación en el plano.
Definimos la función de Rotación en el plano R2 , como la transformación lineal dada
por:
Tα : R2 → R2
definida como
! !
Cos(α) −Sen(α) x
Tα (x, y) = · = (xCos(α) − ySen(α), xSen(α) + yCos(α)),
Sen(α) Cos(α) y
es la matriz de rotación.
Ejemplo 5.7
Aplicaremos las transformaciones de rotación en el plano, con ángulos de
! √ !
1 3
Cos(π/3) −Sen(π/3) −
Rπ/3 = = √2 2
3 1
Sen(π/3) Cos(π/3) 2 2
! !
Cos(π/2) −Sen(π/2) 0 −1
Rπ/2 = =
Sen(π/2) Cos(π/2) 1 0
194 Transformaciones Lineales
! √ !
3
Cos(2π/3) −Sen(2π/3) − 12 − 2
R2π/3 = = √
3
Sen(2π/3) Cos(2π/3) 2 − 12
! √ !
3
Cos(5π/6) −Sen(5π/6) − 2 − 12
R5π/6 = = √
1 3
Sen(5π/6) Cos(5π/6) 2 − 2
Ahora, al calcular las transformadas del vector (1, 0) bajo las rotaciones anteriores
tenemos que:
√ ! !
3 1 √
2 − 1 3 1
T(π/6) (1, 0) = √2 = (
1 3 2 , 2)
2 2 0
√ ! !
1
− 23 1 √
3
T(π/3) (1, 0) = √2
3 1
= ( 12 , 2 )
2 2 0
! !
0 −1 1
T(π/2) (1, 0) = = (0, 1)
1 0 0
√ ! !
3
− 21 − 1 √
3
T(2π/3) (1, 0) = √
3
2
= (− 12 , 2 )
2 − 12 0
√ ! !
3
− 2 − 21 1 √
3 1
T(5π/6) (1, 0) = √ = (− 2 , 2)
1
2 − 23 0
T Π HuL
2
T 2 Π HuL 1 T Π HuL
3 3
3
2
T 5 Π HuL T Π HuL
6 6
1
2
u
3 1 1 3
-1 - - 0 1
2 2 2 2
T : R3 −→ R3
T (v) = RvT
Cos(α) 0 Sen(α)
Ry (α) =
0
1 0
−Sen(α) 0 Cos(α)
Cos(α) −Sen(α) 0
Rz (α) =
Sen(α) Cos(α) 0
0 0 1
1.5
1.
0.5
0.5
0.5
1.
1.5
1.
2.
1.5 y
x
Ejemplo 5.8
Los vectores:
u1 = (1, 1, 1), u2 = (1, 2, 1), u3 = (1, 3/2, 2), u4 = (3/2, 3/2, 3/2)
forman los vértices de un tretraedro en el espacio (ver figura 5.9). Vamos a aplicarle una
rotación de 45◦ a esta figura con respecto al eje x.
Primero calculamos la matriz de rotación correspondiente:
1 0 0 1 0 0
Rx (45◦ ) = ◦ ) −Sen(45◦ ) = 0 √1 √1 ,
0 Cos(45 2
− 2
0 Sen(45◦ ) Cos(45◦ ) 0 √12 √12
5.1 Definiciones básicas 197
1 0 0 1 1
√
√1 − √12 2 = 2 − √1
0
Tx (u2 ) = 2 √ 2
0 √1 √1 1 2 + √1
2 2 2
1 0 0 1 1
√
√1 − √12
3
0
Tx (u3 ) = 2
3/2 = √
2 2
√ − 2
0 √1 √1 2 3
2+ 2 2
√
2 2
1 0 0 3
3/2
2
√1 1
0
Tx (u4 ) = 2
− √2 3/2 =
0
0 √1 √1 3/2 √3
2 2 2
La figura 5.10 muestra en color azul al tetraedro original y en color rojo el tetraedro
formado con la rotación de los vértices anteriores.
donde α y β son escalares y u, v son vectores del espacio vectorial donde se defina la
función.
198 Transformaciones Lineales
1 45°
0
0.
0.5
1.
1.5
2.
0.5
y
1.
1.5
x
Figura 5.10: Rotación de los vértices de un tetraedro en el espacio (ver ejemplo 5.8)
Ejemplo 5.9
Determinar si la función:
T : R3 → R[x]
T (a, b, c) = a + bx + cx2
polinomios.
Para comprobar que la función sea una transformación lineal, tomemos:
Como se puede ver, ambos resultados son iguales, con lo cual la función es una
transformación lineal.
Ejemplo 5.10
Definimos la función
T : R2 → R3
T (a, b) = (a + b, a − b, 2a − 3b)
Ejemplo 5.11
Verificar si la función:
T : R3 → R2
T (a, b, c) = (ab, ac)
es una transformación lineal.
Sean u = (a, b, c), v = (d, e, f ) ∈ R3 y α, β ∈ R, entonces:
y claramente observamos que en este caso los resultados no coinciden, por lo cual no se
cumple la condición para afirmar que T es una transformación lineal, esto quiere decir
que T no es transformación lineal.
sin embargo esta propiedad se puede generalizar para simplificar la evaluación, bajo una
transformación lineal, de una combinación lineal con más elementos, el siguiente procedi-
miento nos muestra esta descomposición.
Es fácil ver que si consideramos la combinación lineal de k elementos de la forma:
c1 v1 + c2 v2 + ... + ck vk
c1 v1 + (c2 v2 + ... + ck vk ),
Teorema 5.1
Si T : V → W es una transformación lineal, entonces
Otra propiedad importante de las transformaciones lineales está asociada con la exis-
tencia de inversos aditivos en los espacios vectoriales. Recordemos que si v es un vector
de un F−espacio vectorial V y 0 ∈ F, entonces 0v = 0V . Entonces, si T : V → W es una
transformación lineal y v es cualquier vector de V :
Teorema 5.2
Sea T : V → W una transformación lineal. Entonces:
T (0V ) = 0W
Un resultado mucho más útil que se puede obtener del teorema anterior se muestra a
continuación:
Proposición 5.2.1
Sea T : V → W una función. Si T (0V ) 6= 0W , entonces T no es una transformación
lineal.
Otra propiedad de los espacios vectoriales que podemos usar para obtener un nuevo
teorema es la de existencia de los inversos aditivos. Recordemos que si v es un vector de
un F− espacio vectorial, entonces debe existir otro vector, representado por −v, tal que
v + (−v) = 0V y además −v = −1v. De esta manera entonces:
T (u − v) = T (u + (−v))
= T (u) + T (−v)
= T (u) + T (−1v)
= T (u) + (−1)T (v)
= T (u) − T (v)
Teorema 5.3
Si T : V → W es una transformación lineal, entonces:
T (u − v) = T (u) − T (v).
Teorema 5.4
Sea T : V → W una transformación lineal de un espacio vectorial V de dimensión n en
un espacio vectorial W. Además, sea S = {v1 , ..., vn } una base de V.
Si u es cualquier vector en V, entonces T (u) se puede expresar como combinación
lineal de {T (v1 ), ..., T (vn )}.
Ejemplo 5.12
Sea L : R1 [t] → R2 [t]a una transformación lineal para la cual sabemos que
L(t + 1) = t 2 − 1; y L(t − 1) = t 2 + t
(c1 + c2 )t + (c1 − c2 ) = 7t + 3
c1 + c2 = 7
c1 − c2 = 3
entonces c1 = 5, c2 = 2.
Usando esta combinación tenemos que:
c1 (t + 1) + c2 (t − 1) = at + b
a En
general definimos el espacio vectorial Rn [x] como el conjunto de polinomios relaes en la variable
x y de grado menor o igual a n.
5.2.1 Isomorfismos
Dado que las transformaciones lineales se pueden interpretar como funciones entre
espacios vectoriales, existen dos definiciones que coinciden con definiciones dadas para
funciones reales: la inyectividad y la suprayectividad.
Decir que una transformación lineal es inyectiva implica que no existen dos vectores
distintos en el espacio vectorial del dominio de la transformación, cuyos vectores trans-
formados coincidan, es decir, que cualesquiera dos vectores distintos darán dos resultados
distintos al aplicarles la transformación.
Ejemplo 5.13
Vamos a verificar que la transformación lineal
T : R3 → R[x]
T (a, b, c) = a + bx + cx2
es inyectiva.
Para ello empezaremos suponiendo lo contrario, es decir, supongamos que existen al
menos dos vectores diferentes:
u1 = (a1 , b1 , c1 ) y u2 = (a2 , b2 , c2 )
5.2 Propiedades de las transformaciones Lineales 205
T( u1 ) = T (a1 , b1 , c1 ) = a1 + b1 x + c1 x2
y
T (u2 ) = T (a1 , b1 , c1 ) = a2 + b2 x + c2 x2 ,
entonces, si T (u1 ) = T (u2 ), esto quiere decir que:
a1 + b1 x + c1 x2 = a2 + b2 x + c2 x2
Ejemplo 5.14
Demostrar que la transformación:
T : M2×2 (R) → R2
!
a b
T = (a + d, b + c)
c d
y sean α, β ∈ R, entonces: ! !!
u11 u12 v11 v12
T (αu + β v) = T α +β
u21 u22 v21 v22
! !!
αu11 αu12 β v11 β v12
= T +
αu21 αu22 β v21 β v22
206 Transformaciones Lineales
!!
αu11 + β v11 αu12 + β v12
= T
αu21 + β v21 αu22 + β v22
!! !!
u11 u12 v11 v12
= αT +βT
u21 u22 v21 v22
= αT (u) + β T (v)
entonces
T (u) = (u11 + u22 , u12 + u21 )
y
T (v) = (v11 + v22 , v12 + v21 ),
pero como queremos que T (u) = T (v), entonces se debe cumplir que:
Estos dos resultados nos indican que existen infinitas combinaciones de valores para
las variables ui y vi cuyos resultados serán iguales bajo la función T, por ejemplo, si
tomamos: !
1 1
u= ⇒ T (u) = (2, 2)
1 1
y !
2 −1
v= ⇒ T (v) = (2, 2)
3 0
en este caso T (u) = T (v), pero u 6= v. En conclusión T es una transformación lineal no
inyectiva.
Ejemplo 5.15
Sea
T : R4 → M2×2 (R)
!
a b
T (a, b, c, d) =
c d
vamos a demostrar que esta transformación lineal es inyectiva.
Supongamos que u1 = (a1 , b1 , c1 ) y u2 = (a2 , b2 , c2 ), y que T (u1 ) = T (u2 ), esto
208 Transformaciones Lineales
significa que:
T (u1 ) = (a1 + b1 , a1 − b1 , a1 + c1 , a1 − c1 )
= (a2 + b2 , a2 − b2 , a2 + c2 , a2 − c2 )
= T (u2 )
entonces:
a1 + b1 = a2 + b2
a1 − b1 = a2 − b2
a1 + c1 = a2 + c2
a1 − c1 = a2 − c2
Para resolver este sistema, empezamos sumando término a término las primeras dos
ecuaciones del sistema anterior:
Teorema 5.5
Sea T : V → W es una transformación lineal inyectiva, y v ∈ V un vector tal que
T (v) = 0W , entonces v = 0V .
0V = c1 v1 + c2 v2 + ... + cn vn
pero esto es imposible ya que los vectores v1 , v2 , ...vn eran linealmente independientes.
Esto quiere decir que es imposible que S1 forme un conjunto de vectores dependientes. Esto
demuestra el siguiente teorema:
Proposición 5.2.2
Sea T : V → W una transformación lineal inyectiva y sea {v1 , ..., vn } un conjunto de
vectores linealmente independientes de V, entonces {T (v1 ), ..., T (vn )} es un conjunto
de vectores l. i. en W.
Ejemplo 5.16
Consideremos la transformación lineal inyectiva T : R2 → R2 dada por T (v) = AvT
donde !
3 5
A=
2 4
y los vectores linealmente independientes {(1, 0), (0, 1)}. Entonces el conjunto resultante
de aplicar la transformación es un conjunto linealmente independiente.
Dejamos al lector la prueba de que la transformación dada es inyectiva, para con-
centrarnos en mostrar una aplicación del teorema anterior. Primero que nada vemos que
los vectores {(1, 0), (0, 1)} forman la base canónica de R2 , por lo cual son linealmente
independientes. Por otro lado:
! ! !
3 5 1 3
T (1, 0) = =
2 4 0 2
! ! !
3 5 0 5
T (0, 1) = =
2 4 1 4
De acuerdo con el teorema anterior, los vectores (3, 2) y (5, 4) deberían ser lineal-
210 Transformaciones Lineales
y obtenemos el sistema:
3c1 + 5c2 = 0
2c1 + 4c2 = 0
cuyas únicas soluciones son c1 = 0 y c2 = 0, por lo cual los vectores efectivamente son
linealmente independientes.
Ejemplo 5.17
Consideremos la Proyección del espacio sobre el plano:
L : R3 → R2
Ejemplo 5.18
Demostraremos que la transformación lineal
T : M2×2 (R) → R2
!
a b
T = (a + d, b + c)
c d
es suprayectiva.
Debemos probar que para cualquier coordenada v ∈ R2 , existe al menos una matriz
u ∈ M2×2 (R) tal que T (u) = v.
Supongamos que v = (a, b) ∈ R2 , entonces las incógnitas sería los valores de
!
u11 u12
u=
u21 u22
que cumplan:
!!
u11 u12
T (u) = T = (u11 + u22 , u12 + u21 ) = (a, b).
u21 u22
u11 + u22 = a
u12 + u21 = b
u11 = a − u22
u12 = b − u21
Teorema 5.6
Sea T : V → W una transformación lineal suprayectiva, si {v1 , v2 , ..., vn } forman un
conjunto de generadores de V, entonces {T (v1 ), T (v2 ), ..., T (vn )} formará un conjunto
de vectores generadores de W.
Ejemplo 5.19
Sea T : R3 → R2 , dada por T (a, b, c) = (a + b, a + c). El lector puede comprobar que
esta función es suprayectiva.
Además {(1, 1, 1), (1, 1, 0), (1, 0, 0)} forma una base de R3 , con lo cual es un
conjunto de generadores, entonces de acuerdo al teorema anterior, los vectores
{T (1, 1, 1), T (1, 1, 0), T (1, 0, 0)} = {(2, 2), (1, 1), (1, 0)}
y es fácil ver que los vectores {(1, 1), (1, 0)} forman una base para R2 .
Ejemplo 5.20
Cada dilatación particular, forma una transformación lineal biyectiva, por ejemplo, si
definimos la dilatación T (u) = 2u en R2 , entonces esta transformación será inyectiva, ya
que si:
u = (a, b), v = (c, d)
y T (u) = T (v), entonces:
T (u) = 2(a, b) = (2a, 2b)
T (v) = 2(c, d) = (2c, 2d)
y por lo tanto:
en otras palabras T (u) = T (v) implica que u = v. Esto demuestra que T es inyectiva.
5.2 Propiedades de las transformaciones Lineales 213
1 1 1
T (v) = T ( u) = T (u) = (2u) = u,
2 2 2
por lo cual la función es suprayectiva.
En conclusión, la dilatación T (u) = 2u es biyectiva en R2 .
Un procedimiento similar al del ejemplo anterior nos permitiría demostrar que T (u) = ru
es biyectivo para cualquier r ∈ R, r 6= 0. En general esto quiere decir que tanto la dilatación
como la contracción son funciones biyectivas en Rn .
Además, es fácil ver que la función inversa de una dilatación de la forma T (u) = ru,
con r > 1, es la transformación de contracción dada por T (u) = 1r u.
Ejemplo 5.21
Sea
T : R4 → M2×2 (R)
!
a b
T (a, b, c, d) =
c d
Esta transformación lineal convierte coordenadas de 4 componentes en matrices de
2 × 2. Además esta transformación es un isomorfismo entre estos espacios vectoriales.
Para comprobar la afirmación anterior, primero verificamos que la transformación es
inyectiva. Si:
u = (a, b, c, d), v = (e, f , g, h)
y T (u) = T (v), entonces:
!
a b
T (u) = T (a, b, c, d) =
c d
!
e f
T (v) = T (e, f , g, h) =
h h
! !
a b e f
T (u) = T (v) ⇒ =
c d h h
214 Transformaciones Lineales
con lo cual
a = e, b = f , c = g, d = h
y entonces u = v. Esto demuestra que T es inyectiva.
Por otro lado, si !
a b
v= ∈ M2×2 (R),
c d
entonces es fácil ver que si tomamos u = (a, b, c, d), entonces T (u) = v, por lo cual
podemos afirmar que T es suprayectiva.
En conclusión, entonces, T es un isomorfismo entre R4 y M2×2 (R).
Teorema 5.7
Sea T : V → W un isomorfismo entre los espacios vectoriales V y W, entonces:
dim(V ) = dim(W )
y además, si
{v1 , v2 , ..., vn }
forma una base para V, entonces
Ejemplo 5.22
Continuando con el ejemplo 5.21, ya demostramos que la transformación lineal:
T : R4 → M2×2 (R)
!
a b
T (a, b, c, d) =
c d
es un isomorfismo, además:
!
0 1
T (u2 ) =
0 0
!
0 0
T (u3 ) =
0 0
!
0 0
T (u4 ) =
0 1
la cual es la base canónica para M2×2 (R), cumpliendose así lo que marca el teorema
anterior.
ker(L) = {v ∈ V | L(v) = 0}
En pocas palabras, el kernel se puede interpretar con el conjunto de todos los vectores
en el espacio vectorial que forma el dominio de la transformación lineal, tales que al
evaluarse en dicha transformación den como resultado el vector 0W en el contradominio de
la función. En el siguiente ejemplo mostramos este hecho, junto con el cálculo necesario
para determinar el kernel de una transformación lineal.
216 Transformaciones Lineales
Ejemplo 5.23
Determinar el núcleo de la transformación lineal T : R4 → M2×2 (R) dada por
!
a+b c+d
T (a, b, c, d) =
c−d a−b
entonces:
a+b = 0
c+d = 0
c−d = 0
a−b = 0
y resolviendo este sistema tenemos que a = 0, b = 0, c = 0, d = 0. Por lo tanto
Ejemplo 5.24
Sea T : T4 → R2 tal que T (a, b, c, d) = (a + c, b + d), vamos a calcular el kernel de T.
Si (a, b, c, d) ∈ ker(T ), entonces
T (a, b, c, d) = (a + c, b + d) = (0, 0)
Proposición 5.3.1
Sea T : V → W una transformación lineal, entonces T es inyectiva sí y sólo sí ker(T ) =
0V , es decir, el ker(T ) sólo posee un elemento.
Ejemplo 5.25
Sea T : R3 → R3 definida como
a1 1 0 1 a1 a1 + a3
T a2
= 1 1 2 a2 = a1 + a2 + 2a3
a3 2 1 3 a3 2a1 + a2 + 3a3
¿L es inyectiva?
Para responder la pregunta vamos a calcular al ker(T ). De acuerdo con la definición:
a1 + a3 = 0
a1 + a2 + 2a3 = 0
2a1 + a2 + 3a3 = 0
Ejemplo 5.26
Determinaremos la imagen de la transformación T : R3 → R3 dada por
T (a, b, c) = (a + b − c, a − b + c, −a + b − c),
Proposición 5.3.2
Si T : V → W entonces T es una transformación lineal suprayectiva sí y sólo sí Im(T ) =
W
Teorema 5.8
Sea T : U → W una transformación lineal, entonces el Kernel de T (Ker(T )) y la imagen
de T (Im(T )) forman subespacios vectoriales de U y W respectivamente
esto quiere decir cualquier combinación lineal de vectores que pertenezcan al kernel tambińe
pertenecerá al kernel de T, esto significa que el conjunto ker(T ) es cerrado bajo la suma y la
multiplicación por escalar, lo cual implica entonces que ker(T ) es un subespacio vectorial
de V.
Por otro lado la imagen es un subespacio vectorial del espacio W, ya que si w1 , w2 ∈
Im(T ), esto significa entonces que existen u1 , u2 ∈ V tales que T (u1 ) = w1 y T (u2 ) = w22 .
Además:
c1 w1 + c2 w2 = c1 T (u1 ) + c2 T (u2 ) = T (c1 u1 + c2 u2 ),
con lo cual probamos que cualquier combinación lineal de vectores en Im(T ) también estará
en Im(T ), lo cual implica que el conjunto Im(T ) ⊆ W es un subespacio vectorial.
Ejemplo 5.27
Hallar una base para la imagen de la transformación lineal T : R3 → R3 dada por
T (a, b, c) = (a + b − c, a − b + c, −a + b − c).
entonces podemos usar estos vectores para hallar una base de la imagen.
Estos vectores ya son generadores de Im(T ), sólo falta verificar que sean linealmente
independientes:
c1 + c2 − c3 = 0
c1 − c2 + c3 = 0
−c1 + c2 − c3 = 0
lo cual implica que el sistema tiene infinitas soluciones y entonces los vectores son
linealmente dependientes.
Para obtener la base vamos a formar una matriz auxiliar cuyos renglones sean los
vectores generadores y aplicaremos el algoritmo de Gauss-Jordan para reducir la matriz
a la forma escalonada reducida:
1 1 −1 1 0 0
A= 1 −1 1 −→ 0 1 −1
−1 1 −1 0 0 0
gen{(1, 1, −1), (1, −1, 1), (−1, 1, −1)} = gen{(1, 0, 0), (0, 1, −1)}
y además estos vectores son linealmente independientes. Por lo tanto, la base buscada es:
5.3 El Kernel y la Imagen 221
Teorema 5.9
Supongamos que v1 , v2 , ..., vn generan a un espacio vectorial V y que F : V → U es
lineal. Entonces F(v1 ), F(v2 ), ..., F(vn ) generan al subespacio vectorial Im(F).
Ejemplo 5.28
Vamos a mostrar que la aplicación del teorema es válido para la transformación lineal
T : R3 → R4 , dada por T (a, b, c) = (a + b, a − b, a + c, a − c).
El conjunto de vectores
forma una base para el espacio R3 , por lo cual son generadores de este espacio. De
acuerdo con el teorema anterior, los vectores: G1 = {T (1, 0, 0), T (0, 1, 0), T (0, 0, 1)}
son generadores del subespacio vectorial Im(T ). Si aplicamos la transformación:
T (1, 0, 0) = (1 + 0, 1 − 0, 1 + 0, 1 − 0) = (1, 1, 1, 1)
T (0, 1, 0) = (0 + 1, 0 − 1, 0 + 0, 0 − 0) = (1, −1, 0, 0)
T (0, 0, 1) = (0 + 0, 0 − 0, 0 + 1, 0 − 1) = (0, 0, 1, −1)
Im(T ) = {T (v)| v ∈ R3 }
= {T (a, b, c)| (a, b, c) ∈ R3 }
= {(a + b, a − b, a + c, a − c)| a, b, c ∈ R}
= {(a, a, a, a) + (b, −b, 0, 0) + (0, 0, c, −c)| a, b, c ∈ R}
= {a(1, 1, 1, 1) + b(1, −1, 0, 0) + c(0, 0, 1, −1)| a, b, c ∈ R}
= gen{(1, 1, 1, 1), (1, −1, 0, 0), (0, 0, 1, −1)}
Ejemplo 5.29
Sea T : R3 → R3 definida como
a1 1 0 1 a
1
Ta2 = 1 1 2 a2
a3 2 1 3 a3
Sea:
U = {(1, 0, 0), (0, 1, 0), (0, 0, 1)}
la base canónica para R3 , la cual claramente forma un conjunto de vectores generadores
del espacio, entonces por el teorema 5.9, las transformaciones de estos vectores bajo
T formarán un conjunto de vectores generadores de Im(T ), pero si sustituimos en la
fórmula de T tenemos que:
T (1, 0, 0) = (1, 1, 2)
T (0, 1, 0) = (0, 1, 1)
T (0, 0, 1) = (1, 2, 3)
y resulta que los vectores {(1, 1, 2), (0, 1, 1), (1, 2, 3)} son linealmente dependientes,
lo cual implica que dim(Im(T )) < 3 y como dim(R3 ) = 3, entonces es imposible que
Im(T ) = R3 , por lo cual T no es suprayectiva.
Ahora vamos a calcular una base para Im(T ), formamos una matriz cuyos renglones
sean los vectores obtenidos anteriormente y le aplicamos el método de reducción de
Gauss-Jordan:
1 1 2 1 0 1
Gauss−Jordan
A = 0 1 1 −−−−−−−−→ 0 1 1
1 2 3 0 0 0
y las operaciones elementales renglón aplicadas bajo el método de Gauss-Jordan nos
garantizan que los renglones obtenidos, se pueden representar como combinación lineal
de los renglones de la matriz original. Esto implica que:
gen{(1, 1, 2), (0, 1, 1), (1, 2, 3)} = gen{(1, 0, 1), (0, 1, 1)} = Im(T )
y además podemos demostrar fácilmente que {(1, 0, 1), (0, 1, 1)} son vectores linealmen-
te independientes, por lo cual estos vectores forman la base buscada.
5.3 El Kernel y la Imagen 223
Teorema 5.10
Sea V de dimensión finita y sea F : V → W una aplicación lineal. Entonces
Ejemplo 5.30
Sea T : R3 → R3 definida como
a1 1 0 1 a
1
Ta2 = 1 1 2 a2
a3 2 1 3 a3
Vamos a hallar una base para ker(T ). Vomo mostramos anteriormente en el ejemplo
5.25:
a1 + a3 = 0
a1 + a2 + 2a3 = 0
2a1 + a2 + 3a3 = 0
a1 + a3 = 0
a2 + a3 = 0
el cual tendrá en sus soluciones a una variable libre a3 , con lo cual:
o bien, sustituyendo:
Reuniendo este resultado con el del ejemplo 5.29 se puede comprobar que:
dim(ker(T )) = 1, dim(Im(T )) = 2
Ejemplo 5.31
Sea T : R4 → R3 la transformación definida por
Necesitamos encontrar vectores l. i. que generen al espacio vectorial dado por estos
vectores
5.4 Matrices y Transformaciones Lineales 225
Para conseguir este propósito, construimos la matriz cuyas filas son estos vectores
imagen y la reducimos a su forma escalonada reducida:
1 1 1 1 1 1
−1 0 1 0 1 2
∼
1 2 3 0 0 0
1 −1 −3 0 0 0
De este modo (1, 1, 1), (0, 1, 2) constituyen una base de Im(T ), luego dim(Im(T )) =
2, o en otras palabras, rango(t) = 2.
Ejemplo 5.32
Sea V = R2 y consideremos la base:
vamos a calcular el vector de coordenadas de u = (6, −4), para ello primero calculamos
los escalares de la combinación lineal:
c1 + c2 = 6
c1 − c2 = −4
Ejemplo 5.33 !
3 −6
Sea V = M2×2 (R), vamos a generar el vector de coordenadas de u = bajo la
1 9
base ( ! ! ! !)
1 1 1 −1 0 0 1 0
S= , , ,
0 0 0 0 1 1 0 1
Primero hallamos los valores de los escalares c1 , c2 , c3 y c4 , tales que:
! ! ! ! !
3 −6 1 1 1 −1 0 0 1 0
= c1 + c2 + c3 + c4
1 9 0 0 0 0 1 1 0 1
! ! ! !
c1 c1 c2 −c2 0 0 c4 0
= + + +
0 0 0 0 c3 c3 0 c4
!
c1 + c2 + c4 c1 − c2
=
c3 c3 + c4
c1 + c2 + c4 = 3
c1 − c2 = −6
c3 = 1
c3 + c4 = 9
5.4 Matrices y Transformaciones Lineales 227
Ejemplo 5.34
Vamos a construir el vector de coordenadas de 3 − 5x + 2x2 en el espacio R2 [x] bajo la
base:
S = {1 + x, 1 − x, 1 + x − x2 }.
Construimos la combinación lineal:
3 − 5x + 2x2 = c1 (1 + x) + c2 (1 − x) + c3 (1 + x − x2 )
= (c1 + c2 + c3 ) + (c1 − c2 + c3 )x + (−c3 )x2
c1 + c2 + c3 = 3
c1 − c2 + c3 = −5
−c3 = 2
bajo la base S.
entonces
a a ... an1
11 21
12 a22 ... an2
a
[T ]S = . .. ..
.. . .
a1n a2n ... ann
Ejemplo 5.35
Sea T : R3 → R3 , la reflexión T (a, b, c) = (a, b, −c) y sea
entonces:
1 0 0
[T ]S = 0 1 0
0 0 −1
Ejemplo 5.36
Consideremos el operador lineal T : R2 → R2 definido por F(x, y) = (4x − 2y, 2x + y) y
las bases de R2 :
T (1, 1) = (4 − 2, 2 + 1) = (2, 3)
T (−1, 0) = (4(−1) − 2(0), 2(−1) + (0)) = (−4, −2)
!
−2
(−2, 1) = −2(1, 0) + 1(0, 1) ⇒ [(−2, 1)]S1 =
1
Teorema 5.11
Sean S = {u1 , ..., un } una base de V y T un operador lineal en V. Entonces, para todo
vector v ∈ V,
[T ]s [v]s = [T (v)]s .
Ejemplo 5.37
Retomando el ejemplo 5.35 con la transformación lineal T : R3 → R3 , dada por T (a, b, c) =
(a, b, −c), es fácil ver que cuando S es la base canónica, entonces [v]s = v para cualquier
vector v del espacio R3 , más áun, de acuerdo con el teorema anterior:
1 0 0 a
T (a, b, c) = (a, b, −c) '
0 1 0 b ,
0 0 −1 c
a Ojo:
Este resultado sólo se cumple en este ejemplo debido al uso que le dimos a la base canónica y la
transformación aplicada.
Ejemplo 5.38
Retomando el ejemplo 5.36 consideremos la transformación lineal T : R2 → R2 definido
por F(x, y) = (4x − 2y, 2x + y) y la base de R2 :
Vamos a mostrar una aplicación del teorema anterior. Sea u = (4, −5), entonces:
!
−5
(4, −5) = −5(1, 1) − 9(−1, 0) ⇒ [(4, −5)]S =
−9
[T ]s [u]s = [T (u)]s .
Compleja, 47 Módulo, 10
Conjugada, 47 Parte imaginaria, 2
Cuadrada, 26 Parte real, 2
Diagonal, 43 Producto, 2
Diagonal Principal de una, 27 Suma, 2
Elemental, 58 Unidad Imaginaria, 5
Escalar, 44 Norma, 169
Escalonada, 59 Euclidena, 169
Reducida, 59
Hermítica, 48 Operación Elemental
Idempotente, 45 de Matrices, 52
Identidad, 37 en sistemas de ecuaciones lineales, 104
Inversa Tipo I, 52
Por medio de la Adjunta, 83 Tipo II, 52
inversa aditiva, 30, 38 Tipo III, 52
Inversa., 49 Operador Lineal, 184
Invertible, 49
Permutación, 76
Involutiva, 45
Inversión de una, 77
Neutro aditivo, 29, 38
Signo de una, 77
Nilpotente, 45
Pivote, 59
Nulidad de una, 224
Renglón, 60
Orden de una, 27
Plano Complejo, 8
Ortogonal, 48
Polinomio, 15
Periódica, 44 Grado, 16
Rango de una, 116, 224 Producto
Rectangular, 26 de polinomios, 16
Renglón, 26 de números complejos, 2
Simétrica, 46 Euclideano, 168
Singular, 49 Punto, 168
Transpuesta, 46 Proyección ortogonal, 174
Triangular
Inferior, 43 Regla de Cramer, 113
Superior, 43 Resta
Menor de una matriz, 79 de matrices, 31
Multiplicación
de Matrices, 33–35 Sarrus, 75
Propiedades, 40 Sistema de Ecuaciones Lineales, 86
de Matrices por Escalar, 32 Compatibles e Incompatibles, 87
Propiedades, 38 Determinados e Indeterminados, 90
Equivalentes, 104
Números Complejos, 2 Escalonada, 98
Argumento, 10 Forma escalonada reducida, 99
Igualdad, 2 Método de Gauss, 109
234 ÍNDICE ALFABÉTICO
Tansformación Lineal
Contracción, 189
Transformación Lineal, 184
Biyectiva, 212
Dilatación, 187, 188
Inyectiva, 204
Proyección, 185, 186
Reflexión, 190
Representación matricial, 228
Rotación en R2 , 193
Rotación en R3 , 194
Suprayectiva, 210
Vector
de coordenadas, 225