Вы находитесь на странице: 1из 246

Índice general

1 Números complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1 Antecedentes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Definiciones y Propiedades Fundamentales. . . . . . . . . . . . . . . . . . . . . . 2
1.3 La unidad imaginaria i. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4 Interpretación geométrica, módulo y argumento. Forma Polar. . . . 8
1.5 Exponenciales complejos y teorema de DeMoivre . . . . . . . . . . . . . . 13
1.6 Polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

2 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.1 Definiciones básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2 Operaciones Básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.3 Propiedades de las operaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.4 Clasificación de las Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.5 Matriz Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.5.1 Operaciones Elementales Renglón. . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.5.2 Métodos de reducción de Gauss y de Gauss-Jordan . . . . . . . . . 59
2.5.3 Cálculo de la Inversa de una Matriz. . . . . . . . . . . . . . . . . . . . . . . . . . 68
2.6 El Determinante de una matriz cuadrada. . . . . . . . . . . . . . . . . . . . . . . 71
2.7 La matriz Adjunta. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
6

3 Sistemas de Ecuaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . 85


3.1 Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
3.1.1 Clasificación de los Sistemas de Ecuaciones Lineales. . . . . . . . . . 86
3.2 Solución de los sistemas de Ecuaciones Lineales. . . . . . . . . . . . . . . . . 90
3.2.1 Interpretación Gráfica de las soluciones . . . . . . . . . . . . . . . . . . . . . 90
3.2.2 Ecuaciones lineales degeneradas . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
3.3 Método de sustitución hacia atrás . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
3.3.1 Forma Triangular y Escalonada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
3.3.2 Forma Escalonada Reducida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
3.3.3 Método de sustitución hacia atrás . . . . . . . . . . . . . . . . . . . . . . . . . . 100
3.4 Métodos de reduccción de Gauss y Gauss-Jordan . . . . . . . . . . . . . 103
3.4.1 Sistemas equivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
3.4.2 Método de Gauss en sistemas de ecuaciones lineales . . . . . . . 108
3.4.3 Método de Gauss-Jordan en sistemas de ecuaciones lineales 111
3.5 Método de la Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
3.6 Método de la Matriz Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
3.6.1 Clasificación de los sistemas de Ecuaciones Lineales y su represen-
tación matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115

4 Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121


4.1 Definición de Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
4.1.1 Propiedades de los Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . 136
4.2 Subespacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
4.2.1 Propiedades de los subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
4.3 Combinaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
4.3.1 El Conjunto Generado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
4.4 Bases y dimensión de un Espacio Vectorial . . . . . . . . . . . . . . . . . . . . . 156
4.4.1 Dependencia e Independencia Lineal . . . . . . . . . . . . . . . . . . . . . . 156
4.4.2 Bases de un Espacio Vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
4.4.3 Dimensión de un Espacio Vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . 166
4.5 Producto Interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
4.5.1 Normas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
4.5.2 Propiedades del producto interno y la norma . . . . . . . . . . . . . . . 171
4.6 Base Ortonormal y Proceso de Grahm-Schmidt . . . . . . . . . . . . . . . . 174
4.6.1 Proceso de Ortonormalización de Grahm-Schmidt . . . . . . . . . . . 178
7

5 Transformaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183


5.1 Definiciones básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
5.1.1 Transformaciones Lineales sobre Rn . . . . . . . . . . . . . . . . . . . . . . . . . 184
5.1.2 Transformaciones Lineales sobre Espacios Vectoriales en general
197
5.2 Propiedades de las transformaciones Lineales . . . . . . . . . . . . . . . . . 201
5.2.1 Isomorfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
5.3 El Kernel y la Imagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
5.4 Matrices y Transformaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . 225
PRÓLOGO
“La Matemática es la más grande aventura del pensamiento”
Jesús Mosterín

La enseñanza de las Matemáticas, y sobre todo la motivación en un Instituto de Educación


Superior es una labor de gran dificultad, ya que la queja de muchos estudiantes es ¿por qué nos
enseñan matemáticas si no sabemos si las utilizaremos en nuestra vida profesional?
Indudablemente, el estudiar matemáticas es uno de los mayores retos y a la vez el mejor aliado de
todo profesionista, independientemente de dónde se desenvuelva, ya sea en áreas de
administración o economía, pero principalmente en las de ingeniería.
Por una parte, el álgebra representa una rama matemática fundamental para el desenvolvimiento
profesional, sin importar el área de especialización. En este sentido, el álgebra lineal permite
manipular y entender un conjunto de sistemas con un gran número de variables, abanderados por
ecuaciones lineales y sus aplicaciones que resuelven problemas de la vida real, por lo que esta
disciplina aporta al perfil del ingeniero la capacidad de desarrollar un pensamiento lógico y
algorítmico, realizar la caracterización de problemas y convertirlos en modelos lineales que son
más sencillos de manejar, graficar y resolver.
Por otra parte, en los métodos tradicionales de enseñanza, primero se expone la información y
posteriormente se busca su aplicación en la resolución de un problema; en el caso del aprendizaje
basado en problemas primero se presenta el problema, se identifica las necesidades de
aprendizaje, se busca la información necesaria y finalmente se regresa al problema. La finalidad de
este libro es aportar al estudiante de nivel superior un material de apoyo que, aunado al empeño y
dedicación de aprender algebra lineal facilite los contenidos temáticos de otros cursos y resulte en
la aplicación de su conocimiento en el ámbito laboral. Se utiliza parte de esa metodología para
disponer de un grupo original de ejercicios que ejemplifican la manera en cómo se aplica los
teoremas algebraicos existentes.
El trabajo desarrollado por los maestros del Instituto Tecnológico Superior de Calkiní en este libro
refleja su amplia experiencia docente y conocimiento de la asignatura, pero sobre todo, su amor y
significativo empeño hacia la enseñanza efectiva de las matemáticas transmitido a los grupos de
estudiantes que han transitado por nuestra Institución plasmándolos en esta obra. Los autores
hacen hincapié en la importancia de revisar los libros especificados en los planes de estudios para
una mejor comprensión sobre los temas.

Lic. Edilberto Rosado Méndez


Director General
Instituto Tecnológico Superior de Calkiní
Introducción

El presente material contiene apuntes básicos del curso de Álgebra Lineal estructurados
con base en el programa de estudios del Tecnológico Nacional de México. El texto está
dirigido a estudiantes de nivel superior, que cursan alguna de las ingenierías que se ofertan
en el TecNM.
El libro está compuesto por cinco capítulos que abarcan los conocimientos básicos de un
curso tradicional de Álgebra Lineal con el enfoque de resolución de problemas. El primer
capítulo aborda el estudio de los números complejos, sus operaciones y propiedades; en el
segundo capítulo se estudian las matrices, es decir, la realización de arreglos bidimensionales
de números ordenados en filas y columnas para realizar diferentes tipos de operaciones
matemáticas; el capítulo tres está dedicado a los sistemas de ecuaciones lineales, con dos
o más ecuaciones con varias incógnitas y los métodos de solución. En el capítulo cuatro
denominado espacios vectoriales se aborda desde su definición hasta productos internos y el
capítulo cinco está centrado en cinco transformaciones lineales especiales sobre los espacios
vectoriales permitiendo visualizar su efecto gráficamente, en el plano y en el espacio.
A diferencia de muchos libros de texto de matemáticas, que se enfocan en demostracio-
nes formales y desarrollos sofisticados, la exposición del contenido del presente libro se
encuentra enfocada principalmente en la resolución de problemas con ejemplos inéditos,
aplicando los teoremas y definiciones, como fruto de la labor y experiencia docente dentro
del aula con estudiantes de ingeniería. En este sentido el lector no encontrará demostraciones
tradicionales, sino ejemplos completamente desarrollados haciendo notoria la aplicación de
las definiciones, teoremas y proposiciones, y son expuestos de manera natural como parte
del contenido.
12

(a) Teorema (b) Definición

Figura 1: Ejemplos de marcos para teoremas y definiciones.

La obra se encuentra estructurada de tal forma que facilita al lector encontrar los distintos
elementos temáticos, así pues, se utiliza un formato particular para cada tipo de contenido,
por ejemplo, el lector encontrará todos los teoremas encuadrados en un marco especial
como se muestra en la figura 1a, mientras que las definiciones poseen también su propia
representación como se distingue en la figura 1b.

Figura 2: Ejemplo del marco para los ejemplos del texto

Con el fin de fortalecer la aplicación e interpretación de los teoremas y definiciones,


se han dispuesto más de 180 ejemplos a lo largo de los cinco capítulo de la obra, cada
uno de ellos se encuentra desarrollado con las explicaciones y operaciones que faciliten su
comprensión, además, estos ejempos se han enmarcado para resaltar su presencia dentro
de la obra como se muestra en la figura 2. Se recomienda este material como herramienta
de apoyo en los cursos tradicionales de Álgebra Lineal, por lo que los autores queremos
remarcar que se trata de una herramienta adicional y no un sustituto de la bibliografía
propuesta en los planes de estudio del Tecnológico Nacional de México.

Los autores.
1 — Números complejos

1.1 Antecedentes.
Al inicio de los estudios que una persona realiza, uno de primeros conceptos adquiridos
es “número”. De hecho el primer conjunto de “números” estudiado es aquel que nos sirve
para contar objetos materiales, los números naturales: N = {1, 2, 3, ...} y con ello inicia
nuestra formación matemática. Habiendo conocido este conjunto también definimos la
primera operación que podemos realizar con este conjunto de números: la suma.
Ahora que podemos sumar, deseamos “deshacer” esta operación y por ello definimos la
operación inversa a la suma: la resta, sin embargo esta última presenta problemas cuando
nos topamos con cosas del tipo: 4 − 8 =? dado que la respuesta no tiene explicación sobre
el conjunto de números naturales que conocemos hasta ese momento. Es entonces cuando
pasamos al siguiente nivel en los números: los enteros: Z = {0, ±1, ±2, · · · }.
Posteriormente se define una nueva operación que nos permite simplificar las sumas
extensas: la multiplicación, 2 + 2 + 2 + 2 = 4 × 2 = 8, y nuevamente nos enfrentamos al
problema de “deshacer” aquellos resultados que obtenemos con esta nueva operación. Esto
nos lleva a la definición de la operación inversa a la multiplicación: la división. Sin embargo
esta nueva operación nos presenta un nuevo tipo de problemas dado que divisiones del tipo
8 8
4 tienen respuesta dentro de Z pero divisiones del tipo 3 no lo tienen.
Para resolver el problema anterior definimos un nuevo conjunto de números, los racio-
nales1 : Q = { ba |b 6= 0}. Y este conjunto resuelve el problema anterior.
Creamos una nueva operación que no ayudará a simplificar la multiplicación: 2 × 2 ×
2 × 2 = 24 . Y de la misma manera que en los conjuntos anteriores también buscamos una
operación “inversa” a la potenciación, la radicación, y esta nos llevará ante la necesidad de
1 En realidad el conjunto de los racionales se define con ayuda de relaciones de equivalencia pero este no
es el objetivo de este curso, por lo cual bastará con la definición dada
2 Números complejos

definir un nuevo conjunto de números, esto debido a que expresiones del tipo 2 no tienen
explicación dentro del conjunto de los números racionales. Esto nos ayuda para definir a los
números irracionales.
Hasta este punto hemos mostrado de manera superficial aquellos problemas que han
planteado la necesidad de definir a los diferentes conjuntos de números hasta llegar al con-
junto universalmente conocido, los reales: R. Sin embargo quedaba pendiente un problema
que no se resolvía con√ ayuda de los irracionales, puesto que a pesar de poder explicar√
expresiones del tipo 2, aún no existía una explicación lógica para el resultado de −1.
Iniciaremos a partir de este punto para definir el siguiente nivel dentro de los conjuntos de
números, los complejos.

1.2 Definiciones y Propiedades Fundamentales.


Empezamos formalmente el libro con las primeras definiciones sobre los números
complejos. Como en la mayor parte del libro, el desarrollo del contenido posee la misma
estructura: primero se dan las definiciones del objeto con que se trabajará y sus operaciones,
luego las propiedades que cumple el objeto junto con las mismas operaciones y por último
algunas aplicaciones generales que tiene la teoría desarrollada. En este capítulo se trabajará
con números complejos, por lo cual se inicia con la definición de este tipo de números.

Definición 1.1 — Números Complejos.


Si a y b son números reales, el par (a, b) es llamado un número complejo, y donde la
igualdad, suma y multiplicación de estos pares están definidas como sigue:
(a) Igualdad: (a, b) = (c, d) significa que a = c y b = d.
(b) Suma: (a, b) + (c, d) = (a + c, b + d).
(c) Producto: (a, b)(c, d) = (ac − bd, ad + bc).

Nota Denotamos por C al conjunto de todos los números complejos.

Como se verá más adelante, existen diferentes formas de representar a los números
complejos, sin embargo partiremos de la definición anterior.

Definición 1.2 — Parte Real y Parte Imaginaria de un número complejo.


Los números a y b son llamados componentes de (a, b). El primer componente, a,
es también llamado parte real del número complejo; el segundo componente, b, es
llamado parte imaginaria.

 Ejemplo 1.1
Debemos observar que esta definición nos plantea las reglas de las operaciones básicas
de números complejos. Por ejemplo, si queremos sumar el complejo (1, −1) con el
1.2 Definiciones y Propiedades Fundamentales. 3

complejo (5, 3) simplemente aplicamos la regla descrita en la definición:

(a, b) + (c, d) = (a + c, b + d)
(1, −1) + (5, 3) = (1 + 5, −1 + 3)
= (6, 2).

Por otro lado si queremos multiplicarlos, simplemente seguimos las reglas de la


definición:

(a, b) · (c, d) = (ac − bd, ab + bc)


(1, −1) · (5, 3) = ((1)(5) − (−1)(3), (1)(3) + (−1)(5))
= (5 + 3, 3 − 5)
= (8, −2).

Teorema 1.1
Las operaciones de suma y multiplicación de números complejos satisfacen las leyes aso-
ciativa, conmutativa y distributiva. Es decir, si x, y, z son números complejos arbitrarios,
tenemos lo siguiente:
Ley asociativa: x + (y + z) = (x + y) + z y x(yz) = (xy)z.
Ley conmutativa: x + y = y + x y xy = yx.
Ley distributiva: x(y + z) = xy + xz.

Hay que remarcar que en este teorema las variables x, y, z representan números comple-
jos y que dichas propiedades deberían expresarse con los símbolos usados para complejos,
por ejemplo, supongamos que tenemos:

x = (a1 , b1 )
y = (a2 , b2 )
z = (a3 , b3 )

entonces la ley conmutativa debería escribirse como:

(a1 , b1 ) + (a2 , b2 ) = (a2 , b2 ) + (a1 , b1 )

Nótese el hecho de que la “fórmula” x + y = y + x representa lo que la operación de los


complejos como parejas ordenadas debe cumplir.
4 Números complejos

Teorema 1.2
Existen 2 propiedades más dentro del conjunto de los complejos:
Existencia de los neutros:
• (Aditivo) ∃0 ∈ C tal que ∀x ∈ C, x + 0 = x.
• (Multiplicativo) ∃1 ∈ C tal que ∀x ∈ C, x · 1 = x.
Existencia de los inversos:
• (Aditivo) ∀x ∈ C, ∃ − x ∈ C tal que x + (−x) = 0.
• (Multiplicativo) ∀x 6= 0 ∈ C, ∃x−1 ∈ C tal que x · (x−1 ) = 1.

Los neutros (aditivo y multiplicativo) son representados por el 0 y el 1 aunque en


realidad estos son solo símbolos que representan a ciertos números complejos particulares
que son fáciles de reconocer ya que:

(0, 0) + (a, b) = (a, b) y (a, b)(1, 0) = (a, b)

De manera similar, cuando definimos el inverso aditivo de x ∈ C como −x en realidad


estamos describiendo al inverso de cada complejo (a, b) como: −(a, b) = (−a, −b).
Para definir al inverso multiplicativo debemos usar la definición de la multiplicación,
dado que para todo complejo x = (a, b) 6= 0 podemos encontrar otro complejo x−1 = (c, d)
tal que:
x · x−1 = 1
⇒ (a, b)(c, d) = (1, 0)
de hecho, sabemos que esta ecuación es equivalente a resolver el siguiente par de ecuaciones

ac − bd = 1, ad + bc = 0

el cual tiene solución única:


a −b
c= , d = .
a2 + b2 a2 + b2

La condición (a, b) 6= 0 asegura que a2 + b2 6= 0 con lo cual el recíproco (c, d) está


bien definido. Escribimos (a, b)−1 ó (a,b)
1
para representar al recíproco de (a, b). Así pues
tenemos:  
1 a −b
= , .
(a, b) a2 + b2 a2 + b2
Con el desarrollo anterior podemos definir la división de números complejos como
sigue:  
(c, d) 1 a −b
= (c, d) · = (c, d) · 2 , ,
(a, b) (a, b) a + b2 a2 + b2
siempre que (a, b) 6= 0.
1.3 La unidad imaginaria i. 5

Consideremos el subconjunto C0 de C consistente de todos los números complejos de la


forma (a, 0), esto es, todos los números complejos con parte imaginaria cero. La suma o el
producto de dos miembros de C0 está de nuevo en el conjunto C0 . De hecho tenemos:

(a, 0) + (b, 0) = (a + b, 0) y (a, 0)(b, 0) = (ab, 0).

con esto observamos que los elementos de C0 se comportan “como si fueran números
reales”. De hecho podemos formalizar esta observación si definimos una función biyectiva
f : R → C dada por f (a) = (a, 0) para toda a ∈ R, con la cual es fácil probar que el conjunto
de los números reales es un subconjunto de los números complejos (bajo isomorfismo),
R ⊂ C, (podemos afirmar que R es un subcampo de C). Así podemos pensar en el sistema
de los números complejos como una extensión del sistema de los números reales.

1.3 La unidad imaginaria i.


Para poder dar otra representación de los números complejos primero necesitamos
identificar a un número complejo especial que permitirá redefinir la forma de los números
complejos. Es fácil probar que el complejo (0, 1) tiene la propiedad de que al elevarse al
cuadrado resulta:
(0, 1)2 = i2 = (−1, 0) = −(1, 0) = −1
y por tanto x = ±(0, 1) es solución de la ecuación x2 + 1 = 0. Esto nos acerca a la solución
del problema planteado en la sección 1.1. Dado que este elemento tiene esta propiedad
singular es necesario darle un nombre particular que nos permita identificarlo entre todos
los números complejos. A continuación se da esta definición.

Definición 1.3 — Unidad Imaginaria.


El número complejo (0, 1) es denotado por i y es llamado la unidad imaginaria.

Esta propiedad anterior del número complejo i nos permite formar la siguiente lista:

i0 = 1
i1 = i
i2 = −1
i3 = (i2 )i = (−1)i = −i
i4 = (i3 )i = (−i)i = −(i2 ) = −(−1) = 1
i5 = (i4 )i = (1)i = i
i6 = (i5 )i = (i)i = i2 = −1
..
.

Claramente podemos observar cierta relación entre las potencias de i.


6 Números complejos

 Ejemplo 1.2
A continuación mostramos algunos ejemplos de cómo usar las potencias de i para
simplificar operaciones:
1. i6 + i4 + i2 + 1 = 1 − 1 + 1 − 1 = 0.
2. Si queremos calcular i350 , empezamos dividiendo 350 entre 4:
87
i350 = i4 (i)2
= i2
= −1
3.
1 2 1
i10 + = i2 i4 + 2
i10 (i4 ) i2
1
= −1 +
−1
= −2


Ahora podemos relacionar la idea de “pares ordenados” (con respecto a la definición de


números complejos) con la notación que usaron los matemáticos al inicio del estudio de los
números complejos. Primero notemos que de la definición de multiplicación tenemos
(b, 0)(0, 1) = (0, b)
y así tenemos que:
(a, b) = (a, 0) + (0, b) = (a, 0) + (b, 0)(0, 1).
por tanto si escribimos a = (a, 0), b = (b, 0) e i = (0, 1), tenemos (a, b) = a + bi. Esto se
resume en el siguiente teorema:

Teorema 1.3
Cada complejo (a, b) puede ser expresado en la forma a + bi. Esta representación recibe
el nombre de“forma binomial”

Esto implica que las operaciones definidas anteriormente se pueden reinterpretar en


terminos de la forma binomial de los números complejos.

 Ejemplo 1.3
Vamos a mostrar algunas operaciones con los números complejos usando la forma
binomial:
1.  √   √ 
4 + −16 − 2 + −9 = 4i − 3i + 4 − 2
= i+2
1.3 La unidad imaginaria i. 7

2.
(3 + 4i)(5 − 5i) = (3)(5) + (3)(−5i) + (4i)(5) + (4i)(−5i)
= 15 − 15i + 20i − 20i2
= 15 + 5i + 20
= 35 + 5i
3.
[(−2 + 8i) + (5 − 6i)] + (2 − 3i)(2 + 3i) = −2 + 8i + 5 − 6i + 4 + 9i2
= 7 + 2i − 9
= −2 + 2i
4.
(4 + 2i)(4 − 2i) = 16 − 4i2
= 16 + 4
= 20


En el último ejemplo podemos observar una característica que nos permitirá redefinir la
forma de relizar las divisiones de números complejos en forma binomial:
(a + bi)(a − bi) = a2 + b2
Esto quiere decir que:  
(a, b)−1 = a
, −b
a2 +b2 a2 +b2
1
= a2 +b2
(a, −b)
entonces
(a + bi)−1 = 1
a2 +b2
(a − bi)
1
= (a+bi)(a−bi) (a − bi)
luego en la división tenemos:
c+di
a+bi = (c + di)(a + bi)−1
1
= (c + di)( (a+bi)(a−bi) (a − bi))
c+di
= a+bi · a−bi
a−bi
Ahora bien, es claro que esta última expresión es mucho más fácil de recordar que la
fórmula que aplicamos para hallar el inverso multiplicativo de un número complejo. Veamos
un ejemplo de su uso:

 Ejemplo 1.4

1+i 1 + i 1 + 2i
= ·
1−i 1 − 2i 1 + 2i
8 Números complejos

(1 + i)(1 − 2i)
=
(1 − 2i)(1 + 2i)
3+i
= 2
1 + 22
3+i
= .
5


1.4 Interpretación geométrica, módulo y argumento. For-


ma Polar.
Como un número complejo (x, y) es un par ordenado de números reales, este puede
ser representado geométricamente por un punto en el plano, o por una flecha o un vector
geométrico del origen al punto (x, y), como lo muestra la figura 1.1:

Hx,yL

i yÈÈ
x+
y=r SenHΑL

r =ÈÈ

Α
x=r CosHΑL
x

Figura 1.1: Representación geométrica de un número complejo.

En este contexto, el plano xy es usualmente referido como el plano complejo. El eje


x es llamado el eje real; el eje y es el eje imaginario. Es usual intercambiar el uso de las
palabras “número complejo” y “punto”. Así nos referiremos al punto z = a + ib como aquel
correspondiente al punto (a, b) en el plano xy asociado al complejo z.
Las operaciones de suma y resta de números complejos tiene una interpretación geomé-
trica simple; si dos números complejos z1 y z2 son representados por flechas del origen a
1.4 Interpretación geométrica, módulo y argumento. Forma Polar. 9

z − 1 y z2 , entonces la suma z1 + z2 está determinada por la ley de los paralelogramos. La


flecha del origen a z1 + z2 es la diagonal del paralelogramo determinado por 0, z1 y z2 como
se ilustra en el ejemplo de la figura 1.2:

z1 +z2

z2

z1

z1 -z2

Figura 1.2: Interpretación geométrica de la suma y resta de complejos.

La otra diagonal del paralelogramo está relacionada con la diferencia de z1 y z2 . La


flecha de z1 a z2 es paralela e igual en longitud a la flecha de 0 a z2 − z1 , la flecha en la
dirección opuesta, de z2 a z1 , está relacionada con la diferencia z1 − z2 .
Si (x, y) 6= (0, 0) podemos expresar x e y en coordenadas polares, para ello bastará ob-
servar detenidamente la figura 1.1. Usando las definiciones de las funciones trigonométricas
Seno y Coseno es fácil observar que se cumple:

x = rCosθ , y = rSenθ
y con ello obtenemos:

x + iy = r(Cosθ + iSenθ ).
Esta última expresión es conocida como la representación de los números complejos
en la forma trigonométrica (o polar). Obsérvese que lo único que debemos hacer para
cambiar un número escrito en forma trigonométrica a la forma binomial es simplemente
evaluar las funciones trigonométricas dadas y multiplicar por el valor r.
10 Números complejos

Definición 1.4 — Módulo de un Complejo.


El número r, el cual representa la distancia de (x, y) al origen, es llamado el módulo o
valor absoluto de x + iy y es denotado por |x + iy|, así pues tenemos:
p
|x + iy| = x2 + y2 .

Definición 1.5 — Argumento de un Complejo.


El ángulo polar θ es llamado el argumento de x + iy. Y se representa como

b
ArcTan( a )
 si a y b > 0
◦ b
Arg(a, b) = 180 + ArcTan( a ) si a < 0 y b > 0 ó bien si a, b < 0
 ◦
360 + ArcTan( ab ) si a > 0 y b < 0

Nosotros solo definimos a θ como un argumento y no como el argumento, debido a que


para un punto (x, y) el ángulo θ está determinado solamente hasta múltiplos de 2π. Algunas
veces es deseable asignar un único argumento a un número complejo, esto se puede realizar
restringiendo θ a pertenecer a un intervalo semi-abierto de longitud 2π. Frecuentemente
usamos el intervalo [0, 2π). Denotamos este θ por arg(x + iy).

 Ejemplo 1.5
Vamos √
a calcular el módulo y el argumento de los siguientes complejos:
1. ( 3, 1)
Para calcular el módulo sustituimos en la fórmula:
√ q√
k( 3, 1)k = ( 3)2 + 12 = 2

Y el argumento sería:

 
1
Arg( 3, 1) = ArcTan √ = 30◦
3

2. (− 3, 1)
Para calcular el módulo sustituimos en la fórmula:
√ q √
k(− 3, 1)k = (− 3)2 + 12 = 2

en este caso el complejo se encuentra en el segundo cuadrante, a < 0 y b > 0, por


lo que el argumento sería:
1.4 Interpretación geométrica, módulo y argumento. Forma Polar. 11


 
1
Arg(− 3, 1) = 180◦ + ArcTan √ = 180◦ + (−30◦ ) = 150◦
− 3
3. (−2, −2)
Para calcular el módulo sustituimos en la fórmula:
q √ √
k(−2, −2)k = (−2)2 + (−2)2 = 8 = 2 2

Y para calcular el argumento observamos que a, b < 0 el argumento es:


 
◦ −2
Arg(−2, −2) = 180 + ArcTan = 180◦ + 45◦ = 225◦
−2
4. (2, −2)
Para calcular el módulo sustituimos en la fórmula:
q √ √
k(2, −2)k = (−2)2 + 22 = 8 = 2 2

Y como a > 0 y b < 0, entonces el argumento sería:


 
◦ −2
Arg(2, −2) = 360 + ArcTan = 360◦ + (−45◦ ) = 315◦
2


Como el valor absoluto de un número complejo z es simplemente la longitud de un


segmento de linea, no debe sorprendernos el hecho de que tiene las mismas propiedades
que el valor absoluto de los números reales. Por ejemplo tenemos:

Teorema 1.4
Sea z un número complejo y |z| su norma (valor absoluto), entonces
|z| > 0 si z 6= 0.
|z1 − z2 | = |z2 − z1 |.
|z1 + z2 | ≤ |z1 | + |z2 |.
|z1 z2 | = |z1 ||z2 |.
| zz12 | = |z|z12 || .

Definición 1.6 — El Conjugado.


Si z = x + iy, el conjugado complejo de z es el número complejo z = x − iy.
12 Números complejos

Figura 1.3: Representación de números complejos y sus conjugados

 Ejemplo 1.6
A continuación calculamos el conjugado de algunós números complejos:

Complejo Conjugado
z = 2 + 2i z = 2 − 2i
z = −3 − i z = −3 + i
z = 5i z = −5i
z=4 z=4
√ √
1 3 1 3
z= − 2 2 i z= + 2 2 i

La figura 1.3 muestra la representación gráfica de los vectores originales y sus


conjugados (por medio de la línea roja punteada). Observe que en la figura el complejo
z = 4 es su mismo conjugado y tanto el complejo z = 5i como su conjugado z = −5i se
encuentran sobre el eje imaginario pero en sentido contrario. 

Geométricamente, z representa la reflección de z con respecto al eje real x. La definición


de conjugado implica que:
1.5 Exponenciales complejos y teorema de DeMoivre 13

Teorema 1.5
Sea z un número complejo y sea z su conjugado, entonces:
z1 + z2 = z1 + z2 .
z1 z2 = z1 z2 .
(z1 /z2 ) = z1 /z2 .
zz = |z|2 .

1.5 Exponenciales complejos y teorema de DeMoivre


Deseamos extender la definición de ex de tal forma que la expresión tenga sentido
cuando x sea remplazada por un número complejo z. Deseamos que esta extensión sea tal
que la ley de los exponentes ea eb = ea+b siga siendo válida para todos los complejos a y b.
Además también deseamos que ez coincida con la exponencial usual cuando z sea real.

Definición 1.7 — Fórmula de Euler.


Si z = x + iy, definimos ez como el complejo dado por la ecuación

ez = ex (Cos(y) + iSen(y)).

Cabe señalar que la fórmula anterior cuenta con una demostración que justifica su validez,
sin embargo dicha demostración se escapa de los objetivos del presente material, por lo
cual tomaremos la fórmula como válida y la aplicaremos para el cálculo de operaciones con
números complejos

 Ejemplo 1.7
De acuerdo con la definición anterior podemos reescribir:

e2+5i = e2 (Cos(5) + iSen(5))

Esta definición resulta de gran utilidad para demostrar un teorema muy conocido: El
teorema de D’Moivre, el cual se presenta a continuación y nos permite calcular fácilmente
potencias de números complejos.

Teorema 1.6 — Teorema de D’Moivre.


Si n es un entero positivo, entonces

(Cos (θ ) + iSen (θ ))n = Cos (nθ ) + iSen (nθ )


14 Números complejos

Con ayuda de este último teorema, conocido como el teorema de D’Moivre, podemos
inclusive calcular las raíces de cualquier número complejo, de hecho la fórmula para calcular
cualquier raíz está dada por el siguiente teorema.

Teorema 1.7
Si n es cualquier número entero y positivo, y r y α son, respectivamente, el módulo y el
argumento de cualquier número complejo, entonces:

[r(Cos(α) + iSen(α)]n = rn (Cos(nα) + iSen(nα))

 Ejemplo 1.8
Vamos a calcular (1 + i)6 , para ello primero calculamos la representación trigonométrica
de este complejo. p √
k1 + ik = 12 + 12 = 2
 
1
Arg(1 + i) = ArcTan = 45◦
1

entonces 1 + i = 2 (Cos(45◦ + iSen(45◦ ))) , con lo cual:
h√ i6
(1 + i)6 = 2 (Cos(45◦ + iSen(45◦ )))

= ( 2)6 (Cos(6 · 45◦ + iSen(6 · 45◦ ))
= 8 (Cos(270◦ ) + iSen(270◦ ))
= 8(0 − i) = −8i

Por única ocasión, para verificar este resultado podemos multiplicar el complejo para
hallar la potencia deseada, así entonces:
3
(1 + i)6 = (1 + i)2

y (1 + i)2 = 1 + 2i + i2 = (1 − 1) + 2i = 2i, por lo tanto:

(1 + i)6 = (2i)3 = 23 i3 = 8(−i) = −8i

y como podemos observar el resultado que obtuvimos con el uso del teorema anterior
coincide con el resultado obtenido multiplicando el complejo hasta calcular la potencia
deseada.

1.6 Polinomios 15

Teorema 1.8
Si a y b son complejos, tenemos:

ea eb = ea+b

Teorema 1.9
Cada complejo z 6= 0 puede ser expresado en la forma:

z = reiθ

donde r = |z| y θ = arg(z) + 2πn siendo n un entero. Esta representación es llamada la


forma exponencial de z.

Esta representación de los números complejos en forma exponencial es especialmente


útil en relación con la multiplicación y división de los números complejos. Por ejemplo, si
z1 = r1 eiθ y z2 = r2 eiφ , tenemos:

z1 z2 = r1 eiθ r2 eiφ = r1 r2 eθ +φ .

1.6 Polinomios
Los números complejos se pueden usar para dar solución a todas las ecuaciones alge-
braicas que se puedan definir a partir de polinomios, de hecho el teorema fundamental del
Álgebra establece que cualquier polinomio con coeficientes complejos tiene al menos una
raíz que puede ser real o complejo, en la última sección de este capítulo veremos un breve
repaso de la teoría básica de polinomios y las raíces de ecuaciones polinómicas.

Definición 1.8 — Polinomio.


Llamamos polinomios a las expresiones:

a0 + a1 x + ... + an xn

donde a0 , a1 , ..., an son números complejos. A estos números se les llama coeficientes
del polinomio. Al símbolo x se le llama indeterminada. a0 , a1 x, ..., an xn son los términos
del polinomio. Los coeficientes ai pueden ser todos reales, en cuyo caso decimos que se
trata de un polinomio con coeficientes reales, o pueden ser todos racionales (o enteros),
y diremos entonces que el polinomio tiene coeficientes racionales (o enteros).

Haremos varias observaciones:


16 Números complejos

Cuando ai = 0, por convención general, se puede omitir el término ai xi al escribir el


polinomio.
Es recomendable escribir xi en lugar de 1xi , y −axi en lugar de (−a)xi o de +(−a)xi .
El término a0 también puede escribirse como a0 x0 . Nos referimos al término ai xi como
al término de grado i. Al término de grado cero le llamamos término independiente.
Al polinomio 0 le llamamos polinomio nulo.
No es necesario escribir los términos de un polinomio siempre en el mismo orden.

Definición 1.9 — Grado de un Polinomio.


El grado de un polinomio no nulo es el mayor de los grados de los términos que tienen
coeficiente diferente de cero.

Los polinomios como funciones


Al polinomio a0 + a1 x + .. + an xn le corresponde la función que a cada complejo α le
asocia el complejo:
a0 + a1 α + ... + an α n
que se obtiene al poner α en lugar de la indeterminada x y darle a los signos + en el sentido
usual de suma. Si a esa función la denotamos por f tenemos:

f (α) = a0 + a1 α + ... + an α n

Se acostumbra denotar el polinomio al que le corresponde la función f con f (x).

Suma y Producto de polinomios

Definición 1.10 — Suma de Polinomios.


Dados dos polinomios

p(x) = a0 + a1 x + a2 x2 + ... y q(x) = b0 + b1 x + b2 x2 + ...

definimos su suma como el polinomio dado por:

p(x) + q(x) = (a0 + a1 x + a2 x2 + ...) + (b0 + b1 x + b2 x2 + ...)


= (a0 + b0 ) + (a1 + b1 )x + (a2 + b2 )x2 + ...

Definición 1.11 — Producto de Polinomios.


Dados dos polinomios

p(x) = a0 + a1 x + a2 x2 + ... y q(x) = b0 + b1 x + b2 x2 + ...

definimos su producto como el polinomio dado por:


1.6 Polinomios 17

P(x)q(x) = (a0 + a1 x + a2 x2 + ...) ∗ (b0 + b1 x + b2 x2 + ...)


= a0 b0 + (a1 b0 + a0 b1 )x + (a0 b2 + a1 b1 + a2 b0 )x2 + ...

Es decir, el coeficiente de xn en el producto de p(x) y q(x) es:

∑ ai b j .
i+ j=n

Proposición 1.6.1
El grado de la suma de dos polinomios no nulos es menor o igual que el máximo de los
grados de los sumandos.

Proposición 1.6.2
El grado del producto de dos polinomios no nulos es la suma de los grados de los
factores.

División con residuo y Raíces de polinomios.

Proposición 1.6.3
Sea f (x) cualquier polinomio y sea g(x) un polinomio no nulo. Existen dos únicos
polinomios, q(x) y r(x), que satisfacen las condiciones siguientes:
1. f (x) = g(x)q(x) + r(x).
2. grado de r(x) < grado de g(x).

Los polinomios q(x) y r(x) son el cociente y el residuo respectivamente. Los polinomios
f (x) y g(x) son el dividendo y el divisor, respectivamente.
Se dice que a es raíz de f (x) si f (a) = 0. A las raíces de f (x) también se les llama
ceros de f (x). Las raíces de f (x) son las soluciones de la ecuación f (x) = 0, entendiendo
por ecuación una ecuación que solo es verdadera si en lugar de x se ponen ciertos números
a los cuales llamamos soluciones de la ecuación.

Proposición 1.6.4
Sea f (x) un polinomio y sea a ∈ C. Existen un polinomio q(x) (cociente) y r ∈ C (resto),
tales que
f (x) = (x − a)q(x) + r.
Además q(x) y r son únicos.
18 Números complejos

La diferencia entre las dos últimas propociciones reside en el uso de números complejos
para determinar las soluciones y factorizaciones de los polinomios.

Método 1 — División Sintética.


Para dividir un polinomio f (x) entre x − r, se procede como sigue:
1. En la primera línea se escriben los coeficientes an , an−1 , ..., a1 , a0 del dividendo
f (x) y el número r separado y a la derecha. Si alguna potencia de x no aparece en
f (x) su coeficiente se escribe como cero.
2. Se escribe el coeficiente principal an como primer término de la tercera linea y se
multiplica por r, escribiendo an r en la segunda linea debajo de an−1 .
3. Se suma an−1 con el producto an r y se escribe la suma an r + an−1 en la tercera
linea.
4. Se multiplica an r + an−1 por r, se escribe el producto en la segunda linea debajo
de an−2 y se suma con an−2 escribiéndose la suma en la tercera linea.
5. Se continua de esta manera hasta usarse como sumando a0 escribiéndose la
suma en la tercera linea. El último número de la tercera linea es el residuo; los
números anteriores son los coeficientes del cociente correspondientes a potencias
descendentes de x.

Para dividir an xn + an−1 xn−1 + ... + a1 x + a0 por x − c, aplicamos el procedimiento


anterior con ayuda de la siguiente tabla:

Aquí bn−1 = an y cada número del renglón inferior se obtiene sumando los números
que están por encima de él. El residuo es r y el cociente es:
bn−1 xn−1 + bn−2 xn−2 + ... + b1 x + b0

Teorema 1.10 — Teorema del Residuo.


El residuo de la división de f (x) entre x − a es igual a f (a).

 Ejemplo 1.9
Sea P(x) = 3x3 − 12x2 + 3x + 18
(a) Determine el cociente y el residuo cuando P(x) se divide entre x − 2.
1.6 Polinomios 19

(b) Utilice el teorema del residuo para determinar P(2).


Solución:
(a) Puesto que dividimos entre x − 2, la tabla de la división sintética para este
problema toma la forma siguiente:

2 3 -12 3 18
6 -12 -18
3 -6 -9 0

Entonces el cociente es 3x2 − 6x − 9 y el residuo es 0.


(b) Según el teorema del residuo, P(2) es el residuo cuando P(x) se divide entre
x − 2. Del inciso (a), el residuo es 0, por lo que P(2) = 0, y esto se puede verificar
sustituyendo:

P(2) = 3(2)3 − 12(2)2 + 3(2) + 18 = 3(8) − 12(4) + 6 + 18 = 24 − 48 + 6 + 18 = 0.

Teorema 1.11
P(c) = 0 si y sólo si x − c es un factor de P(x).

 Ejemplo 1.10
Aplicaremos los resultados anteriores para resolver los siguientes problemas:
(a) Sea P(x) = x3 − 4x2 + x + 6. Demuestre que P(−1) = 0, y utilice este hecho para
factorizar completamente a P(x).
(b) Obtenga un polinomio F(x) de grado 4 que tenga como ceros −3, 0, 1 y 5.
Solución (a). Para calcular P(−1) calculamos la división sintética del polinomio
P(x) entre x + 1 = x − (−1):

-1 1 -4 1 6
-1 5 -6
1 -5 6 0

y entonces el residuo de la división es 0, con lo cual P(−1) = 0 y además P(x) =


(x + 1)(x2 − 5x + 6).
Luego, para factorizar completamente a P(x) solo nos falta factorizar el polinomio
20 Números complejos

x2 − 5x + 6 y aplicando la fórmula general de la ecuación de segundo grado tenemos:


p √
−(−5) ± (−5)2 − 4(1)(6) 5 ± 25 − 24
x= =
2(1) 2

5±1
⇒x=
2
5+1 5−1
⇒ x1 = = 3, x2 = = 2,
2 2
con lo cual
P(x) = (x + 1)(x − 2)(x − 3).
Solución (b). Si las ráices del polinomio son x − 3, 0, 1 y 5, esto quiere decir que
x − (−3), x − 0, x − 1 y x − 5 dividen al polinomio buscado, con lo cual:

P(x) = (x + 3)(x)(x − 1)(x − 5) = x4 − 3x3 − 13x2 + 15x

Teorema 1.12 — Teorema de los ceros racionales..


Si el polinomio P(x) = an xn + an−1 xn−1 + · · · + a1 x + a0 tiene coeficientes enteros,
entonces todo cero racional de P es de la forma
p
q
donde
p es un factor del coeficiente constante a0 .
q es un factor del coeficiente principal an .

 Ejemplo 1.11
Factorice el polinomio P(x) = 2x3 + x2 − 13x + 6.
De acuerdo con el teorema anterior, los ceros racionales del polinomio son de la
forma qp , donde los valores posibles para p y q son los divisores de 6 y 2 respectivamente,
entonces:
p : 1, 2, 3, −1, −2, −3
q : 1, 2, −1, −2
Para determinar las raices del polinomio usaremos el teorema del residuo, es decir,
buscaremos valores de p y q tales que P(p/q) = 0. A continuación se muestran algunos
1.6 Polinomios 21

de estos casos:
1
= 2(13 ) + (12 ) − 13(1) + 6

P 1 = −4
1 3 2
= 2 12 + 12 − 13 12 + 6 = 0
   
P 2

con lo cual entonces x − 12 divide al polinomio P(x). Ahora aplicamos división sintéti-


ca:

1/2 2 1 -13 6
1 1 -6
2 2 -12 0
y entonces:  
1
P(x) = x − (2x2 + 2x − 12)
2
Por último factorizamos el polinomio 2x2 +2x −12 = 2(x2 +x −6) usando la fórmula
general de la ecuación de segundo grado y concluimos que:
 
1
P(x) = 2 x − (x + 3)(x − 2).
2


Método 2 — Determinación de los ceros racionales de un polinomio..


Para hallar los ceros racionales de un polinomio, usamos los siguientes pasos:
1. Liste todos los ceros posibles utilizando el teorema de los ceros racionales.
2. Utilice la división sintética para evaluar el polinomio en cada uno de los candidatos
a ceros racionales determinados en el paso 1. Cuando el residuo sea 0, anote el
cociente obtenido.
3. Repita los pasos 1 y 2 para el cociente. Deténgase cuando llegue a un cociente
que sea cuadrático o que se pueda factorizar con facilidad y utilice la fórmula
cuadrática o factorice para determinar los ceros restantes.

Teorema 1.13
Sea f (x) un polinomio de grado n > 0 con coeficientes complejos. Existen n números
complejos α1 , α2 , ..., αn , no necesariamente diferentes dos a dos, y un número compljeo
c tales que
f (x) = c(x − α1 )(x − α2 ) · · · (x − αn )
además esta factorización es única.
22 Números complejos

El número c es claramente el coeficiente de xn , y los números α1 , α2 , ..., αn son los


ceros de f (x). estos ceros no necesitan ser todos distintos

Definición 1.12
α es raíz de multiplicidad m del polinomio f (x) de grado positivo si (x − α)m divide a
f (x) pero (x − α)m+1 no lo divide.

Teorema 1.14
Todo polinomio de grado n ≥ 1 tiene exactamente n ceros, siempre y cuando un cero de
multiplicidad k sea contado k veces.

 Ejemplo 1.12
Determine la factorización completa y los cinco ceros del polinomio P(x) = 3x5 + 24x3 +
48x.
Primero tenemos que:

P(x) = 3x5 + 24x3 + 48x = 3x(x4 + 8x2 + 16),

luego podemos aplicar un cambio de variable tomando z = x2 y entonces:

(x4 + 8x2 + 16) = z2 + 8z + 16.

Aplicando la fórmula general de la ecuación de segundo grado:


p
−8 ± 82 − 4(1)(16)
z=
2(1)

−8 ± 64 − 64
z=
2
−8
z=
2

con lo cual las soluciones son z1 = −4 = z2 , luego, como z = x2 , entonces x = −4 =
±2i.
La factorización completa queda como:

P(x) = 3(x)(x − 2i)(x + 2i)(x − 2i)(x + 2i) = 3(x)(x − 2i)2 (x + 2i)2 .


1.6 Polinomios 23

 Ejemplo 1.13
Obtenga un polinomio de grado 4 con ceros i, −i, 2 y -2, y con P(3) = 25.
Sabemos que el polinomio será de la forma

P(x) = c(x − α1 )(x − α2 ) · · · (x − αn ),

más aún como las raíces deben ser i, −i, 2 y −2, entonces:

P(x) = c(x − i)(x + i)(x − 2)(x + 2) = cx4 − 3cx2 − 4c,

luego, como queremos que P(3) = 25, entonces:

P(3) = c(34 ) − 3c(32 ) − 4c = 50c = 25,

con lo cual c = 25/50 = 1/2 y por último:


   
1 4 1 2 1
P(x) = x − 3 x −4
2 2 2
   
1 4 3 2
= x − x −2
2 2


Teorema 1.15 — Teorema de las raíces conjugadas..


Si el polinomio P(x) de grado n > 0 tiene coeficientes reales, y si el número complejo z
es una raíz de la ecuación P(x) = 0, entonces su complejo conjugado z es también una
raíz.

 Ejemplo 1.14
Obtenga un polinomio P(x) de grado 3 que tenga coeficientes enteros y ceros 21 y 3 − i.
De acuerdo con el teorema de las raíces conjugadas la tercera raíz del polinomio será
el conjugado de 3 − i es decir, 3 + i, y entonces el polinomio se formará con el producto:

13x2
 
1
P(x) = x − (x − (3 − i))(x − (3 + i)) = x3 − + 13x − 5
2 2

2 — Matrices

Los conceptos de Álgebra Lineal y Álgebra Matricial se encuentran naturalmente ligados


entre sí, al grado en que no podría existir uno sin el otro. El estudio de las matrices aparece
de manera reiterada dentro de las transformaciones lineales entre espacios vectoriales como
herramienta que permite reescribir dichas transformaciones y estudiar sus propiedades
como se verá en el capítulo cinco. Por otro lado, las matrices también se pueden usar para
representar la información contenida en un sistema de ecuaciones lineales y nos permiten
definir métodos de solución sistemáticos para estos conjuntos de ecuaciones como se verá
más adelante en el capítulo tres.
El álgebra matricial consiste en el estudio de la estructura algebraica de las matrices, es
decir, sus definiciones, operaciones y propiedades, con base principalmente en un conjunto
de axiomas predefinidos. En este capítulo se estudiará la teoría básica de matrices que será
usada posteriormente en los sistemas de ecuaciones lineales, los espacios vectoriales y las
transformaciones lineales.

2.1 Definiciones básicas


Dado que las matrices representan un nuevo objeto matemático, necesitamos empezar
con la definición de estos objetos, así como también es necesario especificar cuáles son las
operaciones básicas que se pueden aplicar a estos objetos.

Definición 2.1
Una matriz sobre un campo F es un arreglo rectangular de elementos del campo F,
ordenados en filas y columnas (para los objetivos del presente material, se considerará
que F = R o bien F = C y en la mayoría de los casos se tomará F = R).
26 Matrices

 Ejemplo 2.1
Como se puede observar, la definición no especifica el número de filas ni de columnas
necesarias para formar una matriz, esto implica que se pueden formar diferentes tipos de
matrices, eligiendo el número de filas y columnas que deseemos.
Podemos formar matrices con una sola fila y varias columnas (tres en siguiente
caso):  
2 −3 1 .
También podemos formar matrices con una sola columna y varias filas (cuatro en
el siguiente ejemplo):  
3
 
 0 
 
1/2
 
2
En general podemos formar matrices con cualquier número de filas y de columnas,
por ejemplo una matriz con 3 renglones y 2 columnas sería:
 
2 −3
 
0 −1
 
9 4


Definición 2.2
Dependiendo del número de filas o de columnas que las constituyen, las matrices se
denominan como:
matriz renglón, si sólo posee una fila;
matriz columna, si solo posee una columna;
matriz cuadrada, si la matriz tiene igual número de filas que de columnas, o
matriz rectangular, si el número de filas y de columnas de la matriz no coincide.
Además las matrices renglón (columna) también pueden ser interpretadas como
vectores en algún espacio Rn .

Algunas observaciones importantes con respecto a las matrices:


El símbolo Mm×n (F) denota la colección de todas las matrices de m renglones con n
columnas sobre el campo F. (En general usaremos el símbolo Mn×m para representar
a las matrices de tamaño n × m con componentes reales, Mn×m (R)).
Las matrices usualmente serán denotadas por letras mayúsculas, y la ecuación A = [ai j ]
significa que el elemento en el i-ésimo renglón y la j-ésima columna de la matriz A
es igual a ai j .
2.2 Operaciones Básicas 27

En ocasiones también es conveniente escribir ai j = (A)i j .

 Ejemplo 2.2
La matriz !
5 −7 9
A=
5 0 −3
pertenece al conjunto M2×3 (R), mientras que la matriz
 
2 7i
 
B=  1 − i 1 + i

9i −5

pertenece al conjunto M3×2 (C). Además podemos referenciar a las distintas componentes
de estas matrices usando la simbología ai j , así por ejemplo, el elemento a22 , es el
componente de la matriz A, que se encuentra en la fila 2 y columna 2, es decir a22 = 0;
mientras que b22 = 1 + i. 

Definición 2.3
El orden de una matriz (o dimensión de la matriz) se representa como n × m y co-
rresponde al número de filas y columnas que posee respectivamente, así entonces, una
matriz de la forma  
a11 a12 ... a1m
 
 21 a22 ... a2m 
a 
A= . .. . . .. 
 .. . . . 
 
an1 an2 ... anm
es denominada matriz de orden n × m.

Definición 2.4
Se llama diagonal principal de una matriz A a la diagonal formada por los elementos
aii .

2.2 Operaciones Básicas


Existen tres operaciones básicas que podemos realizar con matrices: suma, multipli-
cación por escalar y multiplicación de matrices; sin embargo en cada una de ellas existen
ciertas condiciones que se deben satisfacer para poder realizar las operaciones y, al igual
que en el caso de los números complejos, también encontramos algunas propiedades que se
28 Matrices

cumplen en estas operaciones. Antes de empezar con las operaciones, conviene primero
aclarar bajo qué condiciones dos matrices serán iguales, la siguiente definición aborda este
punto.

Igualdad

Definición 2.5
Diremos que dos matrices A y B son iguales si tienen la misma dimensión y sus
correspondientes elementos son iguales; es decir si A y B ∈ Mm×n (F) y si A = [ai j ], B =
[bi j ], con ai j = bi j para 1 ≤ i ≤ m, 1 ≤ j ≤ n.

 Ejemplo 2.3
En general, para que dos matrices sean iguales, ambas matrices deben ser del mismo
orden y además deben tener los mismos componentes en las mismas posiciones, es decir,
no basta con que los elementos que componen a las matrices sean los mismos, sino que
además deben estar en las mismas posiciones, por ejemplo, las matrices
 
  1 1 1
1 1 1 1
 21 31 14 
2 3 4 5  
A= 1 1 1 1 B = 3 4 5
3 4 5 6 1 1 1
1 1 1 1 4 5 6
4 5 6 7 1 1 1
5 6 7

no son iguales, puesto que a pesar estan compuestas por los mismos números, estos no
se encuentran en la misma posición y además el orden de ambas no coincide. 

Suma
Definición 2.6
Sean A = [ai j ] y B = [bi j ] matrices de igual dimensión. Entonces A + B es la matriz
obtenida al sumar los correspondientes elementos de A y B; es decir

A + B = [ai j ] + [bi j ] = [ai j + bi j ],

es decir,
   
a a · · · a1m b b · · · b1m
 11 12   11 12 
 21 a22 · · · a2m  b21 b22 · · · b2m 
a  
+ = ···

 . .. . . .. 
 .. . . .   ... ..
.
.. .. 
. . 
   
an1 an2 · · · anm bn1 bn2 · · · bnm
2.2 Operaciones Básicas 29

 
a + b11 a12 + b12 · · · a1m + b1m
 11 
a + b
 21 21 a22 + b22 · · · a2m + b2m 
··· = 

.. .. .. .. 

 . . . . 

an1 + bn1 an2 + bn2 · · · anm + bnm

En pocas palabras, para sumar dos matrices la suma se realiza coordenada a coordenada,
es por ello que se impone la condición de igualdad del orden para las matrices que se deseen
sumar.

 Ejemplo 2.4
Si    
1 1 1 1 1 2 3 4
2 3 4 5 2 3 4 5 
A= 1 1 1 1 B= −1 −1 −1 −1 
3 4 5 6 3 4 5 6 
1 1 1 1 1 1 1 1
4 5 6 7 4 5 6 7
Entonces, de acuerdo con lo anterior:
 
1 1 1 1
 
A+B = 
 0 0 0 0 

2 2 2 2
4 5 6 7

En el conjunto de números reales existen dos propiedades importantes relacionadas


con la suma, estas son la existencia del neutro para la suma y la existencia de los inversos
aditivos. La primera propiedad indica que dentro del conjunto de números reales (R) existe
un elemento especial e ∈ R tal que a + e = a para cualquier número real a que se le sume,
es decir e no modifica a los reales a los que se les sume; es fácil ver que este elemento es
el número 0 (e = 0). La segunda propiedad menciona que todo número real a posee un
inverso (aditivo) representado por el símbolo −a que cumple que a + (−a) = 0. esta última
propiedad es la que permite posteriormente realizar la resta de números reales.
A continuación se enuncian las definiciones equivalentes, a las dos propiedades mencio-
nadas anteriormente, para las matrices.

Definición 2.7 — Matriz Cero.


Para cada n, m ∈ N la matriz en Mn×m (F), cuyos elementos son todos cero, es llamada
la matriz cero de tamaño n × m (o bien matriz neutro aditivo) y es denotada por el
símbolo 0 (o bien 0n×m ).
30 Matrices

 
0 0 ... 0
 
 0 0 ... 0 
0n×m = 
 
.... . . .. 

 . . . . 

0 0 ... 0

Se puede observar que de acuerdo con la definición, para cada conjunto de matrices
Mn×m (R) existe un neutro aditivo en dicho conjunto, es decir, existen diferentes tipos de
matrices cero dependiendo del orden de matrices con el estemos trabajando.

 Ejemplo 2.5
En el conjunto de matrices reales de orden 3 × 2, (M3×2 (R)), el neutro aditivo es:
 
0 0
 
03×2 =  0 0 

0 0

Es fácil ver que esta matriz cumple que para cualquier A ∈ M3×2 (R) :
     
a11 a12 0 0 a11 a12
     
A + 03×2 =  a 21 a 22
 + 0 0 = a21 a22  = A
    
a31 a32 0 0 a31 a32


Definición 2.8
Sea A = [ai j ]. Entonces −A es la matriz obtenida al reemplazar los elementos de A por
sus inversos aditivos; es decir

−A = −[ai j ] = [−ai j ],

o bien
   
a11 a12 ... a1n −a11 −a12 ... −a1n
   
a a22 ... a2n   −a −a ... −a 
 21 21 22 2n
−A = −  . =
  
 .. .. .. ..   ..
  .. .. .. 
 . . .   . . . .  
am1 am2 am2 amn −am1 −am2 ... −amn
2.2 Operaciones Básicas 31

 Ejemplo 2.6
Sea A ∈ M3×3 (R) :  
1 −2 0
 
A= 2
3 4 3 

0 − 21 5
entonces  
−1 2 0
 
−A =  2

 3 −4 −3

1
0 2 −5


Un resultado de la definición del inverso aditivo es que si tomamos una matriz A ∈


Mn×m (R), entonces:
A + (−A) = 0n×m ,
es decir, al sumar una matriz con su inverso aditivo el resultado será el neutro aditivo
correspondiente (se neutraliza).
Estas definiciones nos servirán para hablar de dos propiedades básicas de la suma de
matrices: la existencia de los inversos aditivos y la existencia del neutro aditivo, como
veremos más adelante. Por último, gracias a la existencia de los inversos aditivos, podemos
definir la operación conocida como la “resta” de matrices.

Definición 2.9 — Resta de Matrices.


La resta de matrices está definida para dos matrices A = [ai j ] y B = [bi j ] del mismo
tamaño, de la manera usual, componente a componente; es decir

A − B = A + (−B) = [ai j ] + [−bi j ] = [ai j − bi j ]

o bien:

   
a11 a12 ... a1n b11 b12 ... b1n
   
 21 a22 ... a2n   21 b22 ... b2n
 a   b 
− .  = ···

 . .. .. .. .. . . .
 .. . . .   .. . . .. 
   
am1 am2 am2 amn bm1 bm2 ... bmn
32 Matrices

 
a − b11 a12 − b12 ... a1n − b1n
 11 
 a −b a22 − b22 ... a2n − b2n 
 21 21
··· = 

.. .. ... .. 

 . . . 

am1 − bm1 am2 − bm2 ... amn − bmn

 Ejemplo 2.7
Sean !
3 −6 −2
A= ,
3 1 5
y !
−3 5 8
B=
−6 0 4
entonces
! !
3 − (−3) −6 − 5 −2 − 8 6 −11 −10
A−B = =
3 − (−6) 1−0 5−4 9 1 1


Multiplicación por un escalar

Definición 2.10
Sea A = [ai j ] y t ∈ F(recordemos que el campo puede ser R, o bien C)a . Entonces tA
es la matriz obtenida de multiplicar todos los elementos de A por t; es decir

tA = t[ai j ] = [tai j ],

o bien    
a11 a12 · · · a1m ta11 ta12 · · · ta1m
   
 a21 a22 · · · a2m   21 ta22 · · · ta2m
  ta 
t = .
 
.. .. . . . .. .. ..
. ..   ..


 . .   . . . 

an1 an2 · · · anm tan1 tan2 · · · tanm
a en este caso decimos que t es un escalar
2.2 Operaciones Básicas 33

 Ejemplo 2.8
Sean  
−1 6 −2
 
A= 3  yt =2
 5 4 4 
0 1 2
Entonces    
2 · (−1) 2 · (6) 2 · (−2) −2 12 −4
   
3
2 · (4)  =  10 32

tA =  2 · (5) 2 · 4
   8
2 · (0) 2 · (1) 2 · (2) 0 2 4


Sea !
−1 6
A= ,
4 2
entonces ! !
−1 6 1 −6
−1 · A = −1 · = = −A
4 2 −4 −2

En general es fácil ver que este resultado se repite para cualquier matriz de cualquier
orden. De aquí podemos establecer la siguiente proposición:

Proposición 2.2.1
Sea A ∈ Mn×m (R), entonces
−1 · A = −A,
es decir, el producto de una matriz por el escalar -1 produce el inverso aditivo de la
matriz.

Multiplicación

Definición 2.11
Sean A = [ai j ] una matriz de tamaño m × n y B = [b jk ] una matriz de tamaño n × p; (es
decir, el número de columnas de A es igual al número de renglones de B). Entonces
definimos la multiplicación AB como la matriz de m × p, C = [ci j ] donde los elementos
(i, j) están definidos por la fórmula
n
cik = ∑ ai j b jk = ai1b1k + ... + ainbnk
j=1
34 Matrices

 Ejemplo 2.9
Vamos a multiplicar dos matrices: A, B ∈ M2×2 (R). De acuerdo con la definición el
resultado será una matriz C de orden 2 × 2. Sean:
! ! !
1 2 5 6 c11 c12
= .
3 4 7 8 c21 c22

Siguiendo la definición se tiene que:

c11 = ∑2j=1 a1 j b j1 = a11 b11 + a12 b21 = (1)(5) + (2)(7) = 19


c12 = ∑2j=1 a1 j b j2 = a11 b12 + a12 b22 = (1)(6) + (2)(8) = 22
.
c21 = ∑2j=1 a2 j b j1 = a21 b11 + a22 b21 = (3)(5) + (4)(7) = 43
c22 = ∑2j=1 a2 j b j2 = a21 b12 + a22 b22 = (3)(6) + (4)(8) = 50

Es decir:
! ! ! !
1 2 5 6 1×5+2×7 1×6+2×8 19 22
= =
3 4 7 8 3×5+4×7 3×6+4×8 43 50


La fórmula para el cálculo del producto de dos matrices puede parecer complicada,
sin embargo es posible reinterpretarla considerando el producto de filas y columnas de la
siguiente manera.
Supongamos que
   
a11 a12 · · · a1m b11 b12 · · · b1p
   
 21 a22 · · · a2m   21 b22 · · · b2p 
 a   b 
A= . .. . . ..  , y que B = ,
 ..  ... .. . . .. 
 
 . . .   . . . 

an1 an2 · · · anm bm1 bm2 · · · bmp

es decir, A es de orden n × m y B de orden m × p. Entonces, por definición el resultado será


de orden n × p, es decir:

     
a11 a12 · · · a1m b b12 · · · b1p c11 c12 · · · c1p
   11   
 a21 a22 · · · a2m   b
  21 b22 · · · b2p   c21 c22 · · · c2p 
· . = .
   
.. .. . . . .. ... .. .. .. . . .. 
. ..   ..


 . .   . .  
  . . . .  
an1 an2 · · · anm bm1 bm2 · · · bmp cn1 cn2 · · · cnp

Más aún, la componente ci j se calcula multiplicando coordenada a coordenada la fila i


2.2 Operaciones Básicas 35

de la matriz A, con la columna j de B y sumando los productos obtenidos, gráficamente se


vería de la siguiente manera:

 
a11 a12 ... a1m
     

 a21 a22 ... a2m   b11 b12 ... b1 j ... b1p
 ∗ ∗ ··· ∗ ··· ∗
.. .. . . .   
. ..   b21 b22 ... b2 j ... b2p ∗ ∗ ··· ∗ ··· ∗
  
 . . ·
  
=
  
  .. .. . . . .. .. .. .. . . . ..

. .. . ci j . .


 ai1 ai2 ... aim   . . . .   . . . 
.. .. .
  
 .. 

 . . . .. 
 bm1 bm2 ... bm j ... bmp ∗ ∗ ··· ∗ ... ∗
an1 an2 ... anm

por ejemplo la componente c11 se calcularía multiplicando la fila 1 de A con la columna 1


de B y sumando:

     
a11 a12 · · · a1m b11 b12 · · · b1p c11 ∗ · · · ∗
     
 a21 a22 · · · a2m   21 b22 · · · b2p
  b   ∗ ∗ ··· ∗ 
· . = ,
   
.. .. . . . .. . . .. .. .. . .
. ..   ..


 . .   . . .  
  . . . ∗ 

an1 an2 · · · anm bm1 bm2 · · · bmp ∗ ∗ ··· ∗

es decir
 
b11
 
   b21 
c11 = a11 a12 · · · a1m ·  .  = a11 b11 + a12 b21 + ... + a1m bm1
 
 .. 
 
bm1

 Ejemplo 2.10
Sean
! !
0 1 1 4 −2
A= y B=
2 3 3 0 4

Antes de iniciar comprobamos que como A es de orden 2 × 2 y B es de orden 2 × 3,


entonces estas matrices son conformables, por lo que el producto AB es posible y además
el resultado será una matriz C de orden 2 × 3.
Ahora bien, para la componente c11 multiplicamos coordenada a coordenada y
sumamos los productos de la siguiente manera:
36 Matrices

! ! ! !
0 1 1 4 −2 (0)(1) + (1)(3) ∗ ∗ 3 ∗ ∗
· = = ,
2 3 3 0 4 ∗ ∗ ∗ ∗ ∗ ∗

para la componente c12 ahora multiplicamos y sumamos la fila 1 de A con la columna 2


de B de la siguiente manera:
! ! ! !
0 1 1 4 −2 3 (0)(4) + (1)(0) ∗ 3 0 ∗
· = = ,
2 3 3 0 4 ∗ ∗ ∗ ∗ ∗ ∗

y continuamos hasta completar los cálculos necesarios.


Para c13 :
! ! ! !
0 1 1 4 −2 3 0 (0)(−2) + (1)(4) 3 0 4
· = = .
2 3 3 0 4 ∗ ∗ ∗ ∗ ∗ ∗

Para c21 tomamos la fila 2 de A y la columna 1 de B :


! ! ! !
0 1 1 4 −2 3 0 4 3 0 4
· = = .
2 3 3 0 4 (2)(1) + (3)(3) ∗ ∗ 11 ∗ ∗

Para c22 :
! ! ! !
0 1 1 4 −2 3 0 4 3 0 4
· = = .
2 3 3 0 4 11 (2)(4) + (3)(0) ∗ 11 8 ∗

Para finalizar:
! ! ! !
0 1 1 4 −2 3 0 4 3 0 4
· = = .
2 3 3 0 4 11 8 (2)(−2) + (3)(4) 11 8 8


Es fácil ver que esta forma de multiplicar las matrices coincide con la definición dada. De
hecho este método sólo es una técnica para recordar fácilmente cuáles son las operaciones
que se deben realizar en una multiplicación de matrices.

Análogamente al caso de la suma, en la multiplicación también encontramos a un


elemento neutro para la multiplicación de matrices, es decir, existe una matriz especial,
representada por I, que multiplicada por cualquier otra matriz A, la deja igual, es decir,
AI = A.
2.2 Operaciones Básicas 37

Definición 2.12 — Matriz Identidad.


Se llama matriz identidad de orden n y se nota In (o simplemente I en caso de que la
dimensión sea obvia) a una matriz cuadrada de orden n en la que los elementos de la
diagonal principal son 1 y el resto 0.

En general podemos decir que la matriz identidad juega un papel equivalente al del 1 en
la multiplicación.

 Ejemplo 2.11
La matriz identidad es una matriz que tiene puros 1’s en la diagonal principal.
A continuación se muestran algunos ejemplos:
!
1 0
I2 =
0 1

Para matrices de dimensión 3 × 3 :


 
1 0 0
 
I3 = 
 0 1 0 

0 0 1
. 

 Ejemplo 2.12
Como mencionamos anteriormente, la matriz identidad cumple que al multiplicarse por
cualquier matriz (con la que sea conformable), el resultado será la misma matriz que se
multiplicón, por ejemplo:
! ! !
1 0 −1 −4 3 −1 −4 3
=
0 1 1 −2 −5 1 −2 −5

Por otro lado:


 
! 1 0 0 !
1 0 −3  
0 1 0 = 1 0 −3
−5 3 −3   −5 3 −3
0 0 1

Nótese que en ambos casos se multiplicó por una matriz identidad, aunque no la
38 Matrices

misma, ya que las dimensiones necesarias para que sea conformable pueden llegar a
variar dependiendo del lado por que se realice la multiplicación.
En particular para matrices cuadradas se tiene que la matriz identidad funciona en
ambos sentidos:

       
−5 −1 −5 1 0 0 1 0 0 −5 −1 −5 −5 −1 −5
       
1 2 4  0 1 0 = 0 1 0  1 2 4 = 1 2 4 
       
1 −4 −4 0 0 1 0 0 1 1 −4 −4 1 −4 −4


2.3 Propiedades de las operaciones


Ahora que conocemos las principales operaciones que se pueden efectuar entre matrices,
conviene revisar cuáles son las propiedades que se cumplen con estas operaciones, así
pues, a continuación mostraremos estas propiedades divididas en dos teoremas principales,
primero se abordarán las propiedades para la suma y para la multiplicación por escalar,
donde encontraremos mucha similitud con las propiedades de las operaciones de números
complejos. el segundo teorema principal trata de las propiedades de la multiplicación entre
matrices y veremos como algunas de las propiedades básicas se pieden en el caso de las
matrices.

Propiedades de la suma y multiplicación por escalar


Teorema 2.1
Sean A, B y C matrices de dimensión n × m y sean s, t ∈ F, entonces:
1. Asociativa para la suma
(A + B) +C = A + (B +C).
2. Conmutativa para la suma
A + B = B + A.
3. Existencia del Neutro aditivo
∃0 ∈ Mn×m (F) tal que 0 + A = A.
4. Existencia de los Inversos aditivos
∀A ∈ Mn×m (F), ∃(−A) ∈ Mn×m (F), tal que A + (−A) = 0.
5. Distributiva por la derecha
(s + t)A = sA + tA, (s − t)A = sA − tA.
6. Distributiva por la izquierda
t(A + B) = tA + tB.
2.3 Propiedades de las operaciones 39

7. Asociativa para la multiplicación por escalar


s(tA) = (st)A.
8. 1A = A, 0A = 0, (−1)A = −A.
9. tA = 0 ⇒ t = 0 o bien A = 0.

Siguiendo estrictamente la definición de adición de matrices (definición 2.6), únicamente


podemos sumar dos matrices con la fórmula dada, sin embargo, la propiedad 1 del teorema
2.1 nos indica que en caso de querer realizar la operación de 3 (o más) matrices A + B +C
bastará con empezar adicionando dos cualesquiera de ellas y al resultado obtenido, sumarle
la tercera matriz. Además no importa qué pareja se sume primero A + B o B +C, al final el
resultado será el mismo como indica la propiedad asociativa:

(A + B) +C = A + (B +C)

Veamos un ejemplo de la aplicación de la propiedad 1.

 Ejemplo 2.13 — Ejemplo de la propiedad asociativa.


Sean:
! !
−1 3 4 −1 1 4
A= B=
1 4 −5 5 0 3
y !
4 5 2
C=
−5 −1 −1
Entonces para calcular la adición A + B +C, podemos realizar la suma en la forma
(A + B) +C, es decir, empezar adicionando (A + B) y al resultado sumarle C :
! ! !
−1 3 4 −1 1 4 −2 4 8
A+B = + =
1 4 −5 5 0 3 6 4 −2

y entonces
! ! !
−2 4 8 4 5 2 2 9 10
(A + B) +C = + = ,
6 4 −2 −5 −1 −1 1 3 −3

o en caso contrario podemos empezar sumando (B +C)


! ! !
−1 1 4 4 5 2 3 6 6
B +C = + = ,
5 0 3 −5 −1 −1 0 −1 2
40 Matrices

y luego sumar A :
! ! !
−1 3 4 3 6 6 2 9 10
A + (B +C) = + =
1 4 −5 0 −1 2 1 3 −3

Al final no importa qué operación (asociación) se elija realizar primero, al realizar la


suma total ambos resultados coinciden. 

La propiedad conmutativa indica que podemos intercambiar la posición de las matrices


que se están sumando y obtendremos el mismo resultado. En notación matricial lo que
ocurre en esta propiedad se puede observar de la siguiente manera:
Supongamos que
   
a a12 ... a1n b b12 ... b1n
 11   11 
 21 a22 ... a2n   b21 b22 ... b2n 
 a   
A= . .. . . ..  y que B =  . .. . . ..  ,
 .. . . .   .. . . . 
   
am1 am2 ... amn bm1 bm2 ... bmn
entonces  
a11 + b11 a12 + b12 ... a1n + b1n
 
 a +b a22 + b22 ... a2n + b2n 
 21 21
A+B =  ,

.
.. .. ... ..

 . . 

am1 + bm1 am2 + bm2 ... amn + bmn
mientras que por otro lado:
 
b11 + a11 b12 + a12 ... b1n + a1n
 
 b +a b22 + a22 ... b2n + a2n 
 21 21
B+A =  .

.
.. .. .. ..

 . . . 

bm1 + am1 bm2 + am2 ... bmn + amn
De aquí es fácil ver que ambos resultados serán iguales entre sí, como indica la propiedad
conmutativa de la suma de matrices. Usando esta misma representación matricial se pue-
den demostrar fácilmente las propiedades 5 a la 9 del teorema anterior, mientras que las
propiedades 3 y 4 del teorema 2.1 se relacionan con las definiciones 2.7 y 2.8.

Propiedades de la multiplicación de Matrices


Teorema 2.2
Para la multiplicación de matrices tenemos las siguientes propiedades asociativas y
distributivas:
1. (AB)C = A(BC) si A, B,C son de tamaño m × n, n × p, p × q respectivamente
2.3 Propiedades de las operaciones 41

2. t(AB) = (tA)B = A(tB), A(−B) = (−A)B = −(AB)


3. (A + B)C = AC + BC si A, B son de tamaño m × n y C es de n × p
4. D(A + B) = DA + DB si A y B son de m × n y D es de p × m

 Ejemplo 2.14
Para ilustrar la propiedad asociativa, vamos a mostrar un ejemplo de aplicación de ésta:
Sean
 
! ! −4 0
5 −1 −3 −3 −4  
A= B= yC= −1 −1 .
−1 3 −2 0 −2  
0 2

Primero vemos que es posible realizar los productos (AB)C y A(BC), ya que A es de
orden 2 × 2, B es de orden 2 × 3 y C es de orden 3 × 2. Entonces empezamos verificando
la propiedad asociativa:
(AB)C = A(BC),
calculando la expresión indicada en el lado izquierdo (AB)C y de aquí calculamos
primero, como se indica, el producto AB :
!
−13 −15 −18
AB = ,
−3 3 −2

luego entonces:
 
! −4 0 !
−13 −15 −18   67 −21
(AB)C =  −1 −1  = .
−3 3 −2   9 −7
0 2

Ahora, del lado derecho tenemos que


!
15 −5
BC =
8 −4

y luego ! ! !
5 −1 15 −5 67 −21
A(BC) = = ,
−1 3 8 −4 9 −7
con lo cual se comprueba que A(BC) = (AB)C. 

A pesar de que tenemos las propiedades anteriores, una propiedad que es común en
42 Matrices

aritmética y que no se cumple para matrices es la siguiente:

AB = BA

siempre que A y B sean matrices que se puedan multiplicar.


En muchos casos el producto en ambos sentidos no es posible, por ejemplo, suponga
que A ∈ M2×3 y B3×3 , entonces será posible multiplicar A2×3 B3×3 . Sin embargo el producto
B3×3 A2×3 no está definido, pues la multiplicación no es conformable en este sentido.
Inclusive, aunque los productos AB y BA sean posibles, no se garantiza que el resultado
coincida en ambos sentidos, ya que las dimensiones en el resultado pueden variar.

 Ejemplo 2.15
A continuación mostramos un ejemplo de que la multiplicación de matrices no es
conmutativa. Sean
   
2 −2 1 −1 −2 0
   
A= 0 2
 1  , B =  0 −1 1 
 
,
2 1 −2 −1 −2 2

entonces  
−3 −4 0
 
AB = 
 −1 −4 ,
4 
0 −1 −3
mientras que:  
−2 −2 −3
 
BA = 
 2 ,
−1 −3 
2 0 −7
con lo cual se observa claramente, en este caso, que AB 6= BA. 

2.4 Clasificación de las Matrices


Hasta este punto, hemos mostrado diferentes ejemplos de matrices y el lector habrá
notado o imaginado algunos casos particulares de matrices con características singulares.
Hemos visto, por ejemplo, que existen matrices con un solo renglón, o matrices con todas
sus componentes iguales a cero, sin embargo estos no son los únicos casos singulares que
existen. A continuación se presenta una clasificación de matrices básicas.
2.4 Clasificación de las Matrices 43

Definición 2.13 — Matriz Triangular Superior.


Se dice que una matriz es triangular superior si todos los elementos que están por debajo
de la diagonal principal son nulos.

Definición 2.14 — Matriz Triangular Inferior.


Se dice que una matriz es triangular inferior si todos los elementos que están por encima
de la diagonal principal son nulos.

 Ejemplo 2.16
A continuación se muestra una matriz triangular superior:
 
1 4 2
 
 0 3 4 ,
 
0 0 1
como se puede observar, los elementos por debajo de la diagonal superior de la matriz
son cero. Como se observa en este caso, no importa qué valores se coloquen sobre la
diagonal principal ni por arriba de esta.
Cuando el arreglo de números se invierte al caso anterior obtenemos una matriz
triangular inferior, por ejemplo:
 
1 0 0
 
 2 8 0 ,
 
4 9 7
en este caso, los elementos por arriba de la diagonal principal serán cero. 

Definición 2.15 — Matriz Diagonal.


Una matriz diagonal es una matriz cuadrada en que las entradas o valores son todos
nulas salvo en la diagonal principal, y éstos incluso pueden ser nulos o no. Otra forma de
decirlo es que es diagonal si todos sus elementos son nulos salvo algunos de la diagonal
principal.
44 Matrices

 Ejemplo 2.17
Las siguientes matrices son matrices diagonales:
!
1 0
0 4
 
3 0 0
 
0 −2 0
 
0 0 0
En el segundo caso se muestra una matriz diagonal, en la cual uno de los elementos
de la diagonal principal es cero. 

Definición 2.16 — Matriz Escalar..


Matriz Escalar es el nombre que recibe aquella matriz diagonal en la cual los elementos
que conforman la diagonal principal son iguales.

 Ejemplo 2.18
Una matriz escalar sería:  
2 0 0
 
 0 2 0 ,
 
0 0 2
en este caso el escalar sería 2, ya que es el elemento que aparece en la diagonal principal
de la matriz. 

Definición 2.17 — Matriz Periódica.


Una matriz A se llama periódica, si existe k, el menor número entero y positivo, para el
cual se cumple Ak+1 = A. Se dice que la matriz A tiene como periodo k.

 Ejemplo 2.19
La matriz !
1 0
A=
0 1
se puede considerar como una matriz periódica ya que con un periodo k = 2, se tiene
2.4 Clasificación de las Matrices 45

que:
!2 !
1 0 1 0
A2 = = =A
0 1 0 1


Definición 2.18 — Matriz Nilpotente.


Sea A una matriz cuadrada. Si existe un entero positivo p para el cual A p = 0, entonces
decimos que A es nilpotente de orden p. También llamada matriz nulipotente.

 Ejemplo 2.20
Para la siguiente matriz, con p = 2 se puede demostrar que A p = 0 :
 2  
0 −8 0 0 0 0
   
 0
 0 0 
 =  0 0 0 ,
 
0 5 0 0 0 0

por lo cual la matriz es nilpotente, de orden 2. 

Definición 2.19 — Matriz Idempotente.


Una matriz idempotente es una matriz la cual es igual a su cuadrado, es decir: A es
idempotente si A · A = A2 = A.

 Ejemplo 2.21
!2 !
1 0 1 0
=
0 1 0 1


Definición 2.20 — Matriz Involutiva.


Una matriz A es involutiva si cumple con A2 = I.
46 Matrices

 Ejemplo 2.22
!2 !
−1 0 1 0
=
0 1 0 1


Definición 2.21 — Matriz Transpuesta.


Es aquella matriz cuyas filas coinciden con las columnas de A y las columnas coinciden
con las filas de A. Es representada por el símbolo At .

La matriz transpuesta se puede obtener intercambiando las filas por las columnas de una
matriz dada.

 Ejemplo 2.23
! !
1 2 1 3
A= → At =
3 4 2 4

   
1 2 3 1 4 7
 → Bt =  2 5 8  .
   
B=
 4 5 6   
7 8 9 3 6 9


Definición 2.22 — Matriz Simétrica.


Una matriz A es simétrica si cumple con A = At .

 Ejemplo 2.24
   
1 2 3 1 2 3
 → At =  2 0 5  = A
   
A=
 2 0 5   
3 5 6 3 5 6
2.4 Clasificación de las Matrices 47

   
4 −5 2 4 −5 2
t
   
B =  −5 0 3  → B =  −5 0 3 
  
 = B.
2 3 9 2 3 9


Definición 2.23 — Matriz Antisimétrica.


La matriz A es antisimétrica, cuando A = −At .

 Ejemplo 2.25
     
0 −2 4 0 2 −4 0 −2 4
t
     
A= 2
 0 2  → A =  −2 0 −2  = −  2
    0 2  = −A.
−4 −2 0 4 2 0 −4 −2 0


Definición 2.24 — Matriz Compleja.


Sea A una matriz de tamaño mxn, se llama compleja si sus elementos con números
complejos.

 Ejemplo 2.26
!
1+i 2 − 3i
A= .
2 − 4i 3 + 8i


Definición 2.25 — Matriz Conjungada.


Sea A una matriz compleja, la conjugada de A se forma con los conjugados de cada
elemento de A, se representa por A.
48 Matrices

 Ejemplo 2.27
   
2+i 3 −1 + 4i 2−i 3 −1 − 4i
c
   
A=
 4−i 5 −2 − 2i 
 → A =  4 + i 5 −2 + 2i  .
 
1 3 − i 1 + 3i 1 3 + i 1 − 3i


Definición 2.26 — Matriz Hermítica.


Sea A es una matriz compleja, decimos que A es hermítica (o hermitiana) si cumple que
At = A .

 Ejemplo 2.28
! ! !
3 2+i 3 2−i ct 3 2+i
A= → Ac = →A = = A.
2−i 1 2+i 1 2−i 1


Definición 2.27 — Matriz Antihermítica.


Si A es una matriz compleja y además cumple con At = −A, entonces se llama matriz
antihermitiana, hermihermítica o antihermítica.

 Ejemplo 2.29
! !
i 2+i −i 2−i
A= → Ac = → ...
−2 + i 3i −2 − i −3i
! !
ct −i −2 − i i 2+i
··· → A = =− = −A.
2−i −3i −2 + i 3i


Definición 2.28 — Matriz Ortogonal.


Una matriz cuadrada es ortogonal si A · At = At · A = I.
2.5 Matriz Inversa 49

 Ejemplo 2.30
   
√1 √1 √1 − √12
A= 2 2  → At =  2 
− √12 √1
2
√1
2
√1
2

    !
√1 √1 √1 − √12 1 0
A ∗ At =  2 2 ∗ 2 = .
− 12
√ √1
2
√1
2
√1
2
0 1


2.5 Matriz Inversa


Una propiedad importante que se cumple para la multiplicación de números reales y
que se esperaría que se cumpliera para las matrices consiste en la existencia de los inversos:
en los números reales, para cada elemento x ∈ R que no sea el cero, existe otro número
x−1 ∈ R tal que x · x−1 = 1. Este elemento es denominado el inverso (multiplicativo) de x.
Ahora bien, en algunas ocasiones esta propiedad no se cumple en general para todas
las matrices, es decir, si tomamos una matriz cualquiera A ∈ Mn×m no podemos garantizar
que exista otra matriz (que podemos representar por) A−1 tal que A · A−1 = In (la matriz
identidad).

Definición 2.29 — Matriz Invertible.


Sea A ∈ Mn×n , decimos que A es una matriz invertible (o no singular) si existe otra
matriz, representada por A−1 ∈ Mn×n , tal que

AA−1 = A−1 A = In .

En caso de existir, la matriz A−1 recibe el nombre de matriz inversa de A.


En caso que esta matriz (la inversa) no exista, entonces decimos que A es una matriz
no invertible (o singular).

 Ejemplo 2.31
La matriz  
−2 −3 0
 
A =  −3 −3 1 

,
4 2 −3
50 Matrices

es invertible, ya que si tomamos


 
7 −9 −3
A−1 = 
 
 −5 6
2 ,
6 −8 −3

entonces
    
7 −9 −3 −2 −3 0 1 0 0
−1
    
A A =  −5 6
 2   −3 −3 1  = 0 1 0
   
,
6 −8 −3 4 2 −3 0 0 1

por otro lado


    
−2 −3 0 7
1 0 0 −9 −3
AA−1 = 
    
−3 −3 1   −5 6 2  = 0 1 0
    
4 2 −3 6 −8 −3 0 0 1


Supongamos que A es una matriz invertible, ¿cuántas inversas podría tener A?, es decir,
si A es invertible sabes que hay al menos una matriz B tal que AB = I = BA, pero aún no
sabemos cuántas de estas hay en total.
Supongamos que A es una matriz cuadrada para la cual existen dos matrices adicionales
B1 y B2 , las cuales cumplen que B1 A = AB1 = I y B2 A = AB2 = I. Por la definición anterior,
A sería una matriz invertible, ya que B1 y B2 serían sus inversas y además:

B1 = IB1 por propiedad de la identidad I


= (B2 A)B1 puesto que B2 A = I
= B2 (AB1 ) aplicando la propiedad asociativa
= B2 I ya que AB1 = I
= B2

Esto quiere decir que B1 = B2 , con lo cual tenemos como resultado el siguiente teorema.

Teorema 2.3
Si A es una matriz invertible, entonces su inversa es única y se representa por A−1 .

Determinar si una matriz dada es invertible o no, es un trabajo que necesita más herra-
2.5 Matriz Inversa 51

mientas, por ejemplo, suponga que tenemos la matriz:


 
0 −3 3
 
A = 0 5 −5

,
1 3 0

resulta complicado determinar si esta matriz es invertible o no lo es (de hecho la matriz A


es singular, es decir, no posee inversa). A continuación se estudia este problema con más
detalle.

2.5.1 Operaciones Elementales Renglón.


Vamos a definir unas funciones f : Mn×n −→ Mn×n (es decir, las funciones tomarán
matrices y las convertirán en otras), usando los renglones Ri de una matriz dada A, y
representadas de la siguiente manera:

f Ri , R j −→ Ri

donde 
f Ri , R j
representa una fórmula que involucra los renglones Ri y R j y cuyo resultado se va a colocar
en el renglón Ri de la matriz A. Por ejemplo:

(R1 + R2 ) → R1 ,

aplicado a la matriz !
2 −1
A= ,
5 0
significa que el resultado de la operación (R1 + R2 ) (la suma del renglon 1 mas el renglón
2) lo vamos a colocar en R1 (el renglón 1) de la matriz A dejando el resto de las matrices sin
cambio. Simbólicamente lo representamos como:
! !
2 −1 (R1 +R2 )→R1 7 −1
−−−−−−−→
5 0 5 0
Estas operaciones son importantes por que nos permitirán reducir a las matrices hasta
una forma más "simple", en particular, estamos interesados en reducirlas a la identidad, para
que a partir de ello podamos encontrar el inverso multiplicativo de matrices.
Como podrá observar, dentro de la lista de propiedades que se cumplen para las ope-
raciones de matrices, no hablamos de la existencia de los inversos multiplicativos, esto es
debido a que esta propiedad no se cumple en general para todas las matrices.
Para estudiar la propiedad de existencia del inverso multiplicativo, vamos a definir
3 tipos diferentes de fórmulas que podemos usar sobre las matrices, estas son llamadas
52 Matrices

operaciones elementales renglón, puesto que como mencionamos anteriormente, únicamente


utilizan los renglones de una matriz.
A continuación definimos las operaciones elementales que usaremos para realizar la
reducción de las matrices:

Definición 2.30 — Operaciones Elementales Renglón.


Sea  
R1
 . 
A= . 
 . 
Rm
una matriz, donde cada Ri representa el renglón i de la matriz, entonces definimos las
siguientes operaciones elementales renglón:
Tipo I: Intercambiar el renglón i-ésimo y la j-ésimo. Es decir,
   
R1 R1
   
 ...   ... 
   
 Ri   Rj 
   
  Ri ↔R j  
 ...  −
 −−−→  ... 
 

   
 Rj   Ri 
   
 ...   ... 
   
Rm Rm
Tipo II: Reemplazar el renglón i por un múltiplo constante no cero de él mismo. Es
decir,
   
R1 R1
   
 ...   ... 
   
 kRi →Ri 
 Ri  −−−−→  k ∗ Ri 
 
   
 ...   ... 
   
Rm Rm
Tipo III: Reemplazar el renglón i por una combinación de él mismo más un múltiplo
constante del renglón j
2.5 Matriz Inversa 53

   
R1 R1
   
 ...   ... 
  (kR j +Ri )→Ri  
 Ri  −−−−−−−−→  k ∗ R j + Ri
   

   
 ...   ... 
   
Rm Rm

 Ejemplo 2.32
A continuación mostramos algunos ejemplos de la aplicación de estas operaciones
elementales. Sea:  
−2 2 −5
 
 3 4 −4 
A= −2 −5
.
 −1 
3 −2 −5
Podemos intercambiar los renglones 2 y 3 (tipo I):
   
−2 2 −5 −2 2 −5
   
 3 4 −4  R2 ↔R3  −2 −5 −1 
 −2 −5 −1  −−−−→  3
   
   4 −4 

3 −2 −5 3 −2 −5

Como ejemplo de una operación de tipo II, podemos multiplicar el renglón 1 de A


por − 21 . Al multiplicar obtenemos:

1 1  
5

− R1 = − −2 2 −5 = 1 −1 2
,
2 2
luego este resultado lo colocamos en el primer renglón de la matriz A. Simbólicamente
representamos esta operación como:
   
−2 2 −5 1 −1 52
  1  
 3 4 −4  − 2 R1 →R1  3 4 −4 
 −2 −5 −1  −−−−−−→  −2 −5 −1 
   
   
3 −2 −5 3 −2 −5
Por último, para mostrar una operación tipo III, vamos a multiplicar el renglón 2 por
el escalar -1 y se lo sumaremos al renglón 4:
54 Matrices

   
−1R2 + R4 = −1 3 4 −4 + 3 −2 −5
   
= −3 −4 4 + 3 −2 −5
 
= 0 −6 −1 ,

luego este resultado sustituye al renglón 4 de la matriz, dejando el resto de los renglones
sin cambiar. Simbólicamente se escribe como:
   
−2 2 −5 −2 2 −5
   
 3 4 −4  −1R2 +R4 →R4  3
 −−−−−−−−→  4 −4 
 −2 −5 −1  .
 
 −2 −5 −1 
   
3 −2 −5 0 −6 −1
Para que esta última operación sea válida, debemos colocar el resultado final de la
suma en alguno de los dos renglones involucrados, generalmente en el renglón que no se
multiplicó por escalar. 

Definición 2.31
Dada una matriz A cualquiera decimos que B es equivalente a A si podemos transformar
A en B mediante una combinación finita de las operaciones elementales renglón

 Ejemplo 2.33
En el ejemplo anterior y de acuerdo con la definición dada, cada una de las matrices
obtenidas con las operaciones realizadas son equivalentes a la matriz A, es decir, las tres
matrices:

     
5
−2 2 −5 1 −1 2 −2 2 −5
     
 −2 −5 −1 4 −4 4 −4
 ; A2 =  3  ; A3 =  3
    
A1 =  ,
 3
 4 −4 

 −2 −5 −1



 −2 −5 −1



3 −2 −5 3 −2 −5 0 −6 −1
2.5 Matriz Inversa 55
 
−2 2 −5
 
 3 4 −4 
son equivalentes por renglón a la matriz A = 
 −2 −5 −1

 
 
3 −2 −5

Las operaciones elementales renglón se pueden usar para hallar la matriz inversa de una
matriz invertible sencilla.

 Ejemplo 2.34
Sea: !
0 2
A=
1 2
Intentamos determinar una matriz, representada por A−1 , tal que A−1 A = I2 , es decir,
si !
x y
A−1 = ,
z w
entonces se busca que: ! ! !
x y 0 2 1 0
= .
z w 1 2 0 1
Para determinar esta matriz vamos aplicar las siguientes operaciones elementales
renglón a la matriz A en forma consecutiva:
Operación 1: R1 ↔ R2
Operación 2: 12 R2 → R2
Operación 3: −2R2 + R1 → R1
En forma simbólica tenemos:
! ! ! !
0 2 R1 ↔R2 1 2 21 R2 →R2 1 2 −2R2 +R1 →R1 1 0
A= −−−−→ A1 = −−−−−→ A2 = −−−−−−−−→ A3 = .
1 2 0 2 0 1 0 1

De esta forma convertimos a la matriz A en la matriz identidad. Ahora por otro


lado, los resultados obtenidos en cada una de las operaciones elementales renglón se
puede obtener por medio de la multiplicación por una matriz especial, específicamente
hablando:
La primera operación (R1 ↔ R2 ) se puede realizar multiplicando la matriz A por la
matriz !
0 1
E1 = ,
1 0
56 Matrices

es decir A1 = E1 A : ! ! !
0 1 0 2 1 2
= .
1 0 1 2 0 1
La segunda operación ( 12 R2 → R2 ) se puede realizar multiplicando la matriz A1 por
!
1 0
E2 = ,
0 1/2

es decir A2 = E2 A1 : ! ! !
1 0 1 2 1 2
1
= .
0 2 0 2 0 1
Por último la tercera operación se puede obtener multiplicando por
!
1 −2
E3 = ,
0 1

es decir, A3 = E3 A2 :
! ! !
1 −2 1 2 1 0
=
0 1 0 1 0 1

En forma simbólica estas relaciones las podemos esquematizar de la siguiente manera:

Op1 Op2 Op3


AO / AO 1 / AO 2 / AO 3

 E1 A  E2 A1  E3 A2 
A / A1 / A2 / A3
Donde Op1, Op2 y Op3 son las operaciones elementales renglón que se usaron para
transformar la matriz A en la identidad y las flechas verticales apuntado hacia arriba y
hacia abajo implican que los resultados mostrados son iguales.
Resumiendo, hemos obtenido la matriz identidad por medio de la aplicación sucesiva
de operaciones elementales renglón. Equivalentemente también se obtuvieron los mismos
2.5 Matriz Inversa 57

resultados por medio de multiplicaciones sucesivas por matrices especiales. Es decir:

I2 = A3
= E3 A2 (se sustituyó el valor de A3 )
= E3 (E2 A1 ) (se sustituyó el valor de A2 )
= E3 (E2 (E1 A)) (se sustituyó el valor de A1 )
= (E3 E2 E1 )A (se reagruparon los factores).

Este último resultado implica que la matriz que se obtiene del producto E3 E2 E1
cumple el mismo papel que el de la inversa de la matriz A. Es decir:

A−1 = E3 E2 E1
! ! !
1 −2 1 0 0 1
=
0 1 0 1/2 1 0
!
1 1
= .
− 12 0

Con lo cual:
! ! ! ! !
0 2 1 1 1 1 0 2 1 0
= =
1 2 − 21 0 − 12 0 1 2 0 1


El ejemplo anterior muestra un primer procedimiento para la obtención de la matriz


inversa que se podría resumir de la siguiente manera:
Primero se deben hallar las operaciones elementales que transformen a la matriz A en
la identidad.
Posteriormente se deben hallar las matrices que al multiplicarse por la matriz A
produzcan los mismos resultados que las operaciones anteriores.
Por último se deben multiplicar estas matrices para obtener la matriz inversa.
Cabe mencionar que el procedimiento no es del todo explícito ni mucho menos práctico
para aplicarse, ya que aún quedan algunas interrogantes sobre su desarrollo. Por ejemplo:
¿Qué operaciones elementales se deben realizar?
¿Cómo se obtienen la matrices que producen el mismo resultado que las operaciones
elementales?
¿Siempre se obtendrá la matriz inversa con este procedimiento?
Con respecto a la primera pregunta, la respuesta nos la da el procedimiento denominado
“Método de reducción de Gauss-Jordan”. La segunda se responde con la siguiente definición,
mientras que la tercera necesita otras herramientas que se darán más adelante en el texto.
58 Matrices

Definición 2.32 — Matriz Elemental.


Se denomina matriz elemental (de dimensión n) a la matriz obtenida al aplicar una
operación elemental renglón a la matriz identidad de orden n. Es decir:
Una matriz elemental de tipo I es una matriz que se obtiene al intercambiar dos
filas de una matriz identidad.
La matriz elemental de tipo II se obtiene al multiplicar un renglón de la matriz
identidad por un escalar diferente de cero, y por último,
La matriz elemental de tipo III es la que se obtiene al sumar a un renglón un
múltiplo no cero de otro renglón en la matriz identidad.

 Ejemplo 2.35
Las siguientes son ejemplos de matrices elementales (renglón):

Identidad Operación Matriz elemental

   
1 0 0 1 0 0
   
0 1 0
  R2 ↔ R3 0 0 1
 
0 0 1 0 1 0

! !
1 0 4 0
4R1 → R1
0 1 0 1

   
1 0 0 0 1 0 0 0
   
0 1 0 0 0 1 0 2

0 0 1 0
 2R4 + R2 → R2 
0

   0 1 0
0 0 0 1 0 0 0 1


Teorema 2.4
Sea A una matriz cuadrada, Op una operaación elemental y E la matriz elemental
producida por Op. Si A1 es el resultado obtenido al aplicar la operación Op a A,
entonces A1 = EA, en forma de diagrama se tiene que:
2.5 Matriz Inversa 59

Op
AO / A1
O

 
EA /
A A1
Aquí las flechas verticales representan la igualdad de los elementos señalados.

2.5.2 Métodos de reducción de Gauss y de Gauss-Jordan


Existen dos métodos básicos para reducir matrices a formas más “simples”. Ambos
métodos emplean operaciones elementales renglón e indican paso a paso qué operaciones
se deben aplicar en cada caso, dependiendo de las coordenadas de la matriz con la que se
esté operando. Estos métodos se denominan, método de Gauss y método de Gauss-Jordan.
En esta sección se estudiarán ambos métodos.

Definición 2.33 — Forma Escalonada.


Este tipo de matriz se escalonada por filas, o que está en forma escalonada si:
1. Todas las filas cero, están en la parte inferior de la matriz.
2. El primer elemento no nulo (es decir diferente de cero) de cada fila llamado pivote,
está a la derecha del pivote de la fila anterior (esto supone que todos los elementos
debajo del pivote son cero).

Definición 2.34 — Forma Escalonada Reducida.


Esta es una matriz que cumple las condiciones de escalonada y además:
1. Todos los elementos pivotes son iguales a 1.
2. Todos los elementos por encima de los pivotes son nulos.

 Ejemplo 2.36
Esta es una matriz en forma escalonada.
 
0 2 −1
 
 0 0 8 .
 
0 0 0
Matriz en forma escalonada, aunque sin renglones cero:
 
2 3 0
 
 0 −3 0  .
 
0 0 1
60 Matrices

Esta es una matriz en forma escalonada reducida:


 
0 1 0
 
 0 0 1 .
 
0 0 0
Esta matriz está en forma escalonada, además es la identidad:
 
1 0 0
 
 0 1 0 .
 
0 0 1


Como mencionamos anteriormente, existen dos métodos que nos ayudan a convertir
matrices en formas más “simples”, es decir, estos dos métodos convierten matrices a las
formas escalonada o escalonada reducida definidas anteriormente, estos métodos son:
1. Método de Gauss: Convierte la matriz en una escalonada.
2. Método de Gauss-Jordan: Convierte la matriz en una forma escalonada reducida.
Como ya se mostró anteriormente, si podemos convertir a una matriz en forma escalona-
da reducida y además ésta forma coincide con la identidad, entonces la matriz original es
invertible y podemos hallar su inversa por medio de las operaciones realizadas. Por ello los
dos algoritmos listados anteriormente son importantes.
A continuación listamos los pasos del algoritmo de reducción de Gauss para transformar
cualquier matriz a una forma escalonada:

Método 3 — Reducción de Gauss.


El algoritmo de Gauss es un algoritmo iterativo que utiliza en cada iteración un renglón
específico (denominado renglón pivote) para reducir los renglones que se encuentran
debajo de él. Al inicial el proceso se selecciona el primer renglón como el pivote.
1. Elija como renglón pivote al renglón i = 1, y seleccione el elemento pivote de
dicha columna ai j .
2. Si el pivote se encuentra a la derecha de algún elemento diferente de cero de
los renglones inferiores, aplique una operación tipo I para intercambiar dichos
renglones.
3. Obtenga ceros debajo del elemento pivote aplicando operaciones elementales tipo
III.
4. Cambie el renglón pivote al renglón i = 2 y repita los pasos 2 y 3.
5. Repita los pasos seleccionando los diferentes renglones de la matriz como renglo-
nes pivote en cada iteración del algoritmo.
2.5 Matriz Inversa 61

 Ejemplo 2.37
A continuación se muestra un ejemplo de la aplicación del método de Gauss para convertir
a la matriz en una matriz escalonada. Podemos representar el proceso completo en el
siguiente esquema.
   
0 4 −8 2 4 −2
  R1 ↔R2   − 12 R1 +R3 →R3
2 4 −2 − −−−→ 0 4 −8 −
    −−−−−−−→ · · ·
1 6 4 1 6 4

   
2 4 −2 2 4 −2
  −1R2 +R3 →R3  
· · · → 0 4 −8 −−−−−−−−→ 0 4 −8
  
.
1 6 4 0 0 13
Por ocasión especial explicaremos paso a paso el procedimiento empleado para entender
mejor el algoritmo.
1. Empezamos seleccionando como renglón pivote, el renglón 1. De aquí el elemento
pivote (el primer elemento diferente de cero) quedaría en la segunda columna.
 
0 4 −8
 
2 4 −2
 
1 6 4

2. Como el pivote del renglón 1 se encuentra a la derecha del primer elemento


diferente de cero del renglón 2, entonces necesitamos aplicar una operación tipo I
para intercambiar estos dos renglones.
   
0 4 −8 2 4 −2
  R1 ↔R2  
2 4 −2 − −−− → 0 4 −8
   
1 6 4 1 6 4

3. Siguiendo el algoritmo, a continuación debemos convertir en cero los elementos


por debajo del pivote.  
2 4 −2
 
0 4 −8
 
1 6 4
62 Matrices

En este caso a21 = 0, por lo cual únicamente falta convertir al elemento a31 = 1 en
cero, para ello empleamos una operación elemental renglón tipo III.
   
2 4 −2 2 4 −2
  − 21 R1 +R3 →R3  
0 4 −8 −−−−−−−−→  0 4 −8 
   
1 6 4 0 4 5

4. Con esto hemos terminado de tabajar con el renglón 1, por lo cual ahora cambiamos
al renglón 2, el cual será el renglón pivote. Entonces el elemento pivote ahora será
el elemento a2,2 = 4  
2 4 −2
 
 0 4 −8 
 
0 4 5
5. Usaremos a este pivote para convertir en cero al único elemento que se encuentra
debajo de él. Para ello aplicamos una operación tipo III:
   
2 4 −2 2 4 −2
  −1R2 +R3 →R3  
 0 4 −8  − −− −−− −−→  0 4 −8 
   
0 4 5 0 0 13

Con este último paso hemos conseguido llegar a una matriz escalonada
 
2 4 −2
 
 0 4 −8 
 
0 0 13


Para lograr convertir en cero a los elementos que se encuentran debajo de algún pivote
bastará dividir el inverso aditivo del elemento que se quiere eliminar, entre el elemento
pivote que se está empleando. Por ejemplo, supongamos que tenemos una matriz de la
forma:
 
∗ ∗ ∗ ··· ∗
. . .. .. .. 
 .. .. . . .
 
 
∗ · · · a i j ··· ∗
 .. .. .. ..  ,
 
..
. . . . .
 
∗ · · · a ··· ∗
 kj 
∗ ··· ∗ ··· ∗
2.5 Matriz Inversa 63

donde el pivote es ai j y el elemento que deseamos eliminar es el elemento ak j . Entonces la


a
operación que debemos aplicar será − aki jj Ri + R j → R j .

 Ejemplo 2.38
Suponga que en la siguiente matriz, vamos a usar el pivote a11 para eliminar a los
elementos a21 y a31  
−1 −4 −5 −5
 
A=  2 −1 ,
−3 −1 
−5 4 −4 2
de acuerdo con la observación anterior, debemos aplicar las operaciones de la forma
a
− aki jj Ri + R j → R j . Para el elemento a21 , quedaría en la forma − aa21
11
R1 + R2 → R2 .
Sustituyendo los valores:
   
−1 −4 −5 −5 −1 −4 −5 −5
 − 2 R1 +R2 →R2 
 2 −1 −3 −1  −−−1
 
 −−−−−−−→  0 −9 −13 −11  ,
 

−5 4 −4 2 −5 4 −4 2

luego, para el elemento a31 , aplicamos − aa31


11
R1 + R3 → R3 :
   
−1 −4 −5 −5 −1 −4 −5 −5
 − −5 R1 +R3 →R3 
 0 −9 −13 −11  −−−1
 
 −−−−−−−→  0 −9 −13 −11 

 
−5 4 −4 2 0 24 21 27


Es fácil ver que el proceso de conversión de una matriz a una forma escalonada se
puede realizar de diferentes maneras, así por ejemplo, en el caso anterior se puede hacer una
variación en el paso 2 al intercambiar los renglones 1 y 3 de la matriz dada, con lo cual se
obtendría otra matriz diferente, pero también sería escalonada. Es decir, podemos realizar el
siguiente proceso de conversión:
   
0 4 −8 1 6 4
  R1 ↔R3   −2R1 +R2 →R2
 2 4 −2  −−− −→  2 4 −2  −
    −−−−−−−→ · · ·
1 6 4 0 4 −8

   
1 6 4 1 6 4
  48 R2 +R3 →R3  
··· → 
 2 4 −2  −−−−−−−→  0 −8 −10 
  
0 4 −8 0 0 −13
64 Matrices

Y nuevamente obtenemos una matriz en forma escalonada, que es diferente a la obtenida


en el ejemplo anterior. El proceso anterior es válido ya únicamente aplicamos operaciones
elementales renglón válidas, por lo cual podemos afirmar la siguiente proposición.

Proposición 2.5.1
Sea A una matriz, entonces existen diferentes matrices escalonadas que son equivalentes
por filas a la matriz A.

 Ejemplo 2.39
A continuación se muestra otro ejemplo de aplicación del método de Gauss
   
2 −1 −3 2 −1 −3
  −2R1 +R2 →R2   12 R1 +R3 →R3
 4 −2 −6  − − −− −−−−→  0 0 0  −−−−−−−→ · · ·
   
1 1
−1 2 2 −1 2 2

   
2 −1 −3 2 −1 −3
  R2 ↔R3  
··· →  0 0 1 
 0  −−−−→  0 0
 
2 
1
0 0 2 0 0 0

En este caso obtenemos una matriz escalonada que posee un renglón de puros ceros,
el cual necesitamos intercambiar para colocarlo en la parte inferior de la matriz. 

Método 4 — Reducción de Gauss-Jordan.


El algoritmo de Gauss y el de Gauss-Jordan son similares en los primeros pasos, de
hecho podemos pensar que el algoritmo de Gauss representa la mitad del proceso de
reducción de Gauss-Jordan. Los pasos a realizar son los siguientes:
1. Aplicar el algoritmo de Gauss hasta conseguir una matriz escalonada.
2. Aplicar operaciones elementales renglón tipo II para convertir a todos los pivotes
en 1’s.
3. Convertir los elementos por encima de los pivotes en cero usando operaciones
elementales tipo III.

Observe que en el tercer paso del método anterior, no se especifican las operaciones que
se deben emplear, en su lugar se deja abierta la posibilidad de emplear cualquier operación
de tipo III que convenga, sin embargo no es dificil descubrir que las operaciones que
a
debemos aplicar serán de la forma − aki jj Ri + R j → R j , donde el elemento ak j es el que se
encuentra por encima del pivote ai j , y es el elemento que se desea convertir en cero.
2.5 Matriz Inversa 65

 Ejemplo 2.40
Empezamos el proceso de Gauss-Jordan, aplicado a la matriz
 
2 −1 −3
 
A=  4 2 −6 

−1 12 4

Primero aplicamos el proceso de reducción de Gauss


     
2 −1 −3 2 −1 −3 2 −1 −3
  − 24 R1 +R2 →R2   12 R1 +R3 →R3  

 4 2 −6   −− − − −− − −→  0
 4 0  −−−−−−−→  0 4
  0 

1 1 5
−1 2 4 −1 2 4 0 0 2

Ahora, siguiendo el método de Gauss-Jordan, convertimos los pivotes de la matriz en


1’s. Para ello aplicamos operaciones elementales renglón tipo II, si deseamos convertir
en 1 al elemento ai j , bastará con aplicar la operación a1i j Ri → Ri , como se muestra a
continuación:
   
1 3
2 −1 −3 1 − 2 − 2  1
 12 R1 →R1  2 →R2
 −4−R−

 0 4 0  −−−−−→  0 4 0 −−→ · · ·
   
5 5
0 0 2 0 0 2

   
1 − 12 − 32 1 − 21 − 32
  25 R3 →R3  
··· →  0
 1 0  −−−−−→  0
  1 .
0 
5
0 0 2 0 0 1

Posteriormente vamos a usar los pivotes, para eliminar los elementos que se encuen-
tren por encima de ellos, para ello aplicaremos operaciones elementales renglón tipo
III.
Para eliminar al elemento a12 , usamos el pivote del segundorenglón (a22 = 1), con
la operación −a12 R2 + R1 → R1 , que en este caso sería − − 12 R2 + R1 → R1 , o bien,
considerando los signos negativos: 12 R2 + R1 → R1 :
   
1 − 21 − 32 1 0 − 3
2 
  ( 21 )R2 +R1 →R1 
 0 1
 0  −−−−−−−−−→  0 1 0 
 
,
0 0 1 0 0 1
66 Matrices

con esto hemos terminado de usar al pivote a22 , ya que no hay más elementos que
convertir a cero. Ahora tomamos al pivote a33 y lo usamos para convertir en cero
únicamente al elemento a13 (ya que el elemento a23 ya es cero) para ello usaremos la
operación −a13 R3 + R1 → R1 (en este caso nuevamente hay que considerar los signos
negativos):    
3
1 0 −2 1 0 0
  ( 23 )R3 +R1 →R1  
 0 1 0 −
 −−−−−−−−→  0 1 0 
 

0 0 1 0 0 1


En en ejemplo anterior, el proceso completo se podría representar en un solo diagrama


continuo en la forma:
     
2 −1 −3 2 −1 −3 1 2 −1 −3
  −2R1 +R2 →R2   2 R1 +R3 →R3  
4 2 −6  −−−−−−−−→  0 4 0  −−−−−−−→ 0 4 0  → ···
     
1 1 5
−1 2 4 −1 2 4 0 0 2

     
1
1 − 12 − 32 1
1 − 12 − 23 2
1 3
1 −2 −2
2 R1 →R1 4 R2 →R2  5 R3 →R3 
     
−−−−−→ 0
 4 0  −−−−−→ 0
 1 0  −−−−−→ 0 1
 0  → ···
5 5
0 0 2 0 0 2 0 0 1

   
1
1 0 − 23 3
1 0 0
2 R2 +R1 →R1 2 R3 +R1 →R1 
   
−−−−−−−→ 0 1
 0  −−−−−−−→ 0 1 0

.
0 0 1 0 0 1

 Ejemplo 2.41
La ventaja del método de Gauss-Jordan es que nos permite realizar las operaciones en
forma ordenada y sistematizada, sin embargo, el proceso para convertir una matriz a una
forma escalonada reducida, se puede realizar aplicando las operaciones elementales en
diferente orden (siempre y cuando usemos operaciones válidas en los renglones).
A continuación vamos a calcular la forma escalonada reducida de la matriz
 
6 5 −3
 
 2 1 4 .
 
0 8 7

Únicamente mostraremos la cadena de operaciones usadas y los resultados obtenidos:


2.5 Matriz Inversa 67

     
−1 −1
6 5 −3 1 1 5 1 5
 6 R1 →R1  6 2 
−2R1 +R2 →R2 
6 2  −3
2 R2 →R2
−2

2 1 4  −−−−−→ 2 1 4  −−−−−−−−→ 0 5 −−−−−−→ · · ·
 
   3
0 8 7 0 8 7 0 8 7

     
5 −1 5 −1 5 −1
1 6 2  1 6 2  1 1 6 2 
−8R +R →R R3 →R3 
−15  −−−−−−−−→  −15  −−−−−→  −15  → · · ·
 2 3 3
 67
→
0 1 2  0 1 2  0 1 2 
0 8 7 0 0 67 0 0 1

     
23
1 0 4  1 0 0 1 0 0
− 5 R2 +R1 →R1  − 23 R3 +R1 →R1   152 R3 +R2 →R2 
−15  −
1 −15

−−6−−−−−−→  0 1 2 
4
−−−−−−−−→  0 2 
 −−−−−−−−→ 0 1 0 .
 
0 0 1 0 0 1 0 0 1

En este caso, primero se convirtió cada pivote en 1 para convertir en cero a los
elementos por debajo de cada pivote de manera más fácil y por último se convirtieron en
cero a los elemento que quedaban encima de los pivotes.
Todas las operaciones son válidas y al final se logra convertir a la matriz en una
matriz escalonada reducida. 

 Ejemplo 2.42
En los dos ejemplos anteriores, la matriz escalonada reducida que se obtuvo fue la
matriz identidad, sin embargo esto no tiene por que ser siempre cierto. A continuación se
muestra un ejemplo, en el cual la matriz escalonada reducida no es la identidad:
     
2 −1 −3 2 −1 −3 1 2 −1 −3
  −2R1 +R2 →R2   2 R1 +R3 →R3  
 4 −2 −6 − −−−− −− −→ 0 0 0  −−−−−−−→ 0 0 0  → ···
     
−1 12 4 −1 21 4 0 0 5
2

     
2 −1 −3 1 1 − 12 − 32 1 − 1
2 − 3
2
R ↔R3   2 R1 →R1   52 R2 →R2 
−−2−−→ 0 0

5 −
2 
− − − −
→ 0 0

5 −
2 
− − − −
→ 0 0
 1  → ···
0 0 0 0 0 0 0 0 0
68 Matrices

 
3
1 − 21 0
2 R2 +R1 →R1
 
−−−−−−−→ 0
 0 .
1
0 0 0


En el método de Gauss, se mostró que bajo diferente orden de aplicación de las opera-
ciones elementales, se pueden obtener diferentes matrices escalonadas que son equivalentes
con la original. Para el caso de las matrices escalonadas reducidas, esto no ocurre ya que
cada matriz es equivalente por filas a una única matriz escalonada reducida.

Teorema 2.5
Sea A ∈ Mn×m , entonces A tiene una única matriz escalonada reducida que es equivalente
a ella por operaciones elementales renglón.

2.5.3 Cálculo de la Inversa de una Matriz.


Podemos aplicar el algoritmo de Gauss-Jordan para calcular la inversa de una matriz
cuadrada, únicamente necesitamos formar una matriz especial con ayuda de la identidad
con el siguiente procedimiento:
1. Escribir la matriz aumentada (A|I), es decir, colocamos la matriz que se va a invertir,
A, y seguidamente a su derecha colocamos la matriz identidad.
2. Aplicar el método de reducción de Gauss-Jordan para hallar la matriz escalonada
reducida equivalente a la matriz aumentada.
3. Dependiendo de la matriz obtenida, puede ocurrir que:
La matriz A se transformó en la identidad, con lo cual la matriz I a su derecha,
se convirtió en la inversa A−1 , o bien
La matriz A se transformó en una escalonada reducida que no es la identidad
(quedó al menos un renglón cero en la parte inferior de la matriz), con lo cual,
la matriz A no es invertible.
Un resultado que podemos remarcar de lo anterior, consiste en que no todas las matrices
tienen inversa, además, hasta este momento para descubrir si una matriz es o no invertible
debemos aplicar el proceso completo de Gauss-Jordan para hallar la matriz escalonada
reducida asociada a la matriz que deseamos invertir. Esto podría implicar un proceso largo y
con demasiadas operaciones que al final podrían ser inútiles si la matriz es singular. Los
siguientes ejemplos muestra estos casos.
2.5 Matriz Inversa 69

 Ejemplo 2.43
Calcularemos la inversa de la siguiente matriz por medio de algoritmo de Gauss-Jordan:
 
−2 −3 0
 
A=  −3 −3 1 .

4 2 −3
Antes de empezar construimos la matriz aumentada:
 
−2 −3 0 1 0 0
 
 −3 −3 1 0 1 0 
 
4 2 −3 0 0 1

El proceso es como sigue:


   
−2 −3 0 1 0 0 −2 −3 0 1 0 0
  − 32 R1 +R2 →R2  
 −3 −3 1 0 1 0  − − − − −− − −→ 3 3  → ···
 
 0
 2 1 − 2 1 0 
4 2 −3 0 0 1 4 2 −3 0 0 1
 
−2 −3 0 1 0 0
2R1 +R3 →R3   83 R2 +R3 →R3
3
· · · −−− −−−−→   0 2 − 32 1 0 
1  −−−−−−−→ · · ·
0 −4 −3 2 0 1

   
3
−2 −3 0 1 0 0 1 0 2 − 12 0 0
  − 12 R1 →R1  
3 3 3
··· →  0

2 1 − 2 1 0  −−−−−−→  0
  1 2 − 32 1 0  → ···
0 0 − 13 −2 83 1 0 0 − 13 −2 38 1

   
3
2
1 0 2 − 21 0 0 1 0 0 0 3
2 − 12
3 R2 →R2
  −3R3 →R3  
−−−−−→  0 1 23
 −1 2
3
  2
0  −−−−−−→  0 1 3 −1 32
 → ···
0 
0 0 − 13 −2 8
3 1 0 0 1 6 −8 −3
 
1 0 −1 1 −1 0
− 3 R2 +R1 →R1   1R3 +R1 →R1
· · · −−2−−−−−−→   0 1
2
3 −1 2
3  −−−−−−−→ · · ·
0 
0 0 1 6 −8 −3
70 Matrices

   
1 0 0 7 −9 −3 1 0 0 7 −9 −3
  − 32 R3 +R2 →R2  
2 2
· · · →  0 1 3 −1 3
 0  −−−−−−−−→  0 1 0 −5 6
  2 
0 0 1 6 −8 −3 0 0 1 6 −8 −3

Como la matriz original se transformó en la matriz identidad, entonces es invertible,


y su inversa es la matriz que queda en el lado derecho:
 
7 −9 −3
−1
 
A =  −5
 6 2 ,
6 − 8 −3

ya que es fácil comprobar que:


    
7 −9 −3 7 8 3 1 0 0
A−1 A = 
    
−5 6 2   −5 2 −3  = 0 1 0
    
6 − 8 −3 9 0 4 0 0 1

y     
7 8 3 7 −9 −3
1 0 0
AA−1 = 
    
−5 2 −3   −5 6 2  = 0 1 0
    
9 0 4 6 −8 −3 0 0 1


Ahora bien, la inversa de una matriz cuadrada no siempre existe, ya que el proceso ante-
rior está sujeto a la condición de que al aplicar la reducción de Gauss-Jordan, obtengamos
la matriz identidad, lo cual no siempre ocurre.

 Ejemplo 2.44  
−2 −3 0
 
Vamos a intentar calcular la inversa de la matriz A = 
−3 −3 .
1
5 6 −1
 
−2 −3 0 1 0 0
 
 −3 −3
Primero construimos la matriz aumentada:  1  , y le apli-
0 1 0 
5 6 −1 0 0 1
camos el método de Gauss-Jordan:
2.6 El Determinante de una matriz cuadrada. 71

   
−2 −3 0 1 0 0 −2 −3 0 1 0 0
  − 32 R1 +R2 →R2  
 −3 −3 1 0 1 0  −− − − −− − −→ 3 3  → ···
 

 0 2 1 − 2 1 0 
5 6 −1 0 0 1 5 6 −1 0 0 1
 
5
−2 −3 0 1 0 0
R1 +R3 →R3   R2 +R3 →R3
−2−−−−−−→   0
3
2 1 − 32 1 0 
 −−−−−−→ · · ·
0 − 32 −1 52 0 1

   
3 1
−2 −3 0 1 0 0 1 2 0 2 0 0
  − 12 R1 →R1  
3
→
 0 2 1 − 32 1 0 
 −−−−−−→  0
 3
1 − 23 1 0 
2  → ···
0 0 0 1 1 1 0 0 0 1 1 1

   
3 1
2
1 0 0 0 2 2 1 0 −1 2 −1 0
3 R2 →R2
  − 32 R2 +R1 →R1  
−−−−−→  0 1 3 −1 3 0  −−−−−−−−→  0 1 32 −1 23 0 
 2 2  
,
0 0 0 1 1 1 0 0 0 1 1 1

y el proceso ha finalizado por que hemos llegado a la matriz escalonada reducida


 
1 0 −1
 
 0 1 2 ,
 3 
0 0 0

sin embargo, como ésta no es la identidad (por que el último renglón es de puros ceros),
entonces quiere decir que la matriz A no es invertible. 

2.6 El Determinante de una matriz cuadrada.


Uno de los problemas que se pueden observar al momento de calcular la inversa de una
matriz cuadrada por medio de la matriz aumentada mostrada en la sección anterior, es el
hecho de que hasta haber aplicado el algoritmo de Gauss-Jordan podríamos determinar si la
matriz con la cual trabajamos en invertible o no lo es, esto podría implicar un gran número
de operaciones. A continuación desarrollamos una herramienta alterna que nos permite
identificar a las matrices invertibles, denominada el Determinante de la Matriz.
Para ejemplificar la importancia del determinante vamos a calcular la inversa de la
72 Matrices

matriz !
a b
A= ,
c d
en la cual podemos suponer que a 6= 0, ya que si no fuese así, entonces podemos hacer
intercambio de renglones para conseguir que se cumpla la condición anterior.
Entonces, para calcular la inversa de A, vamos a aplicar el método de reducción de
Gauss-Jordan a la matriz aumentada:
!
a b 1 0
.
c d 0 1

Primero convertimos en cero al elemento a21 , con la operación:


c c   
− R1 + R2 → R2 = − a b 1 0 + c d 0 1
a a
   
= −c − bc a − a
c
0 + c d 0 1
 
= 0 b − bc c
a −a 1
,

simbólicamente lo representamos por:


! !
a b 1 0 − c R1 +R2 →R2 a b 1 0
−−a−−−−−−→ → ···
c d 0 1 0 d − bc
a − ac 1
La siguiente operación es:
1 1 
R1 → R1 = a b 1 0
a a
 
= b 1
1 a a 0 ,

el diagrama queda:
! !
1 b 1
a b 1 0 a R1 →R1 1 a a 0
··· → −−−−−→ → ···
0 d − bc
a − ac 1 0 d − bc
a − ac 1
A continuación convertimos al pivote a22 en 1, para ello aplicamos:
1 1  bc c

R2 → R2 = 0 d − a −a 1
d − bc
a d − bc
a
     
d− bc 1 c
 1
= 0 a
bc bc −a bc
d− a d− a d− a
 
c 1
= 0 1 − ,
a(d− bc
a) d− bc
a
2.6 El Determinante de una matriz cuadrada. 73

y en el diagrama tenemos
 
! 1 b 1
b 1 R2 →R2 1 0
1 a a 0 d− bc
a a a
··· → −−−−−−−→  1
 → ···
0 d − bc − ac 1 0 1 − c bc
a a(d− a ) d− bc
a

Por último, convertimos en cero al elemento a12 , aplicando la operación:


b b c 1
  
− R2 + R1 → R1 = − 0 1 − b
+ 1 a a 0 1
a a a(d− bca) d− bc
a

   
b bc −b
= 0 − b
a a2 (d− bc ) a(d− bc ) + 1 a a 0
1
a a

 
= 1 0 bc
+ a1 − b
a2 (d− bc
a) a(d− bc
a)

   
1 b 1
0 − ba R2 +R1 →R1 1 0 bc
+ a1 − b
a a a2 (d− bc ) a(d− bc
a)
··· →  1
 −−−−−−−−→  a .
0 1 − c bc 0 1 − c bc 1
a(d− a ) d− bc
a a(d− a ) d− bc
a

Entonces, la matriz inversa es:


 
bc 1 b
bc + a −
−1  a2 (d− a ) a(d− bca )
A 1
,
− c bc bc
a(d− a ) d− a

Simplificando: ! !
d −b
1 d −b
A−1 = ad−bc
−c
ad−bc
= .
a ad − bc −c a
ad−bc ad−bc
Ahora bien, observando la forma obtenida para la matriz inversa, podemos afirmar que
para que la matriz A ∈ M2×2 tenga inversa, se debe cumplir que ad − bc 6= 0. Es decir,
podemos afirmar que ésta fórmula determina si una matriz de 2 × 2 es o no invertible.

Definición 2.35!
— Determinante de matrices de 2 × 2.
a b
Sea A = ∈ M2×2 , definimos el determinante de A, representado por |A|, o
c d
det(a), como:
a b
det(A) = |A| = = ad − bc

c d
74 Matrices

Teorema 2.6
Sea A ∈ M2×2 , entonces A es invertible sí y sólo sí det(A) 6= 0, además, si A es invertible
entonces: !
−1 1 d −b
A =
det(A) −c a

 Ejemplo 2.45
De las matrices: ! !
−1 3 −1 3
A1 = ; A2 = ,
2 −6 2 6
la matriz A1 no es invertible, mientras que la matriz A2 sí lo es. Para probar esto calcula-
mos el determinante:

−1 3
det(A1 ) = = (−1)(−6) − (2)(3) = 0,

2 −6

y
−1 3
det(A2 ) = = (−1)(6) − (2)(3) = −12.

2 6
Más aún, de acuerdo al teorema anterior, la inversa de A2 se puede calcular como:
! !
1 1
1 6 −3 −
A−1
2 = −12 = 1
2 4
1
.
−2 −1 6 12

Para verificar este último resultado podemos multiplicar:


! ! !
− 21 14 −1 3 1 0
1 1
= .
6 12 2 6 0 1


El teorema anterior únicamente aplica par matrices de 2 × 2, por lo que en general,


deseamos asignar a cada matriz de n×n un escalar, el cual es conocido como el determinante
de la matriz. Es posible definir el determinante de una matriz cuadrada, simplemente
escribiendo la fórmula en términos de los elementos de A. Por ejemplo, a continuación se
muestra cómo calcular el determinante de matrices de 3 × 3.
2.6 El Determinante de una matriz cuadrada. 75

Definición 2.36 — Determinante de matrices de 3 × 3.


Considérese la matriz de 3 × 3:
 
a11 a12 a13
 
A=
 a21 a 22 a 23


a31 a32 a33
Definimos su determinante, de la siguiente manera:

det(A) = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a31 a22 a13 − a32 a23 a11 − a33 a21 a12 .

Existe un método para recordar la fórmula para el cálculo del determinante, denominado
Método de Sarrus. El método consiste en, repetir las dos primeras filas de la matriz,
abajo de la misma, de manera que queden cinco filas. Después sumar los productos de
las diagonales descendentes (en línea azul) y sustraer los productos de las diagonales
ascendentes (en linea roja). Esto resulta en:


 a11 a12 a13


a a a13 a a22 a23
 11 12  21 a11 a22 a33 + a21 a32 a13 + a31 a12 a23
det a21 a22  = a31
a23  a32 a33 =

−a31 a22 a13 − a11 a32 a23 − a21 a12 a33
a31 a32 a33 a
11 a12 a13

a21 a22 a23

Como se puede observar, los factores que aparecen en este desarrollo coinciden con los
del teorema anterior, aunque en diferente orden. Este método es más sencillo de recordar y
de operar y en muchos casos facilita el cálculo del determinante de matrices de 3 × 3.

 Ejemplo 2.46
Calcular el determinante de la matriz
 
2 5 3
 
2 2 −1
 
2 4 2

Aplicando el método de Sarrus:


76 Matrices


2 5 3


2 2 −1
(2)(2)(2) + (2)(4)(3) + (2)(5)(−1)
2 4 2 = = −2


2
−(2)(2)(3) − (2)(4)(−1) − (2)(5)(2)
5 3

2 2 −1

Más adelante volveremos a calcular el determinante usando una definición máss


general y que se puede aplicar a matrices de cualquier dimensión (ver ejemplo 2.50) 

Ahora vamos a construir la definición más general del determinante que se pueda aplicar
a matrices cuadradas de cualquier dimensión. Para ello necesitaremos dos conceptos previos:
permutaciones e inversiones en una permutación.

Definición 2.37 — Permutación.


Sea S = {1, 2, 3, ..., n} el conjunto de enteros de 1 a n, ordenados en forma creciente.
Cualquier reordenamiento de la forma j1 j2 ... jn de los elementos de S se llama una
permutación de S.

 Ejemplo 2.47
Vamos a elaborar la lista de todas las permutaciones de los siguientes conjuntos (el total
se calcula con n!):
Si S = {1, 2}, entonces
S p = {12, 21}
Para el conjunto: {1, 2, 3}, en total son 3! = 3 ∗ 2 ∗ 1 = 6 permutaciones, mostradas
en el conjunto:
S p = {123, 132, 213, 231, 312, 321}
Para el conjunto {1, 2, 3, 4}, hay 4! = 24 permutaciones, listadas a continuación:
 

 1234, 1243, 1324, 1342, 1423, 1432, 


 
 2134, 2143, 2314, 2341, 2431, 2413,  
Sp =


 3124, 3142, 3214, 3412, 3421, 3241,  

 
4123, 4132, 4231, 4213, 4312, 4321
 

Además las permutaciones se pueden definir como funciones, así por ejemplo, para la
permutación 3142 tenemos la función tal que:

f (1) = 3, f (2) = 1, f (3) = 4, f (4) = 2.


2.6 El Determinante de una matriz cuadrada. 77

Denotamos al conjunto de todas las permutaciones de S con el símbolo S p

Definición 2.38
Se dice que una permutación j1 j2 ... jn del conjunto S = {1, 2, ..., n} tiene una inversión
si un entero mayor jr aparece antes de uno menor ji en dicha permutación.
Además, una permutación se denomina par o impar si el número total de inversiones
en ella es par o impar, respectivamente.

 Ejemplo 2.48 La permutación 2134, tiene únicamente una inversión (21), por lo
tanto es impar.
Por otro lado, la permutación 4132 tiene 4 inversiones ((41), (43), (42) y (32)) por
lo tanto es par.


Definición 2.39 — Signo de una Permutación.


Dada una permutación p ∈ S p , definimos el signo de p como:
(
+ Si p es par
Sgn(p) =
− Si p es impar

 Ejemplo 2.49
Vamos a calcular el signo de las permutaciones de 3 elementos:

Permutación Inversiones Signo


123 0/ +
132 (32) −
213 (21) −
231 (21), (31) +
312 (31), (32) +
321 (32), (31), (21) −


Con los elementos dados anteriormente, ya podemos estructurar la definicón general


del determinante de cualquier matriz cuadrada sin importar su dimensión. Sin embargo, la
siguiente definición presenta una desventaja operacional debido a la enorme cantidad de
productos que se deben realizar, puesto que para una matriz cuadrada de orden n × n es
necesario calcular n! productos diferentes.
78 Matrices

Definición 2.40
 — El determinante de una Matriz de n × n.
Sea A = aij una matriz de n × n. Definimos el determinante de A, que se escribe
como det(A) o |A|, como

det(A) = |A| = ∑ Sgn(σ )a1σ (1) · a2σ (2) · · · · · anσ (n)


σ ∈S p

donde la suma varía sobre todas las permutaciones σ ∈ S p consideradas como funciones.

 Ejemplo 2.50
Para ejemplificar el cálculo de determinantes con la definición anterior, vamos a calcular
nuevamente el determinante de la matriz (calculado anteriormente en el ejemplo 2.46):
 
2 5 3
 
2 2 −1
 
2 4 2

De acuerdo con la fórmula del determinante, necesitamos realizar una suma de


elementos de la forma

Sgn(σ )a1σ (1) · a2σ (2) · · · · · anσ (n) ,

para realizar estos cálculos vamos a dividir la fórmula en tres secciones:


En la primera parte, seleccionamos una permutación de la lista (σ ∈ S p ).
En la seguna parte seleccionamos el signo de la permutación (Sgn(σ )).
Por último calculamos el producto de los producto (a1σ (1) · a2σ (2) · · · · · anσ (n) ).
Por ejemplo, si en la sumatoria, seleccionamos la permutación σ = 132, su signo es
(−) y la función asociada a la permutación es:

σ (1) = 1; σ (2) = 3; σ (3) = 2.

Estos valores se obtienen del arreglo de la permutación. Entonces el sumando que


corresponde a la permutación σ en el cálculo del determinante es:

−a1σ (1) a2σ (2) a3σ (3) = a11 a23 a32 ,

luego solo bastará sustituir los elementos correspondientes con los de la matriz, por
ejemplo, como la matriz es:  
2 5 3
 
2 2 −1 ,
 
2 4 2
2.7 La matriz Adjunta. 79

entonces:
a11 = 2; a23 = −1; a32 = 4.
Para el cálculo del Determinante, necesitamos realizar los cálculos anteriores para
cada una de las permutaciones del conjunto {1, 2, 3}. La siguiente tabla muestra todos
los sumandos necesarios:

Permutación Signo Producto Sumando


123 + a11 a22 a33 +(2)(2)(2) = 8
132 − a11 a23 a32 −(2)(−1)(4) = 8
213 − a12 a21 a33 −(5)(2)(2) = −20
231 + a12 a23 a31 +(5)(−1)(2) = −10
312 + a13 a21 a32 +(3)(2)(4) = 24
321 − a13 a22 a31 −(3)(2)(2) = −12
Entonces el determinante es:

det(A) = 8 + 8 − 20 − 10 + 24 − 12 = −2.

2.7 La matriz Adjunta.


Definición 2.41 — El Menor de una matriz.
Sea A una matriz de n × n y sea Mij la matriz de (n − 1) × (n − 1) que se obtiene de A
eliminando el renglón i y la columna j. Mij se llama el menor i, j de A.

 Ejemplo
 2.51 
2 −1 4
 
Sea A = 
 0 1 . Encuentre M13 y M32 .
5 
6 3 −4
Para M13 , eliminamos el renglón 1 y la columna 3:
 
2 −1 4 !
  0 1
M13 =   0 1 5 = 6 3 .
6 3 −4
80 Matrices

Para M32 , se elimina el renglón 3 y la columna 2 :


 
2 −1 4 !
  2 4
M32 =   0 1 5 = 0 5 .
6 3 −4


Definición 2.42 — El Cofactor de una matriz.


Sea A una matriz de n × n. El cofactor i, j de A, denotado por Ai j , está dado por

Ai j = (−1)i+ j Mij


donde Mij es el determinante del menor i j.

 Ejemplo 2.52
Usaremos la matriz A del ejemplo anterior para calcular los cofactores A13 y A32 :
 
2 −1 4
 
A=  0 1 5 ,

6 3 −4

entonces:
!
0 1
A13 = (−1)1+3 |M13 | = (−1)4 det = 1 · (−6) = −6.
6 3
!
2 4
A32 = (−1)3+2 |M32 | = (−1)5 det = (−1)(10) = −10.
0 5


Teorema 2.7 — Cálculo del Determinante por cofactores.


Sea A una matriz de n × n. Entonces el determinante de A, está dado por
n
det(A) = |A| = a11 A11 + a12 A12 + ... + a1n A1n = ∑k=1 a1k A1k ,

donde Ai j representa el cofactor i j de la matriz A. Está fórmula es llamada expansión


por cofactores.
2.7 La matriz Adjunta. 81

 
3 2 9
 
 Ejemplo 2.53 Sea A = 
 4 8 −1  , entonces los cofactores de la primera

3 2 9
fila de la matriz serían:
!
8 −1
A11 = (−1)1+1 |M11 | = (−1)2 det = 1 · (74) = 74.
2 9

!
4 −1
A12 = (−1)1+2 |M12 | = (−1)3 det = (−1) · (39) = −39.
3 9

!
4 8
A13 = (−1)1+3 |M13 | = (−1)4 det = 1 · (−16) = −16.
3 2
Luego entonces de acuerdo con el teorema anterior, el determinante sería:

det(A) = a11 A11 + a12 A12 + a13 A13


= (3) · (74) + (2)(−39) + (9)(−16)
= 222 − 78 − 144
 = 0. 
2 −1 4
 
Sea A = 
 0 1 5   , por cofactores tendríamos:
6 3 −4
!
1 5
A11 = (−1)1+1 |M11 | = (−1)2 = −19

3 −4

!
1+2 3
0 5
A12 = (−1) |M |
12 = (−1) = −(−30) = 30

6 −4

!
1+3 4
0 1
A13 = (−1) |M13 | = (−1) = −6

6 3

Así pues el determinante sería:


82 Matrices

Det(A) = a11 A11 + a12 A12 + a13 A13


= 2(−19) + (−1)(30) + 4(−6)
= −38 − 30 − 24
= −92


El teorema anterior también funciona si se lo aplicamos a cualquier otro renglón diferente


del primero, inclusive funciona si se lo aplicamos a columnas.
Si acomodamos todos los signos que se forman en los cofactores por el elemento
(−1)i+ j , dentro de la matriz con su correspondiente coordenada (i, j), entonces nos quedaría
una matriz como la siguiente:

 
+ − + −
 
 − + − + 
 
 + − + − 
 
− + − +

Este arreglo facilita el cálculo de la adjunta que se define a cotinuación, puesto que evita
tener que estar calculando el factor (−1)i+ j en cada cofactor

Definición 2.43 — Matriz Adjunta.


Sea A una matriz de n × n y sea B la matriz formada por los cofactores de A, es decir
 
A11 A12 ... A1n
 
 A21 A22 .. A2n 
B=  ..

 .. .. .. 

An1 An2 .. Ann

Entonces la adjunta de A, escrito Adj(A), es la transpuesta de la matriz B de n × n.


 
A11 A21 ... An1
 
 A12 A22 .. An2
T

Adj(A) = B = 
 ..

 .. .. .. 

A1n A2n .. Ann

La matriz adjunta se puede usar, como veremos a continuación, para calcular la inversa
de una matriz cuadrada, sin tener que emplear el método de Gauss-Jordan, ni las operaciones
elementales renglón.
2.7 La matriz Adjunta. 83

Teorema 2.8
Sea A una matriz de n × n. Entonces A es invertible si y sólo si det(A) 6= 0. Además si
det(A) 6= 0, la inversa de A está dada por:
1
A−1 = Adj(A).
det(A)

 Ejemplo
 2.54 
2 −1 4
 
Sea A = 
 0 1 5  y calculamos su adjunta:
6 3 −4
A11 = −19; A12 = 30; A13 = −6;
A21 = 8; A22 = −32; A23 = −12;
A31 = −9; A32 = −10; A33 = 2.
Entonces el determinante sería:

det(A) = 1(−32) + 5(−12) = −32 − 60 = −92,

con lo cual la matriz sí es invertible. Luego la matriz de cofactores y la adjunta son:


   
−19 30 −6 −19 8 −9
   
Co f (A) = 
 8 −32 −12  =⇒ Ad j(A) =  30 −32 −10 
  
−9 −10 2 −6 −12 2

Pot último, de acuerdo con el teorema anterior:


   
19 2 9
−19 8 −9 92 − 23 92
1 1 
A−1 =
   
Adj(A) =  15 8 5
30 −32 −10   =  − 46 23

det(A) −92  46 
3 3 1
−6 −12 2 46 23 − 46

3 — Sistemas de Ecuaciones Lineales

Los sistemas de ecuaciones lineales representan relaciones entre variables que se deben
satisfacer simultáneamente. Existen diferentes métodos para hallar las soluciones de estos
sistemas: métodos gráficos, de Gauss con sustitución hacia atrás, de Gauss-Jordan, la regla
de Cramer, entre otros.
Una primera caracteristica de los sistemas de ecuaciones lineales radica en que pueden
ser representados con ayuda de ciertas matrices y estas mismas pueden ser usadas para
resolver los sistemas asociados a ellas, por ello en este capítulo se retomarán algunos
elementos de la teoría de matrices que se estudió en el capítulo anterior. En general, en este
capítulo, se aborda el estudio de estos sistemas, sus propiedades y los métodos de solución.

3.1 Definiciones
Como en cada uno de los capítulos anteriores, empezamos con la definición de los
objetos con los que se trabajará, en este caso nos referimos a los sistemas de ecuaciones
lineales, los cuales están compuestos por ecuaciones lineales.

Definición 3.1 — Ecuación Lineal.


Una ecuación lineal en n incógnitas x1 , x2 , ..., xn es una ecuación de la forma

a1 x1 + a2 x2 + ... + an xn = b

Además el término a la derecha de la igualdad ( b), se denomina el término indepen-


diente de la ecaución.
86 Sistemas de Ecuaciones Lineales

Definición 3.2 — Sistema de Ecuaciones Lineales.


Un sistema de m ecuaciones lineales en n incógnitas (denominado también sistema de
m × n) x1 , . . . , xn es una familia de ecuaciones lineales de la forma:

a11 x1 + a12 x2 + ... + a1n xn = b1

a21 x1 + a22 x2 + ... + a2n xn = b2

..
.

am1 x1 + am2 x2 + · · · + amn xn = bm

Nosotros deseamos determinar si un sistema de esta forma tiene una solución, es decir,
determinar si existen numeros x1 , x2 , ..., xn los cuales satisfagan cada una de las ecuaciones
al mismo tiempo.

 Ejemplo 3.1
La ecuación 2x+y = 3, es un ejemplo de una ecuación lineal que tiene infinitas soluciones
que se pueden calcular con las exresiones: x = t, y = 3 − 2t, donde t puede tomar
cualquier valor, por ejemplo, si t = 3, entonces la pareja x = 3, y = −3 sería solución de
la ecuación, ya que al sustituir tenemos que 2(3) + (−3) = 3.
Por otro lado, el conjunto de ecuaciones:

−5x − y − 5z = 3
4x + y + 2z = 2
−3x − y − 3z = −3

es un sistema de 3 ecuaciones lineales con 3 incógnitas, cuyas soluciones son: x =


−2, y = 12, y z = −1, ya que al sustituir tenemos que las tres ecuaciones se satisfacen:

−5(−2) − (12) − 5(−1) = 3


4(−2) + (12) + 2(−1) = 2
−3(−2) − (12) − 3(−1) = −3


3.1.1 Clasificación de los Sistemas de Ecuaciones Lineales.


Usando como característica diferenciadora la existencia de soluciones podemos identifi-
car inicialmente dos tipos principales de sistemas de ecuaciones lineales: los sistemas que
3.1 Definiciones 87

poseen solución y los que no. A continuación se define la clasificación de estos sistemas.

Definición 3.3 — Sistema de Ecuaciones Lineales Compatibles e Incompatibles.


Un sistema de ecuaciones lineales es consistente (o compatible) si tiene por lo menos
una solución. Un sistema es inconsistente (o incompatible) si carece de solución.
(
Sistemas consistentes (compatibles)
Sistemas de ecuaciones
Sistemas inconsistentes (incompatibles)

 Ejemplo 3.2
El sistema de ecuaciones lineales:

−5x − y − 5z = 3
4x + y + 2z = 2
−3x − y − 3z = −3

es compatible, ya que la terna x = −2, y = 12 y z = −1 es solución del sistema, como


se mostró en el ejemplo anterior.
Por otro lado el sistema:

3x − y + 2z = 2
5x + y − 4z = −7
3x − y + 2z = −3

es incompatible, ya que es imposible que existan valores para las variables x, y y z


que cumplan la primera y la tercera ecuación simultáneamente (observe que ambas
ecuaciones son idénticas excepto por el término independiente). 

A pesar de que se ha dado una clasificación para los sistemas de ecuaciones lineales, es
necesario especificar más a detalle la naturaleza de las soluciones de estos sistemas. En este
sentido hay algunas interrogantes que vale la pena responder al respecto:

¿Cómo verificamos que un sistema de ecuaciones sea compatible o incompatible?


¿Si sabemos que un sistema de ecuaciones lineales tiene al menos una solución, cómo
saber cuántas soluciones tiene en total?
¿Existe un sistema que tenga exactamente una solución?, ¿dos?, ¿n?, ¿infinitas?

A continuación abordaremos la última pregunta de la lista anterior. Mostramos que si un


sistema posee dos soluciones distintas, entonces el sistema debe tener infinitas soluciones.
88 Sistemas de Ecuaciones Lineales

Supongamos que tenemos un sistema de ecuaciones lineales de la forma:

a11 x1 + a12 x2 + ... + a1n xn = b1


a21 x1 + a22 x2 + ... + a2n xn = b2
..
.
am1 x1 + am2 x2 + · · · + amn xn = bm

y supongamos también, que este sistema tiene dos conjuntos diferentes de soluciones:
x1 = c1 , x2 = c2 , · · · , xn = cn , y x1 = d1 , x2 = d2 , · · · , xn = dn Entonces es fácil demostrar
que deben existir infinitas soluciones para el sistema de ecuaciones planteado.
Para encontrar infinitas soluciones del sistema bastará tomar dos valores reales k1 y k2 ,
tales que k1 + k2 = 1, con lo cual los nuevos valores x1 = k1 c1 , x2 = k1 c2 , · · · , xn = k1 cn ,
serán solución del sistema (modificado):

a11 x1 + a12 x2 + ... + a1n xn = k1 b1


a21 x1 + a22 x2 + ... + a2n xn = k1 b2
..
.
am1 x1 + am2 x2 + · · · + amn xn = k1 bm

De igual manera, el conjunto de valores: x1 = k2 d1 , x2 = k2 d2 , · · · , xn = k2 dn , son


solución del sistema de ecuaciones:

a11 x1 + a12 x2 + ... + a1n xn = k2 b1


a21 x1 + a22 x2 + ... + a2n xn = k2 b2
..
.
am1 x1 + am2 x2 + · · · + amn xn = k2 bm

Entonces, al sumar x1 = k1 c1 +k2 d1 , x2 = k1 c1 +k2 d2 , · · · , xn = k1 cn +k2 dn , obtenemos


un conjunto de soluciones del sistema:

a11 x1 + a12 x2 + ... + a1n xn = (k1 + k2 )b1


a21 x1 + a22 x2 + ... + a2n xn = (k1 + k2 )b2
..
.
am1 x1 + am2 x2 + · · · + amn xn = (k1 + k2 )bm ,

pero como k1 + k2 = 1, entonces el sistema anterior es igual al sistema original.


El siguiente ejemplo muestra el desarrollo anterior en un caso particular con un sistema
de ecuaciones que tiene al menos dos conjuntos de soluciones distintas.
3.1 Definiciones 89

 Ejemplo 3.3
El sistema de ecuaciones:

x + 0y + 3z = 5
3x + y + 11z = 13
−2x − 5y − 16z = 0

tiene al menos dos conjuntos de soluciones distintas: (x, y, z) = (−1, −6, 2) y (x, y, z) =
(8, 0, −1) .
Entonces, si tomamos k1 = 12 y k2 = 21 (es claro que k1 + k2 = 1), entonces un nuevo
conjunto de soluciones sería:

1 1 7
 
x = (−1) 2 + (8) 2 = 2
1 1
 
y = (−6) 2 + (0) 2 = −3
1 1
  1
z = (2) 2 + (−1) 2 = 2,

ya que al sustituir:
7 1

2 +0+3 2 =5
7 1
 
3 2 + (−3) + 11 2 = 13
1 1
 
−2 2 − 5(−3) − 16 2 = 0,
Eligiendo nuevos valores para k1 y k2 tales que k1 + k2 = 1, podemos formar nuevas
soluciones del sistema. En conclusión, con dos conjuntos de soluciones diferentes,
podemos formar infinitas soluciones del sistema. 

En general podemos afirmar que la siguiente proposición es válida para sistemas de


ecuaciones lineales.

Proposición 3.1.1
Si un sistema de ecuaciones lineales tiene al menos dos conjuntos de soluciones distintas,
entonces el sistema tiene infinitas soluciones.

Entonces las posibilidades para el número de soluciones de un sistema de ecuaciones


lineales se reduce a tres casos diferentes, en los cuales el sistema puede: no tener solución,
tener sólo una solución o bien tener infinitas soluciones, es decir, no existen sistemas que
tengan, por ejemplo, exactamente cinco soluciones distintas, pues en tal caso dicho sistema
debería tener infinitas soluciones.

Con esta nueva observación, los sistemas de ecuaciones lineales compatibles se puede
subclasificar en dos casos como se muestra a continuacin.
90 Sistemas de Ecuaciones Lineales

Definición 3.4 — Clasificación de los Sistemas de Ecuaciones Lineales.


De acuerdo al número de soluciones que posea un sistema de ecuaciones compatible, lo
podemos clasificar como:
Determinado: si solo poseen una única solución.
Indeterminado: si poseen infinitas soluciones.

Con estas últimas definiciones, nuestra clasificación de los sistemas de ecuaciones


lineales queda de la siguiente manera:
 (
Consistentes Determinados

Sistemas de Ecs. Lin. Indeterminados

Inconsistentes

3.2 Solución de los sistemas de Ecuaciones Lineales.


Ya sabemos que los sistemas de ecuaciones lineales se clasifican con base en el número
de soluciones que posean, pero entonces ¿cómo encontramos dichas soluciones? En esta
sección se presentarán diferentes métodos para determinar las soluciones de estos sistemas.

3.2.1 Interpretación Gráfica de las soluciones


Para cada sistema de ecuaciones lineales podemos observar lo siguiente:
Cada una de las ecuaciones involucradas en un sistema de ecuaciones se puede
“despejar” para así obtener una “función” en término de cierto número de variables.
Dicha función puede ser representada en el hiperespacio Rn . Y las graficas resultante
son conocidas como hiperplanos.
En R2 , las gráficas representan lineas rectas, en R3 , las gráficas representan planos.
Cada uno de los puntos pertenecientes a las correspondientes gráficas se corresponde
con un punto “solución” de la respectiva ecuación.
Podemos conocer el tipo de sistema de ecuaciones lineales con el que trabajamos si
conocemos las gráficas de las ecuaciones lineales con las que trabajamos.
El punto en el que todas las gráficas se intersecten, representará la solución del
sistema.
Con base en las observaciones anteriores podemos distinguir tres casos especiales que se
pueden presentar en los sistemas de 2 ecuaciones con 2 variables (2 × 2) y de 3 ecuaciones
con 3 variables (3 × 3):
Sistema Compatible Determinado.
Las gráficas de las ecuaciones de un sistema compatible determinado se cortan en un
solo punto, por ejemplo, para el sistema:

−3x + 2y = −1
4x − 5y = −8
3.2 Solución de los sistemas de Ecuaciones Lineales. 91

despejando la variable “y” de cada ecuación se forman dos funciones lineales:

y = − −1+3x
2
−8−4x
y= −5

que al graficar se intersectan en el punto (3, 4) (Ver figura 3.1)

1 2 3 4 5 6

Figura 3.1: Gráfica de un Sistema Compatible Determinado de 2 × 2.

Lo cual implica que el sistema tiene una única solución: x = 3 y y = 4.


En el caso de sistemas de 3 ecuaciones lineales con 3 variables tendríamos 3 funciones
lineales que se grafican como planos en el espacio R3 y que se intersectan en un único
punto. Por ejemplo al despejar la variable “z” en el sistema de ecuaciones:

4y − 5z = −12
2x − 2z = −2
4x + y − 2z = 6

obtenemos tres funciones lineales:


−12−4y
z= −5
z = −2−2x
−2
6−4x−y
z = −2

que al graficarse se intersectan en el punto (3, 2, 4) (ver figura 3.2), con lo cual este sistema
tiene una única solución.

Sistema Compatible Indeterminado.


Las gráficas de las ecuaciones de un sistema de ecuaciones lineales compatible inde-
terminado se cortan en infinitos puntos (están sobrepuestas entre sí). Gráficamente, en el
espacio R2 , veríamos dos líneas rectas sobrepuestas, mientras que en el espacio R3 serían
al menos dos planos sobrepuestos o bien una línea en común entre los distintos planos que
se forman con las ecuaciones.
92 Sistemas de Ecuaciones Lineales

Figura 3.2: Gráfica de un sistema compatible determinado de 3 × 3 (los planos de las


ecuaciones del sistema se intersectan en un punto).

Por ejemplo, del sistema:


2x − 6y = 4
−x + 3y = −2
se pueden formar dos funciones lineales al despejar la variable “y” de ambas ecuaciones:
4−2x 2 x
y= −6 = − 3 + 3
−2+x 2 x
y= 3 = −3 + 3

y como ambos despejes dan el mismo resultado, entonces sus gráficas consisten en una
misma línea recta (ver figura 3.3). Esto implica que este sistema tiene infinitas soluciones,
dadas por cada uno de los puntos contenidos en la recta.
Para el caso de los sistemas de ecuaciones lineales compatibles indeterminados con 3
incógnitas, un ejemplo sería el sistema:

2x + 3y + 4z = 3
x − 2y − 2z = −1
3x + y + 2z = 2
ya que al despejar la variable “z” de las ecuaciones se forman las 3 funciones lineales:
3−2x−3y
z= 4
z = −1−x+2y
−2
2−3x−y
z= 2
3.2 Solución de los sistemas de Ecuaciones Lineales. 93
1.0

0.5

-1 1 2 3 4 5

-0.5

-1.0

Figura 3.3: Gráfica de un sistema compatible indeterminado de 2 × 2 (ambas ecuaciones del


sistema forman una misma recta).

y al graficar observamos que los tres planos se intersectan en una línea continua (ver figura
3.4), con lo cual el sistema tiene infinitas soluciones y es indeterminado.

Figura 3.4: Gráfica de un sistema compatible indeterminado de 3 × 3 (los tres planos se


cortan en una recta).

En general, los sistemas de 3 ecuaciones lineales con 3 incógnitas compatibles indeter-


minados, se pueden presentar gráficamente en formas diferentes, por ejemplo, los tres casos
siguientes pertenecen a sistemas indeterminados:
Las 3 ecuaciones del sistema forman un mismo plano.
Dos ecuaciones del sistema forman un mismo plano y la tercera ecuación forma un
plano que corta a los otros dos en una recta.
Las tres ecuaciones forman tres planos que se cortan en una recta en común (como en
el ejemplo anterior).
Cuando un sistema de ecuaciones lineales es compatible indeterminado, generalmente
una de las ecuaciones del sistema se puede representar como una combinación (lineal) de
94 Sistemas de Ecuaciones Lineales

las otras ecuaciones, por ejemplo, en el sistema


2x + 3y + 4z = 3
x − 2y − 2z = −1
3x + y + 2z = 2
la tercera ecuación se puede obtener de la suma de las primeras dos ecuaciones del sistema.
Aunque esta condición nos permite identificar fácilmente los sistemas indeterminados,
no siempre es fácil calcular las combinaciones necesarias para formar a alguna ecuación
particular.
Sistema Incompatible.
Las gráficas de las ecuaciones de un sistema incompatible no se cortan. En R2 , esto
implica que se formarán dos rectas paralelas, mientras que en R3 serán planos paralelos. Para
ejemplificar estos casos, consideremos el sistema de 2 ecuaciones lineales con 2 incógnitas:
3x + 2y = −5
3x + 2y = 6
las gráficas de las 2 rectas que se forman con estas ecuaciones son paralelas entre sí, como
se muestra en la figura 3.5, por lo cual el sistema no tiene solución y se denomina Sistema
Incompatible.
10

-4 -2 2 4

-5

-10

Figura 3.5: Gráfica de un sistema incompatible de 2 × 2 (las ecuaciones del sistema forman
rectas paralelas).

En el caso de sistemas de 3 × 3 incompatibles, la representación gráfica debe tener al


menos dos planos paralelos entre sí, con lo cual los 3 planos nunca se intersectarán en un
punto común y el sistema no tendrá solución. Por ejemplo, las ecuaciones del sistema:
2x + 3y + 4z = 3
2x + 3y + 4z = 6
2x + 3y + 4z = 9
3.2 Solución de los sistemas de Ecuaciones Lineales. 95

gráficamente forman tres planos paralelos entre sí (ver figura 3.6), lo que indica el que el
sistema es incompatible.

Figura 3.6: Gráfica de una sistema incompatible de 3 × 3

3.2.2 Ecuaciones lineales degeneradas


Cuando el sistema posee ecuaciones con más de tres incógnitas es imposible visualizar
gráficamente sus ecuaciones, por lo cual las representaciones gráficas ya no se pueden
emplear para hallar las soluciones de esos sistemas, en su lugar necesitamos desarrollar
procedimientos algebraicos que permitan identificar estas soluciones. Primero empezamos
identificando algunos tipos básicos de ecuaciones lineales.

Definición 3.5 — Ecuación lineal degenerada..


Una ecuación lineal se dice degenerada si tiene la forma

0x1 + 0x2 + · · · + 0xn = b

es decir, si cada coeficiente es igual a cero.

Una ventaja de las ecuaciones lineales degeneradas es que podemos determinar fácil-
mente si tiene o no solución dependiendo del término independiente de la ecuación, como
lo muestra el siguiente ejemplo:

 Ejemplo 3.4
La ecuación 0x + 0y = 3 es degenerada y no tiene solución, ya que no existen valores que
cumplan la igualdad de la ecuación. Por otro lado, la ecuación 0x + 0y + 0z = 0 también
es degenerada pero tiene infinitas soluciones, ya que cualquier valor que se asigne a las
variables satisfacerá la igualdad. 
96 Sistemas de Ecuaciones Lineales

En general podemos afirmar que el siguiente teorema es válido para ecuaciones lineales
degeneradas.

Teorema 3.1
Consideremos una ecuación degenerada

0x1 + 0x2 + ... + 0xn = b.

Si b6= 0, la ecuación no tiene solución.


Si b=0, todo vector u = (k1 , ..., kn ) es una solución.

Si tenemos una ecuación lineal no degenerada, entonces dicha ecuación debe poseer
algúna primera incógnita con coeficiente diferente de cero. Es decir, la primera incógnita de
una ecuación lineal, será la primera con coeficiente no nulo y su posición p en la ecuación
será entonces el menor valor entero de j para el cual a j 6= 0.

Teorema 3.2
Consideremos una ecuación no degenerada a1 x1 + ... + an xn = b con primera incógnita
x p Entonces:
Cualquier conjunto de valores de las incógnitas x j con j6=p dará una solución
particular de la ecuación (las incógnitas x j se llaman variables libres).
Toda solución de la ecuación se obtiene asignando valores arbitrarios a las varia-
bles x j con j 6= p, y expresando el valor de x p en términos de las otras variables.

 Ejemplo 3.5
El teorema anterior nos explica como calcular soluciones de una ecuación no degenerada,
por ejemplo, en la ecuación:
2x − 5y + 7z = 8,
la primera variable no cero es “x”, con coeficiente 2.
En esta ecuación las variables “y” y “z” son variables libres y pueden tomar cualquier
valor para resolver la ecuación planteada. La variable x se puede expresar en términos de
las variables libres en la forma:

x = (8 + 5y − 7z)/2,

con lo cual para obtener una solución de la ecuación, bastará con asignar valores a las
variables “y” y “z” y calcular el valor correspondiente para la variable x, por ejemplo, si
y = 1 y z = 1, entonces con x = (8 + 5(1) − 7(1))/2 = 3 formamos una solución de la
3.3 Método de sustitución hacia atrás 97

ecuación, ya que al sustituir estos valores en la ecuación la satisfacen:

2(3) − 5(1) + 7(1) = 8.

3.3 Método de sustitución hacia atrás


El método de solución de sistemas de ecuaciones lineales denominado método de
sustitución hacia atrás se aplica para sistemas de ecuaciones que tengan una forma triangular,
como se define a continuación, y aunque el método no se puede aplicar de manera directa a
cualquier sistema, sí es posible combinarlo con otros métodos para hallar de manera sencilla
las soluciones de diferentes tipos de sistemas como veremos más adelante.

3.3.1 Forma Triangular y Escalonada

Definición 3.6 — Sistema de Ecuaciones Lineales Tringular.


Un sistema de ecuaciones lineales está en forma triangular si el número de ecuaciones
es igual al número de incógnitas y si xk es la primera incógnita de la k-ésima ecuación.
Por tanto, un sistema de ecuaciones lineales triangular tiene la forma

a11 x1 + a12 x2 + · · · + a1n xn = b1


a22 x2 + · · · + a2n xn = b2
..
.
ann xn = bn

 Ejemplo 3.6
El siguiente sistema de ecuaciones lineales se encuentra en forma triangular:

2x − 4y + 2z + 8w = 2
6y + 0z − 4w = 3
2z − w = −8
w =0
Una ventaja de los sistemas triangulares es que son fáciles de resolver ya que la última
variable se encuentra despejada, y apartir de ahí sustituir en las ecuaciones anteriores
para ir despejando el resto de las vriables en forma regresiva. 
98 Sistemas de Ecuaciones Lineales

Definición 3.7 — Sistema de Euaciones Lineales Escalonada.


Un sistema de ecuaciones está en forma escalonada si ninguna ecuación es degenerada
y la primera incógnita de cada ecuación está a la derecha de la primera incógnita de la
ecuación anterior:
a11 x1 + a12 x2 + ... + a1n xn = b1
a2 j2 x j2 + ... + a2n xn = b2
..
.
arjr xr + ... + arn xn = bn

Es fácil ver que un sistema triangular también se encuentra en forma escalonada.Por


otro lado, si un sistema está escrito en forma escalonada y tiene menos ecuaciones que
incógnitas, entonces podemos afirmar que dicho sistema no puede tener una solución única,
es decir, el sistema no será determinado. Aunque no podemos afirmar de qué tipos será
dicho sistema (incompatible o indeterminado). Por ejemplo si el sistema tiene 3 incógnitas
pero solo 2 ecuaciones y el sistema es compatible, entonces las gráficas se podrían ver como
en la figura 3.7, y como se puede observar, las soluciones están dadas por la línea que se
forma en la intersección de los planos, por lo cual el sistema no tiene solución única. Por
otro lado, si el sistema tiene 3 incógnitas y 2 ecuaciones pero es incompatible, entonces su
gráfica serían dos planos paralelos entre sí.

10
5
0
-5
-10

-50

-10
-5
0
5
10

Figura 3.7: Gráfica de un sistema de 2 ecuaciones lineales con 3 incógnitas.

En general, el siguiente teorema resume la situación anterior y nos permitirá identificar


los diferentes tipos de sistemas de ecuaciones lineales.
3.3 Método de sustitución hacia atrás 99

Teorema 3.3
Consideremos el sistema de “r” ecuaciones lineales con “n” incógnitas, en forma
escalonada. Existen dos casos:
r = n: Hay tantas ecuaciones como incógnitas. Entonces el sistema tiene solución
única.
r < n: Hay menos ecuaciones que incógnitas. Entonces podemos asignar arbitra-
riamente valores a las n-r variables libres y obtener una solución del sistema.

 Ejemplo 3.7
El sistema de ecuaciones lineales:

x1 + 2x2 + 2x3 − x4 = 1
x2 + x3 + x4 = −1
−x3 − 2x4 = −2

cuenta con 3 ecuaciones y 4 incógnitas (x1 , x2 , x3 , x4 ), con lo cual el sistema será


compatible indeterminado con una variable libre (la cual puede ser x4 ).
Por otro lado, el sistema:

x1 + 2x2 + 5x3 + x4 = 1
2x2 + x3 + x4 = −1
−x3 − 2x4 = −2
4x4 = 8

es un sistema compatible determinado, ya que cuenta con el mismo número de ecuaciones


que de incógnitas. Para hallar las soluciones de este sistema podemos aplicar el método
denominado sustitución hacia atrás que se explica en la siguiente sección. 

3.3.2 Forma Escalonada Reducida


El sistema de ecuaciones lineales más sencillo de resolver, es el sistema en forma
escalonada reducida:

Definición 3.8 — Sistema de Ecuaciones Lineales en forma escalonada reduci-


da.
Un sistema se encuentra en la forma escalonada reducida por renglones si se cumplen
las siguientes condiciones:
Todos las ecuaciones degeneradas aparecen en la parte inferior del sistema.
El primer número diferente de cero en cualquier renglón no degenerado es 1.
100 Sistemas de Ecuaciones Lineales

Si dos renglones sucesivos tienen elementos distintos de cero, entones el primer 1


del renglón de abajo está a la derecha del primer 1 del renglon de arriba.
Cualquier columna que contiene el primer 1 en un renglón tiene 0 en el resto de
sus elementos.

 Ejemplo 3.8
Los sistemas de ecuaciones lineales en forma escalonada reducida, son tan sencillos, que
ya se encuentran resueltos. Por ejemplo, el siguiente es un sistema escalonado reducido:

x +0y +0z = 2
0x +y +0z = −1
0x +0y +z 4

Generalmente las variables con coeficiente 0, no se escriben en el sistema, sin


embargo en este ejemplo si aparecen para mostrar la estructura del sistema escalonado
reducido. 

3.3.3 Método de sustitución hacia atrás


Partiendo de un sistema escalonado podemos despejar las incógnitas usando el método
de sustitución hacia atrás. Suponga que partimos de un sistema de n ecuaciones escalonado
con n incógnitas de la forma:

a11 x1 + a12 x2 + a13 x3 + ... + a1n xn = b1


a22 x2 + a23 x3 + ... + a2n xn = b2
a33 x3 + ... + a3n xn = b3
..
.
ann xn = bn

del cual podemos despejar:


bn
xn = ,
ann
luego este resultado se puede sustituir hacia atrás en la (n-1)-ésima ecuación para despejar
xn−1 :
a(n−1)(n−1) xn−1 + a(n−1)n xn = bn−1

bn−1 − a(n−1)n xn
⇒ xn−1 = .
a(n−1)(n−1)
Para despejar xn−2 tenemos la ecuación:

a(n−2)(n−2) xn−2 + a(n−2)(n−1) xn−1 + a(n−2)n xn = bn−2 ,


3.3 Método de sustitución hacia atrás 101

con lo cual:

bn−2 − a(n−2)(n−1) xn−1 − a(n−2)n xn


xn−2 =
a(n−2)(n−2)

En general el procedimiento se repite para evaluar las variables restantes mediante la


fórmula:

n
bi − ∑ ai j x j
j=i+1
xi = ,
aii
para i = n − 1, n − 2, . . . , 1.
El teorema 3.3 indica cómo identificar los sistemas determinados e indeterminados
cuando el sistema se encuentra en forma escalonada y además es útil para resolver estos
sistemas aplicando el método de sustitución. El proceso anterior puede parecer complicado,
sin embargo es relativamente sencillo cuando se aplica en casos específicos. A continuación
mostramos algunos ejemplos de esto:

 Ejemplo 3.9
El sistema:
2x + 5y + 3z = 18
3y + 2z = 6
5z = 0
es determinado, ya que el número de ecuaciones (3) es igual al número de incógnitas del
sistema (3). Ahora bien, las soluciones del sistema se encuentran aplicando el método de
sustitución hacia atrás. Empezamos despejando la variable “z”:
0
5z = 0 ⇒ z = ⇒ z = 0,
5
luego usamos este valor en la segunda ecuación para despejar el valor de “y”:
6
3y + 2z = 6 ⇒ 3y + 2(0) = 6 ⇒ y = = 2,
3
y por último sustituimos los valores de “y” y “z” en la primera ecuación para despejar el
valor de “x”:

2x + 5y + 3z = 18 ⇒ 2x + 5(2) + 3(0) = 18 ⇒ 2x = 18 − 10 ⇒ x = 4.


102 Sistemas de Ecuaciones Lineales

 Ejemplo 3.10
Retomando los sistemas planteados en el ejemplo 3.7.
Primero resolvemos el sistema:

x1 + 2x2 + 5x3 + x4 = 1
2x2 + x3 + x4 = −1
−x3 − 2x4 = −2
4x4 = 8

Empezamos despejando la variable x4 de la cuarta ecuación:

4x4 = 8 ⇒ x4 = 2,

luego sustituimos este valor en la tercera ecuación, para hallar el valor de x3 :

−x3 − 2x4 = −2 ⇒ −x3 − 2(2) = −2 ⇒ x3 = −2,

repetimos el proceso en la segunda ecuación del sistema:


1
2x2 + x3 + x4 = −1 ⇒ 2x2 + (−2) + (2) = −1 ⇒ x2 = −
2
y por último hallamos el valor de x1 , en la primera ecuación:
 
1
x1 + 2x2 + 5x3 + x4 = 1 ⇒ x1 + 2 − + 5(−2) + (2) = 1 ⇒ x1 = 10.
2


 Ejemplo 3.11
El sistema que falta por resolver del ejemplo 3.7 es:

x1 + 2x2 + 2x3 − x4 = 1
x2 + x3 + x4 = −1
−x3 − 2x4 = −2

el cual es compatible indeterminado. Aplicando el método de sustitución hacia atrás


podemos hallar las expresiones que definen a las infinitas soluciones del sistema.
Para hallar el valor de x3 en la tercera ecuación de este sistema:

−x3 − 2x4 = −2,


3.4 Métodos de reduccción de Gauss y Gauss-Jordan 103

necesitamos tomar como variable libre a la incógnita x4 y despejar la variable x3 en


términos de ésta:
−x3 − 2x4 = −2 ⇒ x3 = 2 − 2x4 ,
luego usamos esta expresión para susituir en la segunda ecuación y hallar el valor de x2 :

x2 + x3 + x4 = −1 ⇒ x2 + (2 − 2x4 ) + x4 = −1 ⇒ x2 = −3 + x4 ,

y por último determinamos el valor de x1 usando la primera ecuación:

x1 + 2x2 + 2x3 − x4 = 1 ⇒ x1 + 2(−3 + x4 ) + 2(2 − 2x4 ) − x4 = 1 ⇒ x1 = 3 + 3x4 .

Entonces las infinitas soluciones del sistema se pueden hallar por medio de:

x1 = 3 + 3t
x2 = −3 + t
x3 = 2 − 2t
x4 = t

donde x4 = t indica que ésta es una variable libre, es decir, puede tomar cualquier valor,
mientras que el resto de las incógnitas serán determinadas con base en el valor dado a x4 .
Así por ejemplo, si x4 = 0, entonces x1 = 3, x2 = −3 y x3 = 2 forman una solución del
sistema, ya que al sustituir todas las ecuaciones del sistema se cumplen:

x1 + 2x2 + 2x3 − x4 = 1 ⇒ (3) + 2(−3) + 2(2) − (0) = 1


x2 + x3 + x4 = −1 ⇒ (−3) + (2) + (0) = −1
−x3 − 2x4 = −2 ⇒ −(2) − 2(0) = −2


3.4 Métodos de reduccción de Gauss y Gauss-Jordan


Al igual que con las matrices, en los sistemas de ecuaciones lineales es posible aplciar
operaciones elementales con las ecuaciones que conforman a un sistema, dichas operaciones
se pueden aplicar para producir sistemas que sean más “sencillos” de resolver sin perder
información sobre el sistema original que se deseaba solucionar.

3.4.1 Sistemas equivalentes


Una ventaja de las operaciones elementales que aplicaremos a las ecuaciones lineales de
un sistema, es que éstas operaciones producen sistemas que se denominan equivalentes, los
cuales se definen a continuación.
104 Sistemas de Ecuaciones Lineales

Definición 3.9 — Sistemas de Ecuaciones Lineales Equivalentes.


Se dice que dos sistemas de ecuaciones lineales con las mismas incógnitas son equiva-
lentes si tienen el mismo conjunto solución.

 Ejemplo 3.12
Los siguientes sistemas de ecuaciones lineales son equivalentes:

4x + 2y = −2 4x − y = −11
y
0x + 3y = 9 −4x + 2y = 14

Para demostrar esta afirmación graficamos las ecuaciones de ambos sistemas (ver
figura 3.8) y podemos ver que en ambos casos las rectas se intersectan en el punto (−2, 3)
con lo cual los sistemas son equivalentes. 

Figura 3.8: Gráfica de dos sistemas equivalentes (ambos sistemas tienen solución en el
punto (-2,3)).

Comprobar que dos sistemas de ecuaciones lineales sean equivalentes es un proceso que
puede resultar complicado, sin embargo existe una forma de producir sistemas que sean
equivalentes a un sistema de ecuaciones dado, para ello podemos efectuar una sucesión de
las siguientes operaciones elementales, sobre las ecuaciones E1 , E2 , . . . , Em del sistema
inicial.

Definición 3.10 — Operaciones elementales sobre sistemas de ecuaciones li-


neales.
Definimos 3 tipos de operaciones elementales para los sistemas de ecuaciones lineales:
Intercambiar las ecuaciones i-ésima y j-ésima: Ei → E j del sistema (Operación
de tipo I).
Multiplicar la ecuación i-ésima por un escalar no nulo k: KEi → Ei , k 6= 0.
(Operación de Tipo II). 
Sustituir la ecuación i-ésima por ella misma más k veces la j-ésima: kE j + Ei →
Ei . (Operación de Tipo III).
3.4 Métodos de reduccción de Gauss y Gauss-Jordan 105

 Ejemplo 3.13
Vamos a generar 3 sistemas de ecuaciones equivalentes al sistema:

9x − 2y + 4z + 2w = 19
−4x + y − 2z = −6
2x + z = 2
4x − y + 2z + w = 9

el cual es un sistema compatible determinado, con solución x = 1, y = −2, z = 0, w = 3.


Para generar los sistemas equivalentes se aplicarán operaciones elementales en forma
sucesiva, de tal manera que cada nuevo resultado será equivalente al sistema original.
Para simplificar la aplicación de las operaciones, usaremos una simbología similar a la
de las operaciones elementales renglón en matrices, con el símbolo Ei representando
la i-ésima ecuación del sistema
La sucesión de operaciones y sus resultados se muestran en el siguiente diagrama:

9x −2y +4z +2w = 19 9x −2y +4z +2w = 19


−4x +y −2z = −6 E +E →E
2 −4x +y −2z = −6
−− −−4−−→
4

2x +z =2 2x +z =2
4x −y +2z +w =9 w =3

9x −2y +4z +2w = 19


2E +E →E
3 y = −2 2E +E →E
−−− −−2−−→
2 2
−−− −−1−−→
1

2x +z =2
w =3

9x +4z +2w = 15 9x +4z +2w = 15


y = −2 − 2 E1 +E3 →E3 y = −2
−−9−−−−−−→ 1
2x +z =2 9z − 49 w = − 43
w =3 w =3

El lector puede verificar, sustituyendo, que cada uno de los cinco sistemas de ecua-
ciones lineales generados tiene como solución x = 1, y = −2, z = 0, w = 3.
Entonces, los cinco sistemas generados son equivalentes al sistema original, sin
embargo el último sistema es el más sencillo de todos, ya que ahí ya se conocer las
variables “w” e “y”, con lo cual es fácil encontrar todas las soluciones del sistema. 
106 Sistemas de Ecuaciones Lineales

Nota Estas operaciones elementales son equivalentes a las operaciones elementales renglón
en matrices y nos sirven para formar sistemas equivalentes que sean más fáciles de
resolver. En particular nos interesan 2 tipos de sistemas: los sistemas escalonados y los
escalonados reducidos. Estos sistemas se obtendrán con los métodos de reducción de
Gauss y de Gauss-Jordan aplicados en los sistemas de ecuaciones lineales.

Representación Matricial de los sistemas de ecuaciones lineales

Definición 3.11 — Matriz de Coeficientes de un sistema de ecuaciones lineales.


La matriz asociada a un sistema de ecuaciones lineales es la matriz que se forma al
acomodar los coeficientes de todas las variables involucradas en las ecuaciones lineales,
poniendo cero en aquella variables que no aparezcan en una ecuación.
De la misma manera formamos la matriz aumentada, usando la matriz de coeficientes
y añadiéndole una columna al final, la cual se toma de los términos independientes del
sistema.

 Ejemplo 3.14
El sistema dado por:
c1 + c2 + c3 = 0
−3c1 + 2c2 − c3 = 0
9c1 + 4c2 + c3 = 1
tiene como matriz de coeficientes a la matriz:
 
1 1 1
 
 −3 2 −1 
 
9 4 1

y la matriz aumentada:  
1 1 1 0
 
 −3 2 −1 0 
 
9 4 1 1
. 

Esta matriz de coeficientes (y la aumentada) nos permite representar a los sistemas


de ecuaciones lineales como una multiplicación de matrices (a la cual se le llama la
representación matricial del sistema):
    
c1 + c2 + c3 = 0 1 1 1 c1 0
    
−3c1 + 2c2 − c3 = 0 =⇒   −3 2 −1   c2  =  0 
   
9c1 + 4c2 + c3 = 1 9 4 1 c3 1
3.4 Métodos de reduccción de Gauss y Gauss-Jordan 107

Esta representación matricial se puede representar como un producto de la forma A·x = b


donde A es la matriz de coeficientes, x es llamado vector de incógnitas y b es el vector de
términos independientes. En este producto, los símbolos usados para las incógnitas no son
relevantes, esto es importante ya que entonces dos sistemas con los mismos coeficientes y
términos independientes serán iguales aunque estén expresados con diferentes incógnitas,
así por ejemplo, los sistemas:

2x + 3y = 5 2a + 3b = 5
y
4x − 5y = −3 4a − 5b = −3

representan el mismo sistema y tienen las mismas soluciones.

Proposición 3.4.1 — Representación Matricial de los Sistemas de Ecuaciones


Lineales.
Todo sistema de m ecuaciones lineales con n incógnitas de la forma:

a11 x1 + a12 x2 + · · · + a1n xn = b1


a21 x1 + a22 x2 + · · · + a2n xn = b2
..
.
am1 x1 + am2 x2 + · · · + amn xn = bm

se puede representar en forma matricial como


    
a11 a12 . . . a1n x1 b1
    
 21 a22 . . . a2n  
 a  x2   b2 
= ,
  
 . .. . . ..  .. ..
 ..

 . . . 
 .  
  . 

am1 am2 ... amn xn vm
donde  
a a12 . . . a1n
 11 
 21 a22 . . . a2n
 a 
A= .

 .. .. . . .
. ..

 . 

am1 am2 ... amn
108 Sistemas de Ecuaciones Lineales

es la matriz de coeficientes,  
x1
 
 x2 
X =
 
.. 

 . 

xn
 
b1
 
 b2 
es el vector de incógnitas, y b =   es el vector de términos independientes.
 
..

 . 

vm

 Ejemplo 3.15
Vamos a retomar el sistema de ecuaciones lineales del ejemplo 3.13:

9x − 2y + 4z + 2w = 19
−4x + y − 2z = −6
2x + z = 2
4x − y + 2z + w = 9

su representación matricial sería:


    
9 −2 4 2 x 19
    
−4 1 −2 0  y  −6
   =  
2 0 1 0 z  2 
    
4 −1 2 1 w 9

y en particular, su matriz aumentada sería:


 
9 −2 4 2 19
 
−4 1 −2 0 −6
 
2 0 1 0 2
 
4 −1 2 1 9

Ahora bien, anteriormente se resolvió este sistema aplicando operaciones elementales


sobre las ecuaciones. Estas mismas operaciones se pueden aplicar a los renglones de
3.4 Métodos de reduccción de Gauss y Gauss-Jordan 109

la matriz aumentada y obtendríamos una matriz equivalente al sistema obtenido en el


ejemplo 3.13. 

3.4.2 Método de Gauss en sistemas de ecuaciones lineales


En este punto hemos desarrollado diferentes herramientas que nos permitirán hallar las
soluciones de los sistemas de ecuaciones lineales, algunos puntos que debemos considerar
al respecto son:
Ya que tenemos la representación matricial de los sistemas de ecuaciones lineales
y en particular la matriz aumentada de los sistemas, podemos aplicar los métodos
de reducción de Gauss y de Gauss-Jordan sobre estas matrices (aumentadas) para
convertirlas en matrices escalonadas o escalonadas reducidas.
Los métodos de reducción de Gauss y de Gauss-Jordan aplican operaciones elementa-
les, esto implica que las matrices obtenidas con estos métodos formarán sistemas de
ecuaciones escalonados o escalonados reducidos, que además serán equivalentes al
sistema original.
La ventaja de los sistemas escalonados es que se pueden resolver aplicando el método
de sustitución hacia atrás, mientras que los sistemas escalonados reducidos ya se
encuentran práctimente resueltos, aunque requieren más operaciones.
Entonces para resolver un sistema de ecuaciones, podemos realizar el siguiente procedi-
miento:

Definición 3.12 — Método de solución de Sistemas de Ecuaciones Lineales con


el Método de Reducción de Gauss.
A continuación listamos los pasos para resolver un Sistema de Ecuaciones Lineales
empleando el método de reducción de Gauss:
1. Definir la matriz aumentada del sistema [A|b].
2. Aplicar el método de reducción de Gauss (visto en el capítulo 2) para hallar una
matriz escalonada equivalente por filas a la matriz aumentada.
3. Hallar el sistema de ecuaciones que corresponde a la matriz escalonada obtenida
en el paso anterior.
4. Resolver el sistema escalonado del paso anterior, aplicando el método de sustitu-
ción hacia atrás.

 Ejemplo 3.16
El sistema de ecuaciones es...

2x + 4y + 6z = 8
4x + 5y + 6z = 10
3x + 7y + 6z = 11

Empezamos el proceso de reducción de Gauss con ayuda de la matriz aumentada del


110 Sistemas de Ecuaciones Lineales

sistema:  
2 4 6 8
 
4 5 6 10
 
3 7 6 11
A continuación mostramos la cadena de operaciones aplicadas:
     
2 4 6 8 1 2 3 4 1 2 3 4
 1 1 →R1 
4 5 6 10 −2−R−
  −4R1 +R2 →R2  
  −−→ 4 5 6 10 −−−−−−−−→ 0 −3 −6 −6
  
 → ···
3 7 6 11 3 7 6 11 3 7 6 11
   
1 2 3 4 1 2 3 4
−3R1 +R3 →R3   − 31 R2 →R2   −R2 +R3 →R3
· · · −−−− −−−−→   0 −3 −6 −6 −−−−−−→ 0 1
  2 2 −−−−−−−→ · · ·
0 1 −3 −1 0 1 −3 −1
   
1 2 3 4 1 2 3 4
  − 15 R3 →R3  
··· → 
0 1 2 2 −−−−−−→ 0
 1 2 2
3
0 0 −5 −3 0 0 1 5
Esta última matriz corresponde al sistema de ecuaciones lineales escalonado:

x + 2y + 3z = 4
y + 2z = 2
3
z = 5

y por último resolvermos el sistema, aplicando sustitución hacia atrás, empezamos con la
tercera ecuación:
3
z= ,
5
sustituimos en la segunda ecuación:
 
3 4
y + 2z = 2 ⇒ y + 2 =2⇒y= ,
5 5

por último sustituimos en la primera ecuación para hallar el valor de x :


   
4 3 3
x + 2y + 3z = 4 ⇒ x + 2 +3 =4⇒x= .
5 5 5
3.4 Métodos de reduccción de Gauss y Gauss-Jordan 111

Entonces, la solución del sistema es:


3 4 3
x= ; y= ; z= .
5 5 5


3.4.3 Método de Gauss-Jordan en sistemas de ecuaciones lineales


El método de Gauss-Jordan convierte la matriz en una matriz en forma escalonada
reducida, la ventaja de esto es que el sistema escalonado reducido equivalente a estas
matrices ya se encuentra resuleto. Para resolver sistemas de ecuaciones lineales usando el
método de reducción de Gauss-Jordan, seguimos el siguiente procedimiento:

Definición 3.13 — Método de solución de Sistemas de Ecuaciones Lineales con


el Método de Reducción de Gauss-Jordan.
Para resolver un sistema de ecuaciones lineales, usando el método de Gauss-Jordan:
Escribir la matriz aumentada del sistema.
Aplicar el método de Gauss-Jordan a la matriz aumentada, para hallar la matriz
escalonada reducida equivalente a la matriz original.
Escribir el sistema de ecuaciones que corresponde a la matriz obtenida en el paso
anterior e identificar las soluciones del sistema original.

 Ejemplo 3.17
Vamos a resolver nuevamente el sistema planteado en el ejemplo 3.16:

2x + 4y + 6z = 8
4x + 5y + 6z = 10
3x + 7y + 6z = 11

Empezamos, nuevamente con la matriz aumentada:


 
2 4 6 8
 
4 5 6 10
 
3 7 6 11

y como en el ejemplo 3.16 ya habíamos encontrado la matriz escalonada, vamos a iniciar


112 Sistemas de Ecuaciones Lineales

desde ese punto:


     
2 4 6 8 1 2 3 4 1 0 −1 0
  aplicando Gauss   −2R2 +R1 →R1  
4 5 6 10 − − − − −− − −−→ 0 1 2 2  −− −− −− − −→ 0 1 2 2  → · · ·
     
3 3
3 7 6 11 0 0 1 5 0 0 1 5

   
1 0 0 53 1 0 0 3
5
R3 +R1 →R1   −2R3 +R2 →R2 
4
· · · −−−−−−→  0 1 2 2  −−−−−−−−→ 0 1 0
 
5
0 0 1 35 0 0 1 3
5

luego el sistema correspondiente a la matriz obtenida después de aplicar el método de


Gauss-Jordan es:
x +0y +0z = 3/5
0x +y +0z = 4/5
0x +0y +z = 3/5
Como podemos ver, las soluciones coinciden con las obtenidas en el ejemplo 3.16. 

3.5 Método de la Regla de Cramer


Con base en la representación matricial de un sistema de n ecuaciones lineales con n
incógnitas, de la forma:
AX = b,

donde:
     
a a · · · a1n x b1
 11 12   1  
a
 21 a22 · · · a2n  x 
 2
 b2 
A= . , x =  . , y b= ,
  
 .. .. . . . ..   ..  ..
 . .   

 . 

an1 an2 · · · ann xn bn

podemos definir n nuevas matrices de la forma:


 
b1 a12 · · · a1n
 
 b2 a22 · · · a2n 
Ax1 = 
 
.. .. . . .. 

 . . . .  
bn an2 · · · ann
3.5 Método de la Regla de Cramer 113
 
a b · · · a1n
 11 1 
a
 21 b2 · · · a2n 
Ax2 =  .

 .. .. .. .. 
 . . .  
an1 bn · · · ann
..
.
 
a11 a12 · · · b1
 
 a21 a22 · · · b2 
Axn =  ,
 
.. .. . . .. 

 . . . .  
an1 an2 · · · bn
donde la matriz Axk se forma reemplazando en A, la columna correspondiente a la variable
xk por el vector de términos independientes b del sistema para k = 1, 2, . . . , xd .
Con ayuda de estas matrices podemos definir un nuevo método de resolución de los
sistemas de ecuaciones lineales.

Teorema 3.4 — Regla de Cramer.


Sea AX = b, un sistema de ecuaciones lineales representado en forma matricial, donde:
     
a11 a12 · · · a1n x1 b
     1
 21 a22 · · · a2n 
a  x  b 
 2  2
A= . . . . , x = . , y b =  . ,
 .. .. . . ..   ..   .. 
  
     
an1 an2 · · · ann xn bn

si det(A) 6= 0, entonces la solución única al sistema está dada por:

det(Ax1 ) det(Ax2 ) det(Axn )


x1 = , x2 = , . . . , xn = .
det(A) det(A) det(A)

 Ejemplo 3.18
Resolver el sistema de ecuaciones lineales:

x −3y =0
x −5y −4z = 2 .
5x −y +4z = −2
114 Sistemas de Ecuaciones Lineales

Primero escribimos la representación matricial del sistema:

A X b
x −3y =0
     
1 −3 0 x 0
x −5y −4z = 2 →  
1 −5 −4
  
y =  2

,
5x −y +4z = −2      
5 −1 4 z −2

y como det(A) = 48 6= 0, entonces el sistema es compatible determinado. Luego calcula-


mos las matrices auxiliares para la aplicación de la Regla de Cramer:
     
0 −3 0 1 0 0 1 −3 0
     
Ax = 
 2 −5 −4  ; Ay = 1 2 −4 ; Az =  1 −5 2  ,
    
−2 −1 4 5 −2 4 5 −1 −2

con lo cual:
det(Ax ) = 0; det(Ay ) = 0; det(Az ) = −24,
entonces, aplicando la regla de Cramer:
0 0 −24 1
x= = 0; y= = 0; z= =− .
48 48 48 2
obtenemos las soluciones del sistema. 

3.6 Método de la Matriz Inversa


La representación matricial facilita el cálculo de las soluciones de un sistema de ecua-
ciones lineales por medio del cálculo de la inversa de la matriz de coeficientes, así, si el
sistema que deseamos resolver es de la forma AX = b, donde A ∈ Mn×n , con det(A) 6= 0,
entonces podemos usar la inversa de A para multiplicar al sistema y simplificarlo:

AX = b
⇒ A−1 (AX) = A−1 b
⇒ (A−1 A)X = A−1 b
⇒ IX = A−1 b
⇒ X = A−1 b

donde I es la matriz identidad de n × n. Entonces la solución del sistema está dado por el
producto A−1 b.
3.6 Método de la Matriz Inversa 115

 Ejemplo 3.19
Resolver el sistema de ecuaciones:

7x −9y −3z = 2
−5x +6y +2z = −4
6x −8y −3z = 5

Primero escribir la representación matricial del sistema:

X Ab
7x −9y −3z = 2 
    
7 −9 −3 x 2
−5x +6y +2z = −4 →      
 y = −4
−5 6 2    
6x −8y −3z = 5 
6 −8 −3 z 5

Luego calculamos la inversa de la matriz de coeficientes A (esta matriz ya se trabajó


anteriormente en el ejemplo 2.43, donde el lector puede revisar los cálculos realizados):
 
−2 −3 0
A−1 = 
 
 −3 −3 1 

4 2 −3

Multiplicamos el sistema de ecuaciones por la matriz inversa:

  A−1
 AX  = A−1
 b  
−2 −3 0 7 −9 −3 x −2 −3 0 2
      
−3 −3 1  −5 6
  2  y
  = 
−3 −3 1  −4
 
4 2 −3 6 −8 −3 z 4 2 −3 5
    
1 0 0 x 8
    
0 1 0 y
   =  11 


0 0 1 z −15
   
x 8
   
y
  = 
 11 

z −15
116 Sistemas de Ecuaciones Lineales

y con este proceso encontramos las soluciones del sistema. Cabe señalar que para
poder aplicar este método es indispensable que la matriz de coeficientes A cumpla que
det(A) 6= 0, paara poder garantizar la existencia de la matriz inversa. 

3.6.1 Clasificación de los sistemas de Ecuaciones Lineales y su representación


matricial
Como hemos visto en los últimos dos métodos, para que un sistema de ecuaciones
lineales sea compatible determinado, la matriz de coeficientes del sistema debe ser invertible
y una condición que garantiza esto es el determinante de dicha matriz, así entonces podemos
afirmar la siguiente proposición.

Proposición 3.6.1
Sea AX = b la representación matricial de un sistema de n ecuaciones con n incógnitas,
entonces el sistema será compatible determinado sí y sólo sí det(A) 6= 0.

Cuando en el sistema, det(A) = 0, entonces el sistema no sería compatible determinado,


sin embargo no podemos afirmar sólo con esta información si el sistema será indetermi-
nado o incompatible. Para poder clasificar completamente al sistema, necesitaremos una
herramienta más, perteneciente a las matrices.

Definición 3.14 — El Rango de una Matriz.


Dada una matriz A ∈ Mn×m , definimos su rango,denotado por rango(A), como el número
de renglones no cero que quedan en la matriz escalonada reducida que es equivalente
por filas a A.

 Ejemplo 3.20
Para determinar el rango de una matriz es necesario aplicar el método de Gauss-Jordan
para reducir la matriz dada a su forma escalonada reducida y de ahí, determinar el número
de renglones no cero que quedan.
Por ejemplo, al aplicar el método de Gauss-Jordan a la matriz
 
−1 2 −1
 
A = −2 3 −2


−1 2 −2
3.6 Método de la Matriz Inversa 117

obtenemos la matriz:
   
−1 2 −1 1 0 0
  Gauss−Jordan  
−2 3 −2 −
 −−−−−−−→ 0 1 0 ,
 

−1 2 −2 0 0 1

con lo cual, el rango de la matriz A es 3, que en este caso es igual al número de renglones
que tiene la matriz.
Por otro lado, la matriz
   
1 2 −3 1 0 7
  Gauss−Jordan  
B= 2 3 −1  −−−−−−−−→ 0 1 −5
   
2 4 −6 0 0 0

con lo cual el rango de la matriz B es 2. 

Teorema 3.5
Sea AX = b un sistema de ecuaciones lineales de n × n, representado en forma matricial,
donde [A|b] representa la matriz aumentada del sistema, entonces:
Si det(A) 6= 0, entonces el sistema es compatible determinado, es decir, tiene
solución única.
Si det(A) = 0 y rango([A|b]) < n, entonces el sistema es compatible indetermina-
do, es decir, tiene infinitas soluciones.
Por último, si det(A) = 0 y rango([A|b]) = n, entonces el sistema es incompatible,
es decir, no tiene solución.

 Ejemplo 3.21
Vamos a crear 1 sistema de ecuaciones lineales de cada tipo, para ello usaremos las
herramientas que proporciona el teorema anterior.
Consideremos una matriz aumentada de la forma:
 
1 −2 −1 3
 
[A|b] = 
 2 −1 −2 5 ,

3 −3 a b
118 Sistemas de Ecuaciones Lineales

entonces, el determinante de la matriz de coeficientes es:



1 −2 −1


det(A) = 2 −1 −2 = 3a + 9,
3 −3 a

leugo, si queremos formar un sistema compatible determinado, necesitamos que det(A) 6=


0, es decir 3a + 9 6= 0, con lo cual a 6= −3. Para que el sistema formado sea compatible
indeterminado no hay condición específica para la variable b. Por ejemplo, un sistema
compatible determinado sería el correspondiente a la matriz aumentada (eligiendo a = 2
y b = 0):  
1 −2 −1 3
 
2 −1 −2 5
 
3 −3 2 0
es decir, el sistema
x − 2y − z = 3
2x − y − 2z = 5
3x − 3y + 2z = 0
es compatible determinado, y al aplicar el método de Gauss-Jordan obtenemos las
soluciones de dicho sistema:
   
1 −2 −1 3 1 0 0 11 15 
  Gauss-Jordan 
2 −1 −2 5 − −− −− −−→  0 1 0 −1 
   3 
3 −3 2 0 0 0 1 − 85

Por otro lado, si queremos crear un sistema de ecuaciones que no sea determinado,
entonces primero tomamos a = −3, con lo cual det(A) = 0. Para discriminar entre un
sistema compatible indeterminado y uno incompatible sólo necesitamos seleccionar un
valor adecuado para b para cada caso. Para hallar esos valores primero aplicamos el
método de Gauss a la matriz aumentada del sistema:
   
1 −2 −1 3 1 −2 −1 3
  Gauss  
2 −1 −2 5 − −−→  0 3 0 −1 
   
3 −3 −3 b 0 0 0 b−8

De aquí distinguimos 2 casos:


Si b−8 = 0, entonces rango([A|b]) = 2 < 3, con lo cual el sistema sería compatible
indeterminado.
3.6 Método de la Matriz Inversa 119

Si b − 8 6= 0, entonces rango([A|b]) = 3 y el sistema sería incompatible.


Entonces para formar un sistema indeterminado necesitamos que b − 8 = 0 ⇒ b = 8
y al resolver el sistema tenemos:
   
1 −2 −1 3 1 −2 −1 3
  Gauss  
2 −1 −2 5 − − −→  0 3 0 −1 ,
   
3 −3 −3 8 0 0 0 0

el sistema correspondiente sería:

x − 2y − z = 3
3y = −1

y las infinitas soluciones del sistema se encuentran con las expresiones:


1 7
z = t; y = − ; x = − t
3 3
donde t es una variable libre.
Por otro lado, si b − 8 6= 0, entonces b 6= 8 y tenemos un sistema incompatible, por
ejemplo:    
1 −2 −1 3 1 −2 −1 3
  Gauss  
2 −1 −2 5 − − −→  0 3 0 −1 
   
3 −3 −3 7 0 0 0 1
y el sistema correspondiente a la matriz sería:

x − 2y − z = 3
3y = −1
0 = 1

el cual claramente no tiene solución debido a la ecuación degenerada en la tercera


ecuación del sistema.

4 — Espacios Vectoriales

El concepto de espacio vectorial abarca a muchos de los objetos matemáticos que usual-
mente se estudian en los cursos escolares: números reales, números complejos, polinomios,
matrices, funciones continuas sobre un intervalo y coordenadas en el plano y el espacio.
Todos estos conjuntos comparten ciertas características comunes, empezando por el
hecho de que en cada uno de ellos se pueden definir al menos dos operaciones básicas:
una suma y una multiplicación por escalar. Estas operaciones son binarias y se pueden
interpretar como funciones definidas sobre un conjunto especial, así por ejemplo, la suma de
complejos se puede interpretar como una función representada con el símbolo + y definida
sobre el conjunto C × C, en términos simbólicos esto se representa como:

+ : C×C → C

Dados dos conjuntos A y B, en general, el conjunto A × B se define como el conjunto de


parejas de la forma (a, b) donde a es un elemento del conjunto A y b es un elemento del
segundo conjunto B. Así entonces, el símbolo C × C representa parejas de la forma (a, b)
donde a y b son números complejos.
Por otro lado, la flecha → en la representación simbólica de la operación, significa que
el resultado de la función + pertenece al conjunto C. En este caso decimos que la operación
es cerrada ya que el resultado pertenece al mismo conjunto que los operandos.

4.1 Definición de Espacios Vectoriales


Para poder definir un espacio vectorial necesitamos 4 elementos principalmente:
1 Conjunto no vacío V
1 Conjunto de números, denominado campo, representado por F.
122 Espacios Vectoriales

2 Operaciones que representaremos con los símbolos ⊕ y , donominadas suma y


multiplicación por escalar, respectivamente.
la “suma” en los espacios vectoriales es una operación de tipo:

⊕ : V ×V → V,

es decir, toma elementos de la forma (u, v) donde u y v son elementos del conjunto V y
los opera para obtener un resultado, representado por u ⊕ v, que pertenece al conjunto V.
Decimos que la operación ⊕ es binaria por que se aplica con dos operandos y además es
cerrada, por que el resultado de la operación pertenece al mismo conjunto que los operandos.
De manera similar, la operación la operación es de tipo:

: F ×V → V,

con lo cual indicamos que la operación toma elementos de la forma (r, v), donde r ∈ F y
v ∈ V y los opera para obtener un resultado, r v, que pertenece al conjunto V.

Definición 4.1
Sea V un conjunto no vacío de objetos denominados vectores, sea F un campo de
númerosa denominados escalares, y sean ⊕ y dos operaciones binarias (que pueden
ser interpretadas como funciones) tales que
⊕ : V ×V → V ; y
: F ×V → V
Entonces decimos que V es un espacio vectorial sobre F (también llamado F−espacio
vectorial), si las funciones con los vectores cumplen las siguientes condiciones:
Propiedad asociativa:
Si tomamos tres elementos, u, v y w del conjunto V, entonces podemos aplicar la
función ⊕ a estos tres elementos de dos formas distintas y ambas dan el mismo
resultado, es decir:
u ⊕ (v ⊕ w) = (u ⊕ v) ⊕ w
Propiedad Conmutativa:
Si tomamos dos vectores, u y v, de V, entonces no importa el orden en que
apliquemos la función ⊕ :
u ⊕ v = v ⊕ u.
Existencia del Elemento Neutro Aditivo:
Dentro del conjunto V, existe un vector especial, representado por el símbolo
0V , tal que si a este se aplicamos la función ⊕ junto con cualquier otro vector v,
entonces el resultado siempre será el vector v, es decir:

∃ 0V ∈ V tal que v ⊕ 0V = 0V ⊕ v = v.

Existencia del Inverso Aditivo:


4.1 Definición de Espacios Vectoriales 123

Si v es un vector del conjunto V, entonces existe otro vector en el mismo conjunto


V, representado por −v, tal que v ⊕ −v = 0V
Propiedad Asociativa para la multiplicación por escalares:
Si tenemos dos elementos, r, y s, de F y el vector u del conjunto V, entonces
podemos aplicar las operaciones en diferente orden y obtendremos mismo
resultado:
(rs) u = r (s u).
Propiedad Distributiva por la izquierda:
Las operaciones y ⊕ se pueden distribuir y aplicar en diferente orden y el
resultado será el mismo

r (u ⊕ v) = (r u) ⊕ (r v).

Propiedad Distributiva por la derecha:


De igual manera, si los escalares se están sumando, se puede distribuir la operación
y obtener el mismo resultado:

(r + s) u = (r u) ⊕ (s u).

Propiedad del Neutro multiplicativo:


Si 1 es el neutro multiplicativo del campo F, entonces:

1 v = v para toda v ∈ V.
a Un campo es un conjunto de números con dos operaciones definidas en él: suma y multiplicación, las
cuales cumplen ciertas propiedades. La definición y el estudio de los campos se escapan de los objetivos
del presente material por lo cual, para los contenidos del capítulo, tomaremos F = R a menos que se
indique lo contrario

El conjunto V no está definido en término de sus elementos, sino en términos de sus


propiedades. Estos elementos se denominan vectores. Esto implica que un espacio vectorial
podría ser cualquier conjunto, sin importar sus elementos, siempre y cuando se cumplan las
propiedades listadas.
Como se puede observar, en la definición anterior no se especifica la forma de realizar
las operaciones ⊕ y , ya que esto no es relevante; por el contrario, lo más importante de
estas funciones son las propiedades que deben cumplir.
Las operaciones son binarias, es decir, sólo se pueden aplicar a parejas de elementos,
denominados operandos o argumentos, sin embargo, si deseamos aplicar la operación a tres
o más de éstos elementos, podemos hacer uso de la propiedad asociativa para ir operando
los vectores de dos en dos, sin importar cuáles dos operemos primero ya que al final, la
definición exige que el resultado sea el mismo sin importar cuáles se operen primero.

Nota La operación ⊕ recibe el nombre de suma (de vectores) aunque no tiene por qué
coincidir con la suma usualmente conocida. La operación recibe el nombre de
producto por escalar, ya que consiste en una operación binaria cuyos operandos son un
elemento del campo F, denominado escalar, y un vector del conjunto V.
124 Espacios Vectoriales

 Ejemplo 4.1
Vamos a demostrar que el conjunto V = R2 es un espacio vectorial sobre el campo de
números reales R, junto con las operaciones definidas a continuación:

⊕ : R2 × R2 → R2
(a, b) ⊕ (c, d) → (a + c, b + d)
y
: R × R2 → R2
t (a, b) → (ta,tb)
Estas definiciones indican la forma de aplicar la operación sobre los operandos, así
por ejemplo, la suma se realiza de la siguiente manera:

(2, −1) ⊕ (−4, 2) = (2 + (−4), −1 + 2) = (−2, 1)

y la multiplicación por escalar:

3 (3, 5) = (3(3), 3(5)) = (9, 15)

Para probar que con los elementos dados se forma un espacio vectorial vamos a
revisar cada una de las propiedades listadas en la definición anterior. Para comprobar las
propiedades tomamos:

u = (a, b); v = (c, d); w = (e, f )

Propiedad Asociativa
Primero verificamos la propiedad asociativa, para ello necesitamos verificar que
u ⊕ (v ⊕ w) = (u ⊕ v) ⊕ w. Primero calculamos el lado izquierdo de la igualdad que
deseamos probar:

u ⊕ (v ⊕ w) = (a, b) ⊕ ((c, d) ⊕ (e, f ))


= (a, b) ⊕ (c + e, d + f )
= (a + c + e, b + d + f )

Observe que como se indica en la expresión calculada, primero se realiza la operación


que se encuentra entre paréntesis: v ⊕ w, y posteriormente se realiza la operación con u.
Por otro lado, si calculamos el lado derecho marcado en la propiedad asociativa primero
realizaríamos la operación u ⊕ v y por último la operación con w, sin embargo deberíamos
4.1 Definición de Espacios Vectoriales 125

obtener el mismo resultado:

(u ⊕ v) ⊕ w = ((a, b) ⊕ (c, d)) ⊕ (e, f )


= (a + c, b + d) ⊕ (e, f )
= (a + c + e, b + d + f )

Como podemos comprobar, ambos cálculos nos dieron el mismo resultado, con lo
cual se puede afirmar que la propiedad asociativa sí se cumple.

Propiedad Conmutativa
Ahora probaremos que u ⊕ v = v ⊕ u. Empezamos calculando el lado izquierdo de la
igualdad:
u ⊕ v = (a, b) ⊕ (c, d) = (a + c, b + d)
luego calculamos el lado derecho:

v ⊕ u = (c, d) ⊕ (a, b) = (c + a, d + b) = (a + c, b + d),

y claramente ambos resultados son iguales, con lo cual tenemos que la propiedad conmu-
tativa también se satisface.

Existencia del Neutro Aditivo Esta propiedad exige la existencia de un vector


especial representado por 0V tal que para cualquier otro vector u se cumpla que u ⊕ 0V =
u. En este caso es fácil ver que si tomamos 0V = (0, 0), se cumplirá que: (a, b) ⊕ (0, 0) =
(a + 0, b + 0) = (a, b) lo cual demuestra la existencia del neutro aditivo.

Existencia del inverso aditivo De acuerdo con la propiedad, si tomamos un vector


u, debería existir otro vector, denotado por −u, tal que u ⊕ −u = 0V , es decir:

(a, b) ⊕ (·, ·) = (0, 0)

donde (·, ·) indica la posición del vector buscado. En este caso es fácil ver que si tomamos
−u = (−a, −b), entonces la condición se satisface:

(a, b) ⊕ (−a, −b) = (a + (−a), b + (−b)) = (0, 0),

entonces en el conjunto V existen inversos aditivos.

Propiedad Asociativa para la multiplicación por escalares


Sean r, s ∈ R, escalares del campo propuesto en el ejemplo, vamos a demostrar que
(rs) u = r (s u). Para ello empezamos calculando el lado izquierdo de la igualdad
126 Espacios Vectoriales

siguiendo la definición de la operación :

(rs) u = (rs) (a, b)


= ((rs)a, (rs)b)
= (rsa, rsb),

posteriormente calculamos el lado derecho de la igualdad que se desea demostrar, con el


fin de comprobar que ambos resultados son iguales:

r (s u) = r (s (a, b))
= r (sa, sb)
= (r(sa), r(sb))
= (rsa, rsb),

con lo cual demostramos que se cumple la propiedad asociativa para la multiplicación


por escalar.

Propiedad distributiva por la izquierda


Tomamos r ∈ R y verificamos que r (u⊕v) = (r u)⊕(r v). Calculamos primero
el lado izquierdo:
r (u ⊕ v) = r ((a, b) ⊕ (c, d))
= r (a + c, b + d)
= (r(a + c), r(b + d))
= (ra + rc, rb + rd),
por otro lado:
(r u) ⊕ (r v) = (r (a, b)) ⊕ (r (c, d))
= (ra, rb) ⊕ (rc, rd)
= (ra + rc, rb + rd)
lo que demuestra la propiedad distributiva por la izquierda.

Propiedad distributiva por la derecha


Ahora comprobaremos que (r + s) u = (r u) ⊕ (s u), donde r, s ∈ R. Antes de
calcular las expresiones solicitadas en la propiedad debemos observar que en el lado
izquierdo se involucra una suma tradicional de números reales r + s, mientras que en el
lado derecho se necesita calcular la suma de vectores definida en el ejemplo que estamos
desarrollando: (r u) ⊕ (s u).
4.1 Definición de Espacios Vectoriales 127

El resultado de la expresión del lado izquierdo:

(r + s) u = (r + s) (a, b)
= ((r + s)a, (r + s)b)
= (ra + sa, rb + sb),

y del lado derecho tenemos:

(r u) ⊕ (s u) = (r (a, b)) ⊕ (s (a, b))


= (ra, rb) ⊕ (sa, sb)
= (ra + sa, rb + sb)

y concluimos que sí se cumple la propiedad distributiva por la derecha.

Propiedad del Neutro multiplicativo


Para finalizar la prueba de que V = R2 es un espacio vectorial sobre el campo R,
tomamos al escalar 1 ∈ R y lo multiplicamos por u, la propiedad exige que el resultado
de esta multiplicación ( ) sea igual a u :

1 u = 1 (a, b) = (1a, 1b) = (a, b) = u


Con lo cual podemos concluir que se cumple la propiedad del neutro multiplicativo y
entonces V = R2 es un espacio vectorial sobre F = R. 

El espacio vectorial R2 consiste en el conjunto de coordenadas rectangulares (x, y) y se


representa geométricamente como el plano cartesiano XY, La figura 4.1 muestra este plano
y algunos de los vectores que pertenecen a este espacio vectorial. En esta representación,
los vectores se representan con una flecha que parte del origen hacia el punto con las
coordenadas del vector.
El proceso para demostrar que “algo” forma un espacio vectorial es relativamente
sencillo y consiste básicamente en ir verificando cada una de las propiedades bajo las
definiciones dadas de las operaciones incluidas en el espacio vectorial. Más aún, la mayoría
de las propiedades exigen ciertas igualdades que se deben satisfacer, para lo cual bastará
calcular las expresiones relacionadas con las propiedades y verificar las igualdades.
En caso de que al menos una de las propiedades no se satisfaga, entonces podemos
concluir que el conjunto dado NO es un espacio vectorial aunque el resto de las propiedades
sí se cumplan.
3
Nota Replicando el proceso anterior se puede demostrar que el conjunto V = R también es
un espacio vectorial sobre el campo de los números reales R.

Los siguientes ejemplos muestran conjuntos tradicionalmente conocidos de cursos


básicos de matemáticas que forman espacios vectoriales sobre el campo de los números
128 Espacios Vectoriales
3

H-2,2L H2,3L
2

-3 -2 -1 1 2 3

-1

H2,-1L
H-2,-3L -2

-3

Figura 4.1: Representación gráfica del espacio vectorial R2 y algunos vectores.

reales R con las operaciones de suma y multiplicación por escalar usuales de cada uno de
ellos. En cada uno de los ejemplos se omiten las demostraciones ya que generalmente son
operaciones básicas pero muy engorrosas.

 Ejemplo 4.2
El conjunto V = R3 es un espacio vectorial bajo las operaciones:

⊕ : R3 × R3 → R3
(a, b, c) ⊕ (d, e, f ) → (a + d, b + e, c + f )

y
: R × R3 → R3
r ⊕ (a, b, c) → (ra, rb, rc)


El espacio vectorial R3 se asocia con la representación gráfica de las coordenadas en el


espacio XY Z. En este espacio los vectores se representan con flechas que parten del origen
hacia el punto con las coordenadas del vector. La figura 4.2 muestra la representación de
algunos vectores en este espacio.
4.1 Definición de Espacios Vectoriales 129

H1,2,3L
3

H3,1,1L
1 1
2

Figura 4.2: Representación gráfica del espacio vectorial R3 y algunos vectores.

 Ejemplo 4.3
En general, el conjunto V = Rn con n ∈ N es un espacio vectorial bajo las operaciones:

⊕ : Rn × Rn → Rn
(a1 , a2 , . . . , an ) ⊕ (b1 , b2 , . . . , bn ) → (a1 + b1 , a2 + b2 , . . . , an + bn )

y
: R × Rn → Rn
r ⊕ (a1 , a2 , . . . , an ) → (ra1 , ra2 , . . . , ran )


 Ejemplo 4.4
Cualquier conjunto de matrices de la forma V = Mn×m (R) define un espacio vectorial
junto con las operaciones usuales de suma de matrices y multiplicación de matriz por
escalar como se definieron anteriormente. Por ejemplo, el conjunto de matrices M2×2 (R)
forma un espacio vectorial junto con la operación de suma:

⊕ : M2×2 (R) × M2×2 (R) → M2×2 (R)


! ! !
a11 a12 b11 b12 a11 + b11 a12 + b12
⊕ →
a21 a22 b21 b22 a21 + b21 a22 + b22
130 Espacios Vectoriales

y la multiplicación por escalar:

: R × M2×2 (R) → M2×2 (R)


! !
a11 a12 ra11 ra12
r →
a21 a22 ra21 ra22


 Ejemplo 4.5
El conjunto de polinomios en la variable x con coeficientes reales, V = R[x], forma un
espacio vectorial con la operación de suma:

⊕ : R[x] × R[x] → R[x]

donde la suma de polinomios:

(a0 + a1 x + a2 x2 + · · · + an xn + · · · ) ⊕ (b0 + b1 x + b2 x2 + · · · + bn xn + · · · ),

se define como:

(a0 + b0 ) + (a1 + b1 )x + (a2 + b2 )x2 + · · · + (an + bn )xn + · · · ),

y la multiplicación por escalar:

: R × R[x] → R[x]

se define como

r (a0 + a1 x + a2 x2 + · · · + an xn + · · · ) = (ra0 ) + (ra1 )x + (ra2 )x2 + · · · + (ran )xn + · · ·

Es relativamente sencillo demostrar que estos conjuntos forman espacios vectoriales con
las operaciones usuales. A continuación se muestra un espacio vectorial con operaciones
singulares con el fin de ilustrar la estructura a seguir en un proceso de demostración general.

 Ejemplo 4.6
Sea R0 = R − {0}, el conjunto formado por todos los números reales, con excepción
del número 0, es decir, el 0 no pertenece al conjunto R0 . Formamos un conjunto V de
la forma V = R0 × R0 , es decir, V está formado por elementos de la forma (a, b), donde
a y b pueden ser cualquier número real, excepto el 0. Vamos a demostrar que V es un
4.1 Definición de Espacios Vectoriales 131

R−espacio vectorial con las operaciones:

⊕ : V ×V → V
(a, b) ⊕ (c, d) → (ac, bd)

y
: R ×V → V
t (a, b) → (at , bt )
En este caso la operación “suma” definida sobre el conjunto V no es en realidad una
suma, sin embargo este conjunto sí resulta ser un espacio vectorial con esta operación
(lo mismo aplica para la multiplicación por escalar), lo cual demuestra por qué en la
definición no se especifica cómo realizar las operaciones.
Antes de iniciar la demostración se ejemplifica la aplicación de estas operaciones,
por ejemplo:
(2, 5) ⊕ (3, −2) = (2 · 3, 5 · (−2)) = (6, −10)
y por otro lado, un ejemplo de la multiplicación por escalar sería:

3 (2, −2) = (23 , (−2)3 ) = (8, −8).

Vamos a revisar cada una de las propiedades listadas en la definición de espacio


vectorial. Para ello tomamos:

u = (a, b); v = (c, d); w = (e, f )

vectores del conjunto V y r, s ∈ R.

Propiedad Asociativa
Primero verificamos la propiedad asociativa: u ⊕ (v ⊕ w) = (u ⊕ v) ⊕ w. Empezamos
calculando el lado izquierdo de la igualdad que deseamos probar:

u ⊕ (v ⊕ w) = (a, b) ⊕ ((c, d) ⊕ (e, f ))


= (a, b) ⊕ (ce, d f )
= (a(ce), b(d f ))
= (ace, bd f )
132 Espacios Vectoriales

Si calculamos el lado derecho obtenemos

(u ⊕ v) ⊕ w = ((a, b) ⊕ (c, d)) ⊕ (e, f )


= (ac, bd) ⊕ (e, f )
= ((ac)e, (bd) f )
= (ace, bd f )

Como podemos comprobar, ambos cálculos nos dieron el mismo resultado, con lo
cual se puede afirmar que la propiedad asociativa sí se cumple.

Propiedad Conmutativa
Ahora probaremos que u ⊕ v = v ⊕ u. Empezamos calculando el lado izquierdo de la
igualdad:
u ⊕ v = (a, b) ⊕ (c, d) = (ac, bd)
luego calculamos el lado derecho:

v ⊕ u = (c, d) ⊕ (a, b) = (ca, db) = (ac, bd),

con lo cual tenemos que la propiedad conmutativa también se satisface.

Existencia del Neutro Aditivo Esta propiedad exige la existencia de un vector


especial representado por 0V tal que para cualquier otro vector u se cumpla que u ⊕ 0V =
u. En este caso no es completamente intuitivo el elemento que debemos seleccionar para
el papel de 0V , por lo cual, para hallar a este elemento supondremos que 0V = (x, y),
donde x e y son valores incógnitas. Lo que sí sabemos de 0V es que:

u ⊕ 0V = u
⇒ (a, b) ⊕ (x, y) = (a, b)
⇒ (ax, by) = (a, b)

de aquí podemos ver que para que la igualdad se cumpla entonces x = 1 y y = 1, es


decir, para que la existencia del neutro aditivo se satisfaga en este conjunto basta tomar
0V = (1, 1). Nótese que en este caso el elemento 0V no está asociado con el número real
0, como podría pensarse.

Existencia del inverso aditivo


De acuerdo con la propiedad, si tomamos un vector u, debería existir otro vector,
denotado por −u = (x, y), tal que u ⊕ −u = 0V , es decir:

(a, b) ⊕ (x, y) = (1, 1),


4.1 Definición de Espacios Vectoriales 133

recordando que se mostró en la propiedad anterior que en este conjunto 0V = (1, 1).
Luego, para que la propiedad se cumpla se debe satisfacer que:

u ⊕ (−u) = (a, b) ⊕ (x, y) = (ax, by) = (1, 1)

con lo cual ax = 1 y by = 1, entonces x = 1a y y = 1b . Como el conjunto V = R0 × R0 ,


esto garantiza que a, b 6= 0 y en este conjunto sí existen los inversos.

Propiedad Asociativa para la multiplicación por escalares


Vamos a demostrar que (rs) u = r (s u). Para ello empezamos calculando el
lado izquierdo de la igualdad siguiendo la definición de la operación :

(rs) u = (rs) (a, b)


= (a(rs) , b(rs) )

posteriormente calculamos el lado derecho de la igualdad que se desea demostrar, con el


fin de comprobar que ambos resultados son iguales:

r (s u) = r (s (a, b))
= r (as , bs )
= ((as )r , (bs )r )
= (a(rs) , b(rs) ),

con lo cual demostramos que se cumple la propiedad asociativa para la multiplicación


por escalar.

Propiedad distributiva por la izquierda


Tomamos r ∈ R y verificamos que r (u⊕v) = (r u)⊕(r v). Calculamos primero
el lado izquierdo:
r (u ⊕ v) = r ((a, b) ⊕ (c, d))
= r (ac, bd)
= ((ac)r , (bd)r )
= (ar cr , br d r ).
Nótese que hemos empleado la propiedad de los exponentes que establece que: (xy)n =
(xn )(yn ). Por otro lado:

(r u) ⊕ (r v) = (r (a, b)) ⊕ (r (c, d))


= (ar , br ) ⊕ (cr , d r )
= (ar cr , br d r )
134 Espacios Vectoriales

lo que demuestra la propiedad distributiva por la izquierda.

Propiedad distributiva por la derecha


Ahora comprobaremos que (r + s) u = (r u) ⊕ (s u), donde r, s ∈ R.
El resultado de la expresión del lado izquierdo:

(r + s) u = (r + s) (a, b)
= (a(r+s) , b(r+s) ),

en este caso aplicamos la propiedad que establece que: (xn )(xm ) = x(n+m) . Del lado
derecho tenemos:

(r u) ⊕ (s u) = (r (a, b)) ⊕ (s (a, b))


= (ar , br ) ⊕ (as , bs )
= (ar as , br bs )
= (a(r+s) , b(r+s) )

y concluimos que sí se cumple la propiedad distributiva por la derecha.

Propiedad del Neutro multiplicativo


Para finalizar la prueba de que V = R2 es un espacio vectorial sobre el campo R,
tomamos al escalar 1 ∈ R y lo multiplicamos por u, la propiedad exige que el resultado
de esta multiplicación ( ) sea igual a u :

1 u = 1 (a, b) = (a1 , b1 ) = (a, b) = u


Con lo cual podemos concluir que se cumple la propiedad del neutro multiplicativo y
entonces V = R0 × R0 es un espacio vectorial sobre F = R. 

Para demostrar que un conjunto dado no es un espacio vectorial, bastará con probar que
al menos una de las propiedades de la definición no se cumple. A continuación se muestra
un ejemplo de esto.

 Ejemplo 4.7
Sea V = R2 y definimos las operaciones como en el ejemplo anterior:

⊕ : V ×V → V
(a, b) ⊕ (c, d) → (ac, bd)
4.1 Definición de Espacios Vectoriales 135

y
: R ×V → V
t (a, b) → (at , bt )
Demostraremos que este conjunto no es un espacio vectorial sobre R. Para ello
verificamos que en este conjunto no existe un elemento neutro 0V , que cumpla que:

u ⊕ 0V = u.

Si u = (a, b) y suponemos que 0V = (x, y), entonces

u ⊕ 0V = (a, b) ⊕ (x, y) = (ax, by) = (a, b),

con lo cual ax = a y by = b, pero si a = 0 o b = 0 (puesto que en este caso V se definió


considerando a todos los números reales, incluido el 0), entonces no podemos garantizar
la existencia de x o de y y esto implica que en este conjunto no existe un elemento neutro
para todos los vectores de V . Por lo tanto V no es un espacio vectorial. 

 Ejemplo 4.8
El conjunto V = M2×2 (R) no es un espacio vectorial sobre el campo R con las operacio-
nes:
⊕ : M2×2 (R) × M2×2 (R) → M2×2 (R)
A⊕B → A−B
y
: R × M2×2 (R) → M2×2 (R)
r A → rA
donde A − B es la resta usual de matrices y rA es la multiplicación de una matriz por un
escalar como se estudió en el capítulo 2.
Para demostrar que este conjunto no es espacio vectorial con las operaciones dadas,
revisamos la propiedad conmutativa. Sean
! !
a b e f
A= , yB= .
c d g h

Afirmamos que la propiedad conmutativa: A ⊕ B = B ⊕ A no se cumple, para com-


probar esto calculamos el lado izquierdo de la igualdad:
! ! !
a b e f a−e b− f
A⊕B = A−B = − = ,
c d g h c−g d −h
136 Espacios Vectoriales

luego calculamos el lado derecho:


! ! !
e f a b e−a f −b
B⊕A = B−A = − = ,
g h c d g−c h−d

con lo cual vemos que ambos resultados son diferentes y entonces el conjunto dado no
forma un espacio vectorial con las operaciones definidas. 

En este punto el lector debe haber notado ya que un espacio vectorial no se forma
únicamente con el conjunto de vectores V sino que las operaciones definidas (así como
también el campo) también son importantes en la estructura de espacio vectorial. De esta
manera un conjunto de vectores puede formar un espacio vectorial bajo ciertas operaciones y
ese mismo conjunto puede no formar un espacio vectorial bajo otras operaciones diferentes,
como ocurre con el ejemplo anterior de matrices, el cual sí es espacio vectorial bajo las
operaciones usuales pero no resultó ser espacio vectorial con las operaciones definidas en el
ejemplo anterior.

4.1.1 Propiedades de los Espacios Vectoriales


Si V es un espacio vectorial, independientemente de los vectores o de las operaciones
definidas en el espacio vectorial, existen ciertas propiedades que se cumplirán en V.

Teorema 4.1
En un espacio vectorial V, en neutro aditivo 0V es único.

La definición de espacio vectorial exige que exista un elemento neutro aditivo 0V , sin
embargo la misma definición no explica cómo hallar a este elemento o si el neutro será
único. independientemente del espacio y sus propiedades, se puede demostrar que en un
espacio vectorial, el elemento neutro aditivo será único. Para demostrar esta afirmación
supongamos que esto no es verdad y que en algún espacio vectorial existen al menos dos
elementos neutros: e1 y e2 , entonces de acuerdo con la definición del elemento neutro se
debe cumplir que para cualquier vector v ∈ V :

v ⊕ e1 = v

y también
v ⊕ e2 = v
entonces, si tomamos v = e2 en la primera igualdad entonces tendríamos que

v ⊕ e1 = v ⇒ e2 ⊕ e1 = e2

y si tomamos v = e1 en la segunda igualdad entonces tendríamos que

v ⊕ e2 = v ⇒ e1 ⊕ e2 = e1
4.1 Definición de Espacios Vectoriales 137

pero como en el espacio vectorial, la “suma” es conmutativa, entonces

e2 = e2 ⊕ e1 = e1 ⊕ e2 = e1

con lo cual tenemos que e1 = e2 y entonces no pueden existir dos elementos neutros en el
espacio vectorial, lo cual demuestra nuestra afirmación de que el elemento neutro en un
espacio vectorial es único.

 Ejemplo 4.9
Como afirma el teorema anterior, el neutro aditivo es único, aunque no especifica cómo
hallar a este elemento neutro, lo cual podría llegar a implicar un trabajo considerable
dependiendo del espacio que se defina. A continuacioón mostramos al elemento neutro
de algunos de los espacios vectoriales tradicionalmente conocidos con sus operaciones
usuales:
En el espacio vectorial R2 el neutro es el vector de coordenadas (0, 0).
En el espacio vectorial R3 el neutro es el vector de coordenadas (0, 0, !0).
0 0
En el espacio vectorial M2×2 (R) el neutro es el vector matriz .
0 0
En el espacio vectorial de polinomios reales en la variable x, es conjunto R[x], el
elemento neutro es el vector polinomio 0 + 0x + 0x2 + 0x3 + · · ·
En el espacio vectorial de funciones continuas sobre el intervalo [0, 1], el neutro es
el vector función f (x) = 0.


Otra propiedad de los espacios vectoriales es la unicidad del elemento inverso aditivo: si
v es un vector de un espacio vectorial V, entonces existe otro vector, representado por −v,
tal que v ⊕ (−v) = 0V . Más aún este elemento es único para cada vector v.

Teorema 4.2
Sea V un F−espacio vectorial y sea v ∈ V, entonces el inverso aditivo de v, representado
por −v es único.

Para demostrar esta propiedad supongamos que existe un vector v que posea dos ele-
mentos inversos w1 y w2 (en este caso no podríamos usar el símbolo −v ya que el inverso
no es único). Entonces, por definición del inverso se cumple que:

v ⊕ w1 = 0V

y también
v ⊕ w2 = 0V
con lo cual:
(v ⊕ w1 ) ⊕ w2 = 0V ⊕ w2 = w2
138 Espacios Vectoriales

y por otro lado, usando las propiedades asociativa y conmutativa:

(v ⊕ w1 ) ⊕ w2 = v ⊕ (w1 ⊕ w2 ) = (v ⊕ w1 ) ⊕ w2 = 0V ⊕ w1 = w1 .

En conclusión:
w2 = (v ⊕ w1 ) ⊕ w2 = (v ⊕ w2 ) ⊕ w1 = w1

es decir, para cada v ∈ V, sólo hay un elemento inverso (y como es único) que se puede
representar por el símbolo −v.

 Ejemplo 4.10
En los espacios vectoriales tradicionalmente conocidos, con las operaciones usuales, se
conoce la fórmula para hallar al inverso aditivo en cada uno de ellos:
En el espacio vectorial R2 , para cada vector (a, b) el inverso aditivo será de la
forma (−a, −b).
En el espacio vectorial R3 , para cada vector (a, b, c), el inverso aditivo será de la
forma (−a, −b, −c).
En el espacio vectorial M2×2 (R), para cada vector
!
a11 a12
,
a21 a22

su inverso aditivo será el vector de la forma


!
−a11 −a12
.
−a21 −a22

En el espacio vectorial R[x], si

v = a0 + a1 x + a2 x2 + · · · + an xn + . . .

entonces

−v = (−a0 ) + (−a1 )x + (−a2 )x2 + · · · + (−an )xn + . . .

Teorema 4.3
Para cualquier vector v del espacio vectorial V se cumple que 0F v = 0v , donde 0F es
el número cero del campo F.
4.1 Definición de Espacios Vectoriales 139

Este último teorema nos permite hallar de manera sencilla al neutro aditivo de un espacio
vectorial V. Para demostrar esta propiedad veamos que, por la propiedad distributiva:

(0F v) = (0F + 0F ) v = (0F v) ⊕ (0F v),

entonces, si sumamos a ambos lados de la igualdad anterior el inverso aditivo de 0F v


(representados por −(0F v)), tenemos que:

(0F v) ⊕ −(0F v) = ((0F v) ⊕ (0F v)) ⊕ −(0F v)

con lo cual:

0V = (0F v) ⊕ ((0F v) ⊕ −(0F v)) = (0F v) ⊕ 0V = 0F v,

es decir:
0V = 0F v,
lo cual demuestra la propiedad anterior.

 Ejemplo 4.11
Vamos a reutilizar el espacio vectorial del ejemplo 4.6. El conjunto V = (R − {0}) ×
(R − {0}) es un espacio vectorial con las operaciones:

⊕ : V ×V → V
(a, b) ⊕ (c, d) → (ac, bd)

y
: R ×V → V
t (a, b) → (at , bt )
Además como ya se demostró anteriormente, en este espacio 0V = (1, 1).
Sea v = (a, b) ∈ V, entonces

0 v = 0 (a, b) = (a0 , b0 ) = (1, 1) = 0V ,

lo cual muestra que el teorema anterior sí se cumple en este espacio vectorial. 

Existen diferentes propiedades para los vectores de un espacio vectorial. A continuación


se resumen algunas otras de estas propiedades de los espacios vectoriales.
140 Espacios Vectoriales

Teorema 4.4
Sea V un espacio vectorial sobre un campo F. Entonces se cumplen las siguientes
propiedades:
Si r u = 0, donde r ∈ F y u ∈ V, entonces r = 0F ó u = 0V .
Para cualquier vector v ∈ V, (−1) v = −v. Esto implica que para hallar el
inverso bajo la operación ⊕ bastará con calcular el producto (−1) v.
Para todo r ∈ F y todo u ∈ V, (−r) u = r (−u) = −(r u).

4.2 Subespacios Vectoriales


Una forma alternativa de formar espacios vectoriales consiste en tomar subconjuntos de
espacios vectoriales ya conocidos, un espacio formado de esta forma recibe el nombre de
subespacio vectorial.

Definición 4.2 — Subespacios Vectoriales.


Sea S un subconjunto no vacío de un espacio vectorial V sobre F (simbólicamente
S ⊆ V ). Si S es también un espacio vectorial sobre F usando las mismas operaciones de
suma y multiplicación por escalar, entonces decimos que S es un subespacio vectorial
de V sobre F.

 Ejemplo 4.12
Consideremos el siguiente conjunto:

S = {(x, y)|y = 2x}

Es fácil ver que S ⊂ R2 , y tenemos entonces que para que un vector (x, y) de R2
pertenezca al conjunto S debe cumplir la condición y = 2x, de la definición de S; por
ejemplo, (1, 2) ∈ S ya que 2 = 2(1) ⇒ y = 2x con lo cual, el vector (1, 2) sí cumple la
condición de la definición de S.
Por otro lado tenemos que (1, 3) ∈ / S ya que 3 6= 2(1) ⇒ y 6= 2x, es decir, el vector
(1, 3) no cumple la condición de la definición de los elementos de S.
Es fácil ver que este conjunto forma un nuevo espacio vectorial si usamos las mismas
operaciones que se definen tradicionalmente sobre el conjunto R2 . A continuación vamos
a revisar las propiedades de existencia del neutro aditivo y la existencia del inverso
aditivo sobre este conjunto y dejaremos las pruebas del resto de las propiedades al lector.
4.2 Subespacios Vectoriales 141

Primero recordemos que en V = R2 la operación suma se define como:

⊕ : R2 × R2 → R2
(a, b) ⊕ (c, d) → (a + c, b + d)

y la multiplicación por escalar está dada por:

: R × R2 → R2
r (a, b) → (ra, rb)

entonces usando estas mismas operaciones tenemos las siguientes propiedades.

Existencia del neutro aditivo


Sabemos que en el espacio R2 , el neutro aditivo es el vector 0V = (0, 0), sólo ne-
cesitamos verificar que este vector también pertenece al conjunto S. Como 0 = 2(0),
entonces, para el vector 0V = (0, 0), se verifica que y = 2x, con lo cual (0, 0) ∈ S.

Existencia de los inversos aditivos


En este caso necesitamos probar que si (a, b) ∈ S, entonces −(a, b) también pertenece
a S. Por definición sabemos que si (a, b) ∈ S, esto quiere decir que b = 2a, es decir, se
cumple la condición de la definición de S, es decir:

(a, b) ∈ S ⇒ b = 2a ⇒ (a, b) = (a, 2a).

Por otro lado −(a, b) = (−a, −b), entonces:

−(a, b) = (−a, −b) = (−a, −(2a)) = (−a, 2(−a))

y entonces −(a, b) ∈ S, lo cual demuestra que en el conjunto S, cada vector tiene un


inverso que pertenece al mismo conjunto.

Es relativamente fácil demostrar el resto de las propiedades (las pruebas se dejan al


lector), para concluir que S es un espacio vectorial y de acuerdo con la definición anterior,
entonces S es un subespacio vectorial. 

4.2.1 Propiedades de los subespacios

Existe una forma más sencilla de demostrar que un conjunto es un subespacio vectorial,
sin necesidad de demostrar cada una de las condiciones de la definición 4.1.
142 Espacios Vectoriales

Teorema 4.5
Sea V un espacio vectorial sobre F y S ⊆ V un conjunto no vacío, entonces S es un
subespacio vectorial de V si y sólo si cumple las siguientes condiciones:
El conjunto S es cerrado bajo la suma: Cualquiera dos elementos de S sumados
dan como resultado un elemento que también está en S. Es decir, si u, v ∈ S,
entonces u ⊕ v ∈ S.
El conjunto S es cerrado bajo la multiplicación por escalares: Cualquier
elemento de S multiplicado por cualquier escalar da como resultado un elemento
que también está en S. Es decir, si r ∈ F y v ∈ S, entonces r v ∈ S.

Nota A partir de ahora usaremos el símbolo + para representar la suma de vectores en general
en lugar del símbolo ⊕ que hemos estado empleando hasta el momento, entendiendo
que al lector le ha quedado claro que el símbolo + representa una operación que puede
(o no) ser la suma que usualmente se conoce, y que a pesar de no tener claramente
definida la forma de aplicar la operación, si conocemos, en cambio, sus propiedades.
De igual manera usaremos el símbolo · para representar la multiplicación por escalar
que hemos estado representado por el símbolo .

 Ejemplo 4.13
El conjunto ( ! )
a 0
W= a, b ∈ R
0 b
forma un subespacio vectorial del espacio M2×2 (R) bajo las operaciones usuales de
matrices.
Para demostrar esto usaremos el teorema anterior. Verificamos primero la cerradura
de la suma.
Sean ! !
a 0 c 0
u= y v= ,
0 b 0 d
entonces ! ! !
a 0 c 0 a+c 0
u+v = + =
0 b 0 d 0 b+d
y este resultado claramente satisface la condición dada en la definición del conjunto W,
lo cual quiere decir que u + v ∈ W.
Por otro lado, si r ∈ R, entonces
! !
a 0 ra 0
r·u = r = ∈W
0 b 0 rb
4.2 Subespacios Vectoriales 143

por lo tanto la multiplicación por escalar también es cerrada. Entonces, de acuerdo al


teorema anterior, el conjunto W es un subespacio vectorial del espacio formado por las
matrices de dimensión 2 × 2. 

 Ejemplo 4.14
el conjunto
W = {(a, b, 0)|a, b ∈ R}
forma un subespacio vectorial del espacio R3 bajo las operaciones definidas en R3 .
Para probar la cerradura de la suma tomamos

u = (a, b, 0), y v = (c, d, 0),

entonces
u + v = (a, b, 0) + (c, d, 0) = (a + c, b + d, 0) ∈ W
y probamos así que la suma es cerrada.
Para la multiplicación por escalar tomamos r ∈ R y vemos que:

r · u = r · (a, b, 0) = (ra, rb, 0) ∈ W,

con lo cual la multiplicación por escalar también es cerrada.


Por lo tanto el conjunto W es un subespacio vectorial de R3 . 

 Ejemplo 4.15
En el espacio vectorial R[x], de polinomios reales en la variable x, el conjunto formado
por polinomios de la forma ax + 3ax2 donde a ∈ R forma un subespacio vectorial. Si
denotamos por W a este conjunto, entonces:

W = {ax + 3ax2 |a ∈ R}.

Esto indica que para que un vector de R[x] pertenezca al conjunto W debe ser de la
forma ax + 3ax2 , es decir, el polinomio debe ser de grado dos, su término independiente
debe ser 0 y el coeficiente del término cuadrático (x2 ), debe ser el triple del coeficiente
del término lineal (x). Así por ejemplo, el polinomio 5x + 15x2 pertenece al conjunto W,
mientras que el polinomio 5x − 15x2 no.
Para demostrar que en este caso W es un subespacio vectorial definimos:

u = ax + 3ax2 , y v = bx + 3bx2
144 Espacios Vectoriales

y al sumar obtenemos:

u + v = (ax + 3ax2 ) + (bx + 3bx2 ) = (a + b)x + 3(a + b)x2

el cual pertenece a W.
Por otro lado, si r ∈ R, entonces:

r · u = r · (ax + 3ax2 ) = (ra)x + 3(ra)x2

y como este resultado cumple la condición de la definición de W, entonces el resultado


también pertenece a W, es decir, la multiplicación por escalar es cerrada.
Por lo tanto, el conjunto W es un subespacio vectorial del espacio de los polinomios
reales en la variable x. 

Supongamos que V es un F−espacio vectorial, W es un subespacio vectorial de V,


que c1 , c2 ∈ F y que u, v ∈ W, entonces, por el teorema 4.5, como la multiplicación por
escalar es cerrada en W , entonces c1 v1 ∈ W y c2 v2 ∈ W, y como además, la suma también
es cerrada, entonces c1 v1 + c2 v2 ∈ W.
Este resultado nos muestra una condición alterna para demostrar que un subconjunto W
forma un subespacio vectorial de un espacio V. El siguiente teorema enuncia este resultado.

Teorema 4.6
Sea V un espacio vectorial sobre un campo F, y sea W un subconjunto de vectores de
V, entonces W forma un subespacio vectorial bajo las mismas operaciones definidas
sobre V si y sólo si para cualesquiera dos vectores u, v ∈ W y cualesquiera dos escalares
c1 , c2 ∈ F se cumple que:
c1 v1 + c2 v2 ∈ W.

Decimos que los teoremas 4.5 y 4.6 son equivalentes ya que se puede demostrar cual-
quiera de ellos a partir del otro, además estos dos teoremas nos proporcionan diferentes
métodos para demostrar que un subconjunto W forma un subespacio vectorial de un espacio
V. La demostración es relativamente sencilla y se deja al lector como ejercicio.

Nota Al vector obtenido por medio de una expresión de la forma


c1 v1 + c2 v2

se le denomina combinación lineal de los vectores v1 y v2 . Más adelante se profundizará


en esta definición.
4.2 Subespacios Vectoriales 145

Teorema 4.7
Sea U un subespacio de un espacio vectorial V. Entonces U contiene al vector cero de
V, (0V ).

El teorema anterior nos muestra una condición necesaria mas no suficiente para un
subespacio vectorial sin embargo una reinterpretración de este teorema anterior nos permite
identificar fácilmente los conjunto que no son subespacios vectoriales:

Corolario 4.2.1
Sea U un subconjunto de un espacio vectorial V, si 0V ∈
/ U, entonces U no es un
subespacio vectorial.

 Ejemplo 4.16
Vamos a probar que el conjunto

W = {(a, a2 , 1)| a ∈ R}

no forma un subespacio vectorial del espacio R3 .


Para clarificar la definición de este conjunto veamos que (2, 4, −1) ∈ W, ya que
en este vector la segunda coordenad es igual al cuadrado de la primera (4 = 22 ) y la
tercera coordenada es igual a 1, como pide la definición de W. Mientras que el elemento
(5, −8, 1) no pertenece a W, ya que la segunda coordenada no es igual al cuadrado de la
primera (−8 6= 52 ) aunque el tercer elemento sí sea igual a 1.
Para probar esto usaremos dos estrategias diferentes, con el mismo resultado.

Primera prueba
Primero revisamos la propiedad de cerradura para la suma. Sean

u = (a, a2 , 1), y v = (c, c2 , 1),

entonces
u + v = (a, a2 , 1) + (c, c2 , 1) = (a + c, a2 + c2 , 1 + 1)
y se puede ver que este resultado no pertenece al conjunto W ya que la segunda
coordenada no es igual al cuadrado de la primera como lo exige la definición de W
(a2 + b2 6= (a + b)2 ) y la tercera coordenada es 2 6= 1, entonces W no es un subespacio
vectorial.

Segunda prueba
Volveremos a demostrar que W no es un espacio vectorial, pero ahora usaremos
el corolario anterior. Como ya sabemos, si consideramos que V = R3 , entonces 0V =
(0, 0, 0), pero 0V ∈
/ W ya que este vector no cumple que la tercera coordenada sea igual a
146 Espacios Vectoriales

1 como lo pide la definición de W. Entonces, por el corolario anterior concluimos que W


no puede ser un subespacio vectorial. 

Ahora mostramos un ejemplo de un conjunto que sí forma un subespacio vectorial

 Ejemplo 4.17
Demostrar que el conjunto de coordenadas del espacio vectorial R3 contenidas en el
siguiente conjunto forman un subespacio vectorial.

P = {(x, y, z)| 2x − y + 3z = 0}

Supongamos que u = (a, b, c) y v = (d, e, f ) son dos vectores que pertenen al conjunto
P, entonces, por definición, deberían satisfacer la condición:

2a − b + 3c = 0, y 2d − e + 3 f = 0.

Vamos a verificar que ru + tv ∈ P para cualesquiera r, t ∈ R y con ello quedará


demostrado que el conjunto P es un subespacio vectorial. Calculamos:

ru + tv = r(a, b, c) + t(d, e, f )
= (ra, rb, rc) + (td,te,t f )
= (ra + td, rb + te, rc + t f )

y si tomamos a (x, y, z) = (ra + td, rb + te, rc + t f ) y sumamos:

2x − y + 3z = 2(ra + td) − (rb + te) + 3(rc + t f )


= 2ra + 2td − rb − te + 3rc + 3t f
reagrupando términos ⇒ = (2ra − rb + 3rc) + (2td − te + 3t f )
factorizando ⇒ = r(2a − b + 3c) + t(2d − e + 3 f )
= r(0) + t(0)
= 0

con lo cual probamos que el vector ru + tv también cumple la condición con la que se
define al conjunto P, por lo cual podemos afirmar que ru + tv ∈ P y entonces P es un
subespacio vectorial. 

El subespacio vectorial del ejemplo anterior está conformado por coordenadas que se
pueden representar gráficamente como un plano en el espacio R3 , como se observa en la
figura 4.3
4.3 Combinaciones Lineales 147

-5

-5
0 0
0

-5

Figura 4.3: Ejemplo de un subespacio vectorial en R3 .

4.3 Combinaciones Lineales


Los elementos de un espacio vectorial se pueden combinar entre sí por medio de las dos
operaciones definidas sobre dicho espacio, esto generará un nuevo vector que debe formar
parte del mismo espacio. Esta forma de combinar los vectores se denomina combinación
lineal y se define a continuación.

Definición 4.3 — Combinación lineal.


Dado un espacio vectorial V y un conjunto U = {v1 , . . . , vn } de elementos de V ,
decimos que w ∈ V es una combinación lineal de U si existen elementos escalares
c1 , . . . , cn tales que
w = c1 v1 + · · · + cn vn .

Crear combinaciones lineales es relativamente sencillo, primero necesitamos un espacio


vectorial, luego un conjunto de vectores del espacio y por último debemos multiplicar los
vectores por algunos escalares y la suma será una combinación lineal.

 Ejemplo 4.18
Tomamos el espacio vectorial V = R2 y el conjunto de vectores

U = {v1 , v2 , v3 } = {(1, −1), (2, −1), (−1, 4)}

Para formar una combinación lineal bastará elegir tres escalares que se multipliquen
con cada uno de los vectores anteriores y se sumen, por ejemplo, una combinación lineal
sería:
4 · (1, −1) + (−2) · (2, −1) + 0 · (−1, 4) = (0, −2)
148 Espacios Vectoriales

En general, todas las combinaciones lineales del conjunto de vectores U se forma


con:
c1 · v1 + c2 · v2 + c3 · v3 = c1 · (1, −1) + c2 · (2, −1) + c3 · (−1, 4),
donde c1 , c2 y c3 son escalares del campo R. 

 Ejemplo 4.19
Para mostrar un ejemplo de una combinación lineal en M2×2 (R), tomamos el conjunto
de vectores: ( ! !)
1 −1 0 2
U = {v1 , v2 } = , ,
2 −3 4 −1
y entonces se puede formar una combinación lineal si multiplicamos el primero vector
por 2 y el segundo vector por -2:
! ! !
1 −1 0 2 2 −6
2· + (−2) · =
2 −3 4 −1 −4 −4


En general lo que nos interesa no es formar combinaciones lineales, sino más bien
es saber si un vector dado puede obtenerse como combinación lineal de un conjunto de
vectores. El problema principal consiste, entonces, en encontrar los escalares que cumplen
la igualdad en la combinación lineal. A continuación se muestran algunos ejemplos en los
que se verifica que un vector sea combinación lineal de un conjunto de vectores.

 Ejemplo 4.20
Demostrar que el vector (5, 4, 2) puede obtenerse como combinación lineal de los vecto-
res del conjunto: U = {(1, 2, 0), (3, 1, 4), (1, 0, 3)}.
Vamos a empezar suponiendo que existen escalares c1 , c2 , c3 tales que:

c1 · (1, 2, 0) + c2 · (3, 1, 4) + c3 · (1, 0, 3) = (5, 4, 2),

entonces lo que debemos hacer es tratar de hallar los escalares que satisfagan la igualdad
anterior. Veamos que:

c1 · (1, 2, 0) + c2 · (3, 1, 4) + c3 · (1, 0, 3) = (5, 4, 2)


⇒ (c1 , 2c1 , 0) + (3c2 , c2 , 4c2 ) + (c3 , 0, 3c3 ) = (5, 4, 2)
⇒ (c1 + 3c2 + c3 , 2c1 + c2 , 4c2 + 3c3 ) = (5, 4, 2)

entonces, si queremos formar la combinación lineal se deben cumplir tres ecuaciones


4.3 Combinaciones Lineales 149

(una para cada coordenada):

c1 + 3c2 + c3 = 5
2c1 + c2 = 4
4c2 + 3c3 = 2

y entonces, para hallar los valores de los escalares, tenemos que resolver el sistema de
ecuaciones lineales. Aplicamos el método de reducción de Gauss-Jordan sobre la matriz
aumentada del sistema:
   
1 3 1 5 1 3 1 5
  R2 −2R1 →R2   4R52 +R3 →R3
 2 1 0 4 −
 −−−−−−→  0 −5 −2 −6  −−−−−−−→ · · ·
 

0 4 3 2 0 4 3 2

   
1 3 1 5 1 3 1 5
  − 15 R2 →R2   5R73 →R3
· · · →  0 −5 −2 −6  2 6
 −−−−−−→  0 1
   −−−−−→ · · ·
5 5 
7
0 0 5 − 14
5 0 0 7
5 − 14
5

   
1 3 1 5 1 0 − 15 7
5
  R1 −3R2 →R1   R1 + R53 →R1
··· →  2 6 −−−−−−−→  2 6  −−−−−−−→ · · ·
 0 1 5 5   0 1 5 5 
0 0 1 −2 0 0 1 −2

   
1 0 0 1 1 0 0 1
  R2 − 2R53 →R2  
 2 6
··· →  0 1 5 5  −− −− − − −→  0 1 0 2 
  
0 0 1 −2 0 0 1 −2

y entonces la solución del sistema es c1 = 1, c2 = 2 y c3 = −2. Esto quiere decir entonces,


que el vector (5, 4, 2) sí es combinación lineal de los vectores del conjunto U. Podemos
comprobar el resultado obtenido calculando la combinación lineal:

c1 · (1, 2, 0) + c2 · (3, 1, 4) + c3 · (1, 0, 3) = (5, 4, 2)


⇒ 1 · (1, 2, 0) + 2 · (3, 1, 4) + (−2) · (1, 0, 3) = (5, 4, 2)
⇒ (1, 2, 0) + (6, 2, 8) + (−2, 0, −6) = (5, 4, 2)
⇒ (1 + 6 + (−2), 2 + 2, 8 − 6) = (5, 4, 2)
⇒ (5, 4, 2) = (5, 4, 2)

150 Espacios Vectoriales

El método general para demostrar que un vector es (o no es) combinación lineal de un


conjunto de vectores dados, consiste en armar la combinación lineal usando escalares ci y
usar la igualdad buscada en la combinación lineal para formar un sistema de ecuaciones
lineales cuyas incógnitas sean los escalares ci .
A continuación mostramos un ejemplo en el cual comprobamos que una matriz dada es
combinación lineal de un conjunto de matrices dado. El ejemplo se podría resolver probando
aleatoriamente valores para los escalares ya que la combinación lineal es relativamente
sencilla, sin embargo usaremos el método descrito en el párrafo anterior para ejemplificarlo.

 Ejemplo 4.21 !
2 −3
En el R−espacio vectorial V = M2×2 (R), determinar si el vector se puede
0 2
obtener como combinación lineal del conjunto:
( ! !)
1 0 0 1
U= , .
0 1 0 0

Como el conjunto U solo tiene dos vectores, vamos a emplear dos escalares c1 y c2
como incógnitas, y escribimos la combinación lineal buscada:
! ! !
1 0 0 1 2 −3
c1 · + c2 · =
0 1 0 0 0 2

! ! !
c1 0 0 c2 2 −3
⇒ + =
0 c1 0 0 0 2

! !
c1 c2 2 −3
⇒ = .
0 c1 0 2

En este caso se debería formar un sistema de cuatro ecuaciones, una por cada
componente de la matriz, aunque como se puede observar la componente a21 de la matriz
ya es igual en ambos miembros de la expresión, por lo cual el sistema en realidad tiene
tres ecuaciones que se muestran a continuación:
Para la componente a11 se debe cumplir que c1 = 2.
La componente a12 nos indica que se debe cumnplir que c2 = −3.
Por último la componente a22 pide que c1 = 2, como en la primera ecuación.
En este caso el sistema que se forma al calcular la combinación lineal con las variables
ci es demasiado sencillo y de hecho ya se encuentra resuelto, por lo cual podemos concluir
que el vector sí es combinación lineal del conjunto dado. 
4.3 Combinaciones Lineales 151

 Ejemplo 4.22
¿El vector v = 3x3 − 2x2 + 7x − 2 es combinación lineal de los vectores del conjunto
U = x + 1, x − 1, x2 , x3 en el R−espacio vectorial de los polinomios reales en la


variable x, R[x]?
Para responder la pregunta tomamos variables c1 , c2 , c3 y c4 y calculamos la combi-
nación lineal:

c1 · (x + 1) + c2 · (x − 1) + c3 · x2 + c4 · x3 = 3x3 − 2x2 + 7x − 2
⇒ (c1 x + c1 ) + (c2 x − c2 ) + c3 x2 + c4 x3 = 3x3 − 2x2 + 7x − 2
⇒ c4 x3 + c3 x2 + (c1 + c2 )x + (c1 − c2 ) = 3x3 − 2x2 + 7x − 2

De aquí podemos ver que para que la igualdad se cumpla, los coeficientes de los términos
correspondientes deben ser iguales, es decir, los coeficientes del término x3 en ambos
miembros deben ser iguales, es decir c4 = 3 y de igual manera, los coeficientes de
los términos x2 en ambos lados de la igualdad deben cumplir que: c3 = −2. Estas dos
primeras condiciones nos muestran los valores para dos de los cuatro parámetros que
debemos despejar. Los otros dos parámetros deben cumplir que:

c1 + c2 = 7
c1 − c2 = −2

y al resolver el sistema obtenemos c1 = 5/2 y c2 = 9/2. Entonces podemos afirmar que


el vector sí es combinación lineal de los vectores del conjunto U. Para comprobar el
resultado, sustituimos los escalares en la combinación lineal:

c1 · (x + 1) + c2 · (x − 1) + c3 · x2 + c4 · x3 = 3x3 − 2x2 + 7x − 2
⇒ (5/2) · (x + 1) + (9/2) · (x − 1) + (−2) · x2 + 3 · x3 = 3x3 − 2x2 + 7x − 2
⇒ ((5/2)x + (5/2)) + ((9/2)x − (9/2)) − 2x2 + 3x3 = 3x3 − 2x2 + 7x − 2
⇒ 3x3 − 2x2 + (5/2 + 9/2)x + (5/2 − 9/2) = 3x3 − 2x2 + 7x − 2
⇒ 3x3 − 2x2 + 7x − 2 = 3x3 − 2x2 + 7x − 2

y vemos que se satisface la igualdad. 

4.3.1 El Conjunto Generado

Definición 4.4 — Conjunto Generado.


Dado un conjunto W = {v1 , v2 , ..., vn } de vectores de un espacio vectorial, definimos
el conjunto generado por W, representado gen(W ) como el conjunto conformado por
todas las combinaciones lineales que se pueden formar con los vectores de W.
152 Espacios Vectoriales

El conjunto generado contiene infinitas combinaciones lineales, por lo cual no es posible


indicar uno por uno a los vectores que pertenecen a este conjunto. En lugar de dar a cada uno
de los elementos que conforman al conjunto generado, se determina la forma que poseen
estos elementos, por medio de la combinaciones lineales que se forman. A continuación se
muestra una forma de determinar a un conjunto generado.

 Ejemplo 4.23
Determinar el conjunto gen(W ) en el espacio vectorial R2 si

W = {v1 , v2 , v3 } = {(1, −1), (2, −1), (−1, 4)}

El conjunto generado se forma con todas las combinaciones lineales del conjunto de
vectores W :

c1 · v1 + c2 · v2 + c3 · v3 = c1 (1, −1) + c2 (2, −1) + c3 (−1, 4)

donde c1 , c2 y c3 son escalares del campo R. Entonces

gen(W ) = {c1 · v1 + c2 · v2 + c3 · v3 | c1 , c2 , c3 ∈ R}
= {c1 (1, −1) + c2 (2, −1) + c3 (−1, 4)| c1 , c2 , c3 ∈ R}
= {(c1 , −c1 ) + (2c2 , −c2 ) + (−c3 + 4c3 )| c1 , c2 , c3 ∈ R}
= {(c1 + 2c2 − c3 , −c1 − c2 + 4c3 )| c1 , c2 , c3 ∈ R}

Esta última expresión nos permite identificar claramente la condición que se debe
cumplir para que un vector se encuentre dentro del conjunto generado gen(W ). Además
esto quiere decir que si queremos hallar a un elemento del generado únicamente debemos
seleccionar valores para los escalares c1 , c2 y c3 , por ejemplo, si c1 = 1, c2 = 1 y c3 = 1,
entonces podemos mostrar que el vector (2, 2) pertenece al conjunto gen(W ) ya que:

(c1 + 2c2 − c3 , −c1 − c2 + 4c3 ) = (1 + 2(1) − (1), −(1) − (1) + 4(1)) = (2, 2)

Teorema 4.8
Dado un conjunto W = {w1 , w2 , ..., wn } de vectores de un espacio vectorial V , entonces
el conjunto gen(W ) es un subespacio vectorial de V.

Supongamos que V es un espacio vectorial y W = {w1 , w2 , ..., wn } es un subconjunto de


vectores de V. Vamos a demostrar que gen(W ) forma un subespacio vectorial del espacio V.
4.3 Combinaciones Lineales 153

De acuerdo con el teorema 4.6, para que un subconjunto W forme un subespacio bastará
demostrar que se cumple que si v1 , v2 ∈ W, entonces
c1 v1 + c2 v2 ∈ W,
para cualesquiera dos escalares c1 y c2 .
Supongamos que:
v1 , v2 ∈ gen(W ),
esto quiere decir entonces que v1 y v2 son combinación lineal de los vectores de W, es decir,
existen dos conjuntos de escalares {c1 , c2 , ..., cn } y {d1 , d2 , ..., dn } tales que
v1 = c1 v1 + c2 v2 + · · · + cn vn ,
y
v2 = d1 v1 + d2 v2 + · · · + dn vn .
Entonces, si multiplicamos estos vectores por dos escalares cualesquiera k1 y k2 tendría-
mos que:
k1 v1 = k1 (c1 v1 + c2 v2 + · · · + cn vn )
⇒ k1 v1 = (k1 c1 )v1 + (k1 c2 )v2 + · · · + (k1 cn )vn
y por otro lado
k2 v2 = k2 (d1 v1 + d2 v2 + · · · + dn vn )
⇒ k2 v2 = (k2 d1 )v1 + (k2 d2 )v2 + · · · + (k2 dn )vn ,
luego, al sumar tenemos que

k1 v1 + k2 v2 = ((k1 c1 )v1 + (k1 c2 )v2 + · · · + (k1 cn )vn )


+ ((k2 d1 )v1 + (k2 d2 )v2 + · · · + (k2 dn )vn )
= (k1 c1 + k2 d1 )v1 + (k1 c2 + k2 d2 )v2 + · · · + (k1 cn + k2 dn )vn
y como podemos observar, el resultado de la suma de los productos por escalar de los
vectores v1 y v2 resulta ser también una combinación lineal, con lo cual k1 v1 + k2 v2 ∈
gen(W ), lo que prueba la condición necesaria y suficiente para demostrar que gen(W ) es un
subespacio vectorial del espacio V.

Definición 4.5 — Conjunto de generadores.


Dado un conjunto W = {v1 , v2 , ..., vn } de vectores de un espacio vectorial V, decimos
que W es un conjunto de generadores de V si gen(W ) = V.

 Ejemplo 4.24
Demostrar que el conjunto de vectores

W = {(1, 1), (1, −1)}


154 Espacios Vectoriales

forma un conjunto de generadores del R−espacio vectorial R2 .


Para que W sea un conjunto de generadores se debe cumplir que gen(W ) = R2 .
Primero calculamos:

gen(W ) = {c1 (1, 1) + c2 (1, −1)| c1 , c2 ∈ R}


= {(c1 + c2 , c1 − c2 )| c1 , c2 ∈ R}

Ahora, para demostrar que gen(W ) = R2 , afirmamos que no es posible que gen(W ) 6=
R2 ya que si fueran conjuntos distintos, entonces debería existir al menos un vector
que podemos representar por (x, y) ∈ R2 tal que (x, y) ∈ / gen(W ). En otras palabras si
gen(W ) 6= R entonces debería existir al menos un vector (x, y) que no sea combinación
lineal de los vectores de W.
Para que este vector (x, y) ∈
/ gen(W ) exista, entonces no deberían existir escalares c1
y c2 tales que
c1 (1, 1) + c2 (1, −1) = (x, y).
Esto implica que el sistema de ecuaciones lineales que se forma de esta igualdad no debe
tener solución:
c1 + c2 = x
c1 − c2 = y
pero si analizamos la matriz aumentada de este sistema veremos que el determinante de
la matriz de coeficientes es:
!
1 1
det = −2 6= 0
1 −1

con lo cual el sistema es compatible determinado sin importar los valores de (x, y), esto
quiere decir que nunca podremos encontrar un vector (x, y) que no pertenezca a gen(W ).
En conclusión, no podemos afirmar que gen(W ) 6= R2 , es decir gen(W ) = R2 , por lo
cual W es un conjunto de vectores generadores del espacio vectorial R2 . 

 Ejemplo 4.25
Determinar si el conjunto de vectores: U = {(1, 0, 1), (0, 1, 1), (1, 1, 2)} es un conjunto
de generadores del espacio vectorial R3 .
Empezamos calculando el espacio generado por los vectores de U.

gen(U) = {c1 (1, 0, 1) + c2 (0, 1, 1) + c3 (1, 1, 2)| c1 , c2 , c3 ∈ R}


= {(c1 , 0, c1 ) + (0, c2 , c2 ) + (c3 , c3 , 2c3 )| c1 , c2 , c3 ∈ R}
= {(c1 + c3 , c2 + c3 , c1 + c2 + 2c3 )| c1 , c2 , c3 ∈ R}
4.3 Combinaciones Lineales 155

Ahora trataremos de demosrar que gen(U) = R3 , para lo cual supondremos que


para cualquier vector (x, y, z) que tomemos en el espacio R3 , dicho vector también debe
pertenecer al conjunto gen(U). Para que esto ocurra, entonces debemos poder encontrar
escalares a1 , a2 y a3 tales que:

(x, y, z) = a1 (1, 0, 1) + a2 (0, 1, 1) + a3 (1, 1, 2),

desarrollando la expresión del lado derecho:

(x, y, z) = (a1 + a3 , a2 + a3 , a1 + a2 + 2a3 ),

lo cual forma el siguiente sistema de ecuaciones lineales:

a1 + a3 = x
a2 + a3 = y
a+ a2 + 2a3 = z

Aplicamos el método de reducción de Gauss a la matriz aumentada del sistema,


suponiendo que x, y, z son valores reales:
     
1 0 1 x 1 0 1 x 1 0 1 x
  R3 −R1 →R3   R3 −R2 →R3  
0 1 1 y  − − − − −−→ 0 1 1 y  −−−−−−→ 0 1 1 y 
     
1 1 2 z 0 1 1 z−x 0 0 0 −x − y + z

Entonces la forma escalonada del sistema de ecuaciones lineales es:

c1 + c3 = x
c2 + c3 = y
0 = −x − y + z

lo cual nos muestra que el sistema original (obtenido por la combinación lineal de
los vectores de U) puede ser compatible indeterminado o también podría llegar a ser
incompatible. La distinción entre estas dos posibilidades depende del resultado de
−x − y + z :
Si al sustituir los valores de las variables x, y y z obtenemos un valor igual a cero,
−x − y + z = 0, entonces el sistema será indeterminado, es decir existirán infinitas
soluciones y entonces el vector formado con estos valores, (x, y, z), pertenecerá al
conjunto gen(U).
156 Espacios Vectoriales

Por otro lado, si al sustituir los valores de las variables x, y y z obtenemos un


valor distnto de cero, −x − y + z 6= 0, entonces el sistema será indeterminado, lo
cual implicará que el vector formado con estos valores, (x, y, z), no pertenecerá al
conjunto gen(U).
En conclusión , entonces, podemos afirmar que gen(U) 6= R3 , ya que existen vectores
de R3 que no pertenecen a gen(U), por ejemplo (1, 1, 1) ∈ / gen(U), ya que en este caso
−x − y + z = −1 − 1 + 1 = 1 6= 0. 

4.4 Bases y dimensión de un Espacio Vectorial


Todos los vectores de un espacio vectorial se pueden generar como combinación lineal
de ciertos vectores, denominados básicos, esto implica que para definir un espacio vectorial
podríamos únicamente dar los vectores básicos junto con las operaciones definidas dentro
de dicho espacio y automáticamente, con ayuda de los vectores básicos y las combinaciones
lineales d estos, se podrían regenerar a todos los demás vectores.
En esta sección definimos la base de un espacio vectorial, sus propiedades y la forma de
calcularlos.

4.4.1 Dependencia e Independencia Lineal

Definición 4.6 — Conjuntos linealmente dependientes e independientes.


Sea V un espacio vectorial sobre un campo F. Se dice que los vectores v1 , ..., vm ∈ V son
linealmente dependientes sobre F, o simplemente dependientes, si existen escalares
a1 , ..., am ∈ K, no todos 0, tales que

a1 v1 + a2 v2 + ... + am vm = 0V

En caso contrario se dice que los vectores son linealmente independientes sobre F, o
simplemente independientes.

 Ejemplo 4.26
Vamos a determinar si el conjunto de vectores

W = {(1, 1), (1, −1), (3, 4)}

es linealmente independiente en el espacio vectorial R2 .


Para resolver el ejemplo planteado necesitamos calcular el número de soluciones que
4.4 Bases y dimensión de un Espacio Vectorial 157

posee la combinación lineal:

a1 (1, 1) + a2 (1, −1) + a3 (3, 4) = (0, 0)

Sabemos que la ecuación anterior posee al menos una solución (denominada la


solución trivial) que consiste en sustituir cada uno de los escalares por el núero 0,
a1 = 0, a2 = 0, a3 = 0, por lo cual la pregunta a responder sería saber si existe alguna
otra solución (no trivial) a esta ecuación.
Desarrollando la combinación lineal tenemos que:

(a1 + a2 + 3a3 , a1 − a2 + 4a3 ) = (0, 0),

y se forma el sistema de ecuaciones lineales:

a1 + a2 + 3a3 = 0
a1 − a2 + 4a3 = 0

Para resolver el sistema, aplicamos el método de Gauss-Jordan a la matriz aumentada


del sistema:
! !
R
1 1 3 0 R2 −R1 →R2 1 1 3 0 − 22 →R2
−−−−−−→ −−−−−→ · · ·
1 −1 4 0 0 −2 1 0

! !
7
1 1 3 0 R1 −R2 →R1 1 0 2 0
··· → −−−−−−→
0 1 − 12 0 0 1 − 12 0

El resultado final del proceso de gauss-Jordan nos muestra que el sistema escalonado
reducido de las ecuaciones formadas en la combinación lineal, tienen dos ecuaciones y
tres incógnitas y queda de la forma:

c1 + 72 c3 = 0
c2 − 12 c3 = 0

y observamos que el sistema es indeterminado, ya que para hallar los valores de las
incógnitas tendremos una variable libre c3 , y las soluciones quedan:

c1 = − 72 c3
1
c2 = 2 c3
c3 = libre
158 Espacios Vectoriales

por lo tanto la combinación lineal

(a1 + a2 + 3a3 , a1 − a2 + 4a3 ) = (0, 0)

tiene infinitas soluciones y el conjunto de vectores es linealmente dependiente. 

 Ejemplo 4.27
Demostrar que el conjunto
( ! ! !)
1 −1 −1 1 0 1
U= , ,
0 1 0 1 1 1

es un conjunto de vectores linealmente independientes en el R−espacio vectorial de


matrices M2×2 (R).
Para realizar la demostración calculamos la combinación lineal de estos vectores
igualada al vector cero del espacio:
! ! ! !
1 −1 −1 1 0 1 0 0
c1 + c2 + c3 =
0 1 0 1 1 1 0 0

! ! ! !
c1 −c1 −c2 c2 0 c3 0 0
+ + =
0 c1 0 c2 c3 c3 0 0

! !
c1 − c2 −c1 + c2 + c3 0 0
=
c3 c1 + c2 + c3 0 0

Igualando cada una de las componentes de las matrices involucradas en la ecuación


anterior se forma el sistema de ecuaciones lineales:

c1 − c2 = 0
−c1 + c2 + c3 = 0
c3 = 0
c1 + c2 + c3 = 0
4.4 Bases y dimensión de un Espacio Vectorial 159

Aplicamos el método de Gauss a la matriz aumentada del sistema:


   
1 −1 0 0 1 −1 0 0
   
 −1 1 1 0  R1 +R2 →R2  0 0 1 0  R4 −R1 →R4
 −−−−−−→ 
 0 0 1 0  −−−−−−→ · · ·
 
 0 0 1 0 
   
1 1 1 0 1 1 1 0

   
1 −1 0 0 1 −1 0 0
   
 0 0 1 0  R2 ↔R4  0 2 1 0  R4 −R3 →R4
··· → 
 0
−−−−→  − −−−−−→ · · ·
 0 1 0 

 0
 0 1 0 

0 2 1 0 0 0 1 0

 
1 −1 0 0
 
 0 2 1 0 
··· → 
 0

 0 1 0 

0 0 0 0

Y al resolver el sistema anterior encontramos que las únicas soluciones son c1 =


0, c2 = 0 y c3 = 0, con lo cual se comprueba que W es un conjunto de vectores lineal-
mente independientes. 

Teorema 4.9
Sea V un espacio vectorial y sean {v1 , v2 , ..., vn } ⊂ V, entonces:
Si 0V es uno de los vectores v1 , ..., vm , los vectores deben ser linealmente depen-
dientes.
Cualquier vector no nulo v es por sí solo linealmente independiente.
Si dos de los vectores son iguales, o si uno es un múltiplo escalar de otro, los
vectores son linealmente dependientes.
Si un conjunto S de vectores es linealmente independiente, necesariamente lo es
cualquier subconjunto de S.

 Ejemplo 4.28
En los siguientes conjuntos es fácil determinar si son linealmente independientes o
linealmente dependientes usando el teorema anterior.
160 Espacios Vectoriales

El conjunto {(1, 0), (0, 1), (0, 0)} es linealmente dependiente ya que el tercer vector
es el neutro aditivo, 0V , del espacio vectorial R2 .
En el espacio vectorial R[x], el conjunto que sólo continene a un vector: U =
{3x2 − 5x + 2}, es linealmente independiente.
En el espacio vectorial de matrices M2×3 (R), los vectores del conjunto
( ! ! !)
1 0 −1 0 1 1 2 0 −2
U= , , ,
0 1 1 1 0 1 0 2 2

son linealmente dependientes, ya que el tercer vector es igual al producto del


primero por el escalar 2.
En el ejemplo 4.27 se demostró que el conjunto de vectores
( ! ! !)
1 −1 −1 1 0 1
U= , ,
0 1 0 1 1 1

son linealmente independientes, entonces de acuerdo con el teorema anterior


podemos afirmar que el conjunto de vectores:
( ! !)
−1 1 0 1
U1 = ,
0 1 1 1

también es linealmente independiente.




Teorema 4.10
Para un conjunto no vacío de vectores S = {u1 , u2 , ..., un } en un espacio V, las siguientes
afirmaciones son verdaderas
Si S contiene un subconjunto l. d, entonces S por sí mismo es l. d.
Si S es l. i. entonces cualquier subconjunto de S es l. i.

4.4.2 Bases de un Espacio Vectorial

Definición 4.7 — Base.


Sean v1 , v2 , v3 , ..., vn vectores diferentes del vector cero, de un F-espacio vectorial V.
Diremos que el conjunto {v1 , v2 , v3 , ..., vn } forma una base de V, si cumple las siguientes
condiciones:
Los vectores v1 , v2 , v3 , ..., vn son linealmente independientes.
Los vectores forman un conjunto de generadores del espacio vectorial V.
4.4 Bases y dimensión de un Espacio Vectorial 161

 Ejemplo 4.29
Sean u = (−1, 2) y v = (3, 5). Demuestre que {u, v} constituye una base del R−espacio
vectorial R2 .
Solución

Primero demostraremos que u y v son linealmente independientes.


Supongamos que existen dos escalares c1 y c2 tales que:

c1 (−1, 2) + c2 (3, 5) = (0, 0),

⇒ (−c1 + 3c2 , 2c1 + 5c2 ) = (0, 0)).


Igualando las coordenadas de ambos vectores se forma el sistema de ecuaciones lineales:

−c1 + 3c2 = 0
2c1 + 5c2 = 0

y al resolver el sistema encontramos que las únicas soluciones son c1 = 0 y c2 = 0. Por


lo tanto los vectores son linealmente independientes.

Ahora probaremos que {u, v} generan a R2 .


En este caso se debe demostrar que para cualquier vector w en R2 ,existen α y β tales
que:
w = αu + β v
Como estamos tomando w ∈ R2 , entonces sabemos que w es de la forma w = (x, y),
con lo cual:
w = αu + β v
⇒ (x, y) = α(−1, 2) + β (3, 5)
⇒ (x, y) = (−α, 2α) + (3β , 5β )
⇒ (x, y) = (−α + 3β , 2α + 5β )
y se forma el sistema de ecuaciones lineales:

−α + 3β = x
2α + 5β = y

Del sistema de ecuaciones anterior se debe despejar tanto α como β en tréminos de


x e y para determinar la existencia (o inexistencia) de soluciones y saber si el conjunto
de vectores es generador (si existe solución) o no lo es (en caso de que las soluciones no
existan).
162 Espacios Vectoriales

Aplicamos reducción gaussiana a la matriz aumentada del sistema:


! !
−1 3 x 2R1 +R2 →R2 −1 3 x −R →R1
−−−−−−−→ −−−1−−→ ···
2 5 y 0 11 2x + y

! !
1 −3 −x 1
11 R2 →R2 1 −3 −x R +3R →R
1
··· → −−−−−→ (2x+y) −− −−−2−−→
1
···
0 11 2x + y 0 1 11

!
−5x+3y
1 0 11
··· → (2x+y)
0 1 11

Por lo anterior, dado cualquier vector w = (x, y) en R2 siempre es posible expresarlo


como combinación lineal de los vectores u y v, utilizando los escalares:
−5x + 3y 2x + y
α= y β= ,
11 11
es decir:
−5x + 3y 2x + y
(x, y) = (−1, 2) + (3, 5)
11 11
con lo cual, los vectors u y v sí son generadores de R2 . En conclusión el conjunto {u, v}
forma una base del espacio vectorial R2 . 

El proceso para demostrar que un conjunto de vectores forma una base de un espacio
vectorial, consiste en realizar dos pruebas sobre el conjunto: se debe demostrar que los
vectores son linealmente independientes y también se debe demostrar que los vectores
son generadores del espacio vectorial correspondiente. Este proceso puede resultar un
poco complicado, sin embargo existen ciertas bases para las cuales esta demostración
es relativamente sencilla. A continuación se ejemplifican algunas bases de los espacios
vectoriales tradicionalmente conocidos:

 Ejemplo 4.30
Los siguientes conjuntos son bases de los respectivos espacios vectoriales:
Una base para el R−espacio vectorial R2 esta dado por el conjunto de vectores:

{(1, 0), (0, 1)}.

En el espacio vectorial R3 una base consiste en los vectores:

{(1, 0, 0), (0, 1, 0), (0, 0, 1)}

En general el espacio vectorial Rn (con n ∈ N), tiene una base en el conjunto de la


4.4 Bases y dimensión de un Espacio Vectorial 163

forma:

{(1, 0, 0, . . . , 0), (0, 1, 0, . . . , 0), (0, 0, 1, . . . ), · · · , (0, 0, 0, . . . , 1)}

donde cada vector vi tiene n componentes y todas son cero excepto la componente
en la posición i que vale 1.
Una base para el espacio vectorial R[x] está dada por el conjunto infinito de la
forma:
{1, x, x2 , x3 , · · · , xn , · · · }
En el espacio vectorial de las matrices M2×2 (R), una base está conformada por los
vectores: ( ! ! ! ! )
1 0 0 1 0 0 0 0
, , , ,
0 0 0 0 1 0 0 1


Nota Las bases dadas en el ejemplo anterior se denominan frecuentemente como bases
canónicas de sus respectivos espacios vectoriales.

Si S es un conjunto de vectores que forman una base para un espacio vectorial V,


entonces los elementos de S son linealmente independientes, lo cual implica que cualquier
subconjunto de este conjunto también deberá contener vectores linealmente independientes.

Teorema 4.11
Si V es un espacio vectorial y S es una base de V entonces:
Cualquier subconjunto de S es linealmente independiente.
Cualquier subconjunto de S no es generador de V.
Cualquier conjunto que contenga a S será linealmente dependiente. y generador.

Nota Una base también se puede definir como un conjunto maximal de vectores l. i.,
en el sentido de que cualquier conjunto de vectores independientes no puede tener
más elementos que los que hay en S, sin importar cuales ean estos vectores. En otras
palabras, si sabemos que una base S de un espacio vectorial V está conformada por n
vectores, entonces no pueden existir conjuntos de vectores linealmente independientes
con más de n elementos.
Las bases también se definen como conjuntos minimales de vectores generadores,
lo cual quiere decir que una base siempre contendrá el menor número posible de
vectores que son generadores de un espacio vectorial. Esto quiere decir que si una base
S, de un espacio vectorial V, tiene n elementos, entonces ningún conjunto con menos
de n vectores podrá conformar un conjunto de generadores de ese espacio vectorial.

Los subespacios vectoriales se definieron como espacios vectoriales contenidos en otros


espacios vectoriales, por ello sería natural pensar también en la existencia de bases para
164 Espacios Vectoriales

estos subespacios. A continuación mostramos un ejemplo de una base para un subespacio


vectorial.

 Ejemplo 4.31
Encontrar una base para el conjunto de vectores que se encuentran en el plano definido
por:
P = {(x, y, z)| 2x − y + 3z = 0}
conformado por coordenadas en el espacio vectorial R3 .
En el ejemplo 4.17 ya demostramos que este conjunto efectivamente forma un
subespacio vectorial, ahora encontraremos una base para éste.
La condición 2x − y + 3z = 0 representa una ecuación con tres incógnitas, que para
resolverse necesita emplear dos variables artificiales: y y z, con lo cual entonces las
soluciones de la ecuación están dadas por
t − 3r
x= , y = t, z = r,
2
donde t y r son valores cualesquiera (variables libres). Entonces podemos definir al
conjunto P como:

P = {(x, y, z)| 2x − y + 3z = 0}
= {(x, y, z)| x = t−3r , y = t, z = r, ∧ r, t ∈ R}
 t−3r  2
= 2 ,t, r | r, t ∈ R

El vector ((t − 3r)/2,t, r) se puede descomponer como una suma de dos vectores
(t/2,t, 0) y (−3r/2, 0, r) y entonces:

P = {((t − 3r)/2,t, r)| r, t ∈ R}


= {(t/2,t, 0) + (−3r/2, 0, r)| t, r ∈ R}
= {t(1/2, 1, 0) + r(−3/2, 0, 1)| t, r ∈ R}

Ahora bien, la expresión t(1/2, 1, 0) + r(−3/2, 0, 1) representa las combinaciones


lineales de los vectores (1/2, 1, 0) y (−3/2, 0, 1), con lo cual entonces:

P = {t(1/2, 1, 0) + r(−3/2, 0, 1)| t, r ∈ R}


= gen({(1/2, 1, 0), (−3/2, 0, 1)}),

esto quiere decir que los vectores (1/2, 1, 0) y (−3/2, 0, 1) son generadores de P. Enton-
ces, para hallar la base del conjunto P sólo nos falta verificar que estos dos vectores sean
linealmente independientes.
4.4 Bases y dimensión de un Espacio Vectorial 165

Calculamos la combinación lineal de estos vectores y la igualamos a cero para


determinar el número de soluciones que tendrá esta ecuación:

c1 (1/2, 1, 0) + c2 (−3/2, 0, 1) = (0, 0, 0)


⇒ ((c1 − 3c2 )/2, c1 , c2 ) = 0

y al resolver el sistema de ecuaciones asociado obtenemos que c1 = 0, c2 = 0, lo cual


demuestra que los vectores (1/2, 1, 0)y (−3/2, 0, 1) son linealmente independientes.
Por lo tanto, una base para el conjunto P está dada por el conjunto de vectores:

{(1/2, 1, 0), (−3/2, 0, 1)}.

Supongamos que U = {v1 , v2 , . . . .vn } es una base para el espacio vectorial V y que
w ∈ V, entonces como U forma un conjunto de vectores generadores de V, deberían existir
al menos un conjunto de escalares {c1 , c2 , ..., cn } tales que:

w = c1 v1 + c2 v2 + ... + cn vn

Ahora supongamos que {d1 , d2 , ..., dn } forma otro conjunto de escalares tales que

w = d1 v1 + d2 v2 + ... + dn vn ,

entonces

w − w = (c1 v1 + c2 v2 + ... + cn vn ) − (d1 v1 + d2 v2 + ... + dn vn )


⇒ 0V = (c1 − d1 )v1 + (c2 − d2 )v2 + ... + (cn − dn )vn

y como los vectores v1 , v2 , ..., vn forman una base, entonces son linealmente independientes,
lo cual implica que la única forma en que la combinación lineal

(c1 − d1 )v1 + (c2 − d2 )v2 + ... + (cn − dn )vn

nos da como resultado al vector 0V es cuando sus coeficientes son todos 0, esto implica
entonces que:
c1 − d1 = 0, c2 − d2 = 0, · · · , cn − dn = 0
o bien:
c1 = d1 , c2 = d2 , ··· , cn = dn .
Esta argumentación es una prueba para el siguiente teorema.
166 Espacios Vectoriales

Teorema 4.12
Si {v1 , v2 , ..., vn } es una base para un espacio vectorialV y si w ∈ V, entonces existe
un conjunto único de escalares c1 , c2 , ..., cn tales que

w = c1 v1 + c2 v2 + ... + cn vn .

4.4.3 Dimensión de un Espacio Vectorial

Definición 4.8 — Dimensión de un Espacio Vectorial.


La dimensión de un espacio vectorial V se define como:
dim(V ) = número de vectores en cualquier base de V.
= número de vectores en cualquier conjunto minimal
de vectores generadores de V.
= número de vectores en cualquier conjunto maximal de vectores l.i.

 Ejemplo 4.32
Continuando con el ejemplo 4.30, podemos dar las dimensiones de los espacios vectoria-
les tradicionalmente conocidos:
dim(R2 ) = 2.
dim(R3 ) = 3.
dim(Rn ) = n, siempre que n ∈ N.
dim(M2×2 (R)) = 4.
dim(R[x]) = ∞.


Teorema 4.13
Supongamos que V es un espacio vectorial de dimensión finita, y que W forma un
subespacio vectorial de V, entonces:
dim(W ) ≤ dim(V ).
Si dim(W ) = dim(V ), entonces W = V.

Para concluir esta sección resumimos algunas propiedades básicas de las bases:
La base de un espacio vectorial V no es única.
Todas las bases de V tienen exactamente el mismo número de elementos.
Cualquier conjunto de vectores de un espacio vectorial V de dimensión n que contenga
n + 1 vectores es linealmente dependiente.
Si un conjunto de vectores de un espacio vectorial V de dimensión n tiene n vectores
linealmente independientes, entonces es una base de V.
4.5 Producto Interno 167

4.5 Producto Interno


El producto interno en los espacios vectoriales de R2 y R3 , es una función que nos
permite definir algunos conceptos tradicionales como la longitud (o norma) de un vector
y el ángulo entre vectores en esos espacios, sin embargo no todos los espacios vectoriales
cuentan con producto interno. En esta sección se define esta función para los espacios
vectoriales en general junto con algunas de sus propiedades básicas.

Definición 4.9
Un producto interno en un espacio vectorial real (o complejo) V es una función que
mapea cada par ordenado de vectores (x, y) a un escalar real (o complejo) hx|yi tal que
las siguientes cuatro propiedades se cumplan:
1. hx|yi es real con hx|xi ≥ 0, y hx|xi = 0 si y solo si x = 0.
2. hx|αyi = αhx|yi.
3. hx|y + zi = hx|yi + hx|zi.
4. hx|yi = hy|xi para espacios reales.

Un producto interno para los espacios vectoriales Rn está definido para vectores de la
forma u = (a1 , ..., an ), v = (b1 , b2 , ..., bn ) por la función:

n
hu|vi = ∑ ak bk = a1b1 + a2b2 + ... + anbn.
k=1

Afirmamos, por ejemplo, que la función

hu|vi = a1 b1 + a2 b2

es un producto interno para vectores u = (a1 , a2 ), v = (b1 , b2 ) en el espacio vectorial R2 ya


que:
Propiedad 1: es claro que hu|vi = a1 b1 + a2 b2 ∈ R
También tenemos que: hu|ui = a1 a1 + a2 a2 = a21 + a22 y este resultado siempre será
diferente de cero a menos que a1 = 0 y a2 = 0.
Propiedad 2: Si r ∈ R

⇒ hu|rvi = h(a1 , a2 )|(rb1 , rb2 )i


= a1 (rb1 ) + a2 (rb2 )
= r(a1 b1 + a2 b2 )
= rhu|vi
168 Espacios Vectoriales

Propiedad 3: Si w = (c1 , c2 )

⇒ hu|v + wi = h(a1 , a2 )|(b1 + c1 , b2 + c2 )i


= a1 (b1 + c1 ) + a2 (b2 + c2 )
= a1 b1 + a1 c1 + a2 b2 + a2 c2
= (a1 b1 + a2 b2 ) + (a1 c1 + a2 c2 )
= hu|vi + hu|wi

Propiedad 4:
hu|vi = h(a1 , a2 )|(b1 b2 )i
= a1 b1 + a2 b2
= b1 a1 + b2 a2
= h(b1 , b2 )|(a, a2 )i
= hv|ui
y con estas propieades demostramos que la función dada sí es un producto interno en el
espacio R2 .

Nota Podemos definir un producto interno análogo al ejemplificado en el párrafo anterior


de la forma:
h(a1 , a2 , a3 )|(b1 , b2 , b3 )i = a1 b1 + a2 b2 + a3 b3 .

Estos productos internos también son llamados producto punto, producto escalar o
producto euclideano.

 Ejemplo 4.33
Calcular el producto interno de los vectores u = (2, −5) y v = (2, 1) suando el producto
escalar definido anteriormente.

hu|vi = h(2, −5)|(2, 1)i


= (2)(2) + (−5)(1)
= 4−5
= −1


 Ejemplo 4.34
Calcular el producto escalar de los vectores u = (2, −1, 0) y v = (5, 0, −3), en el espacio
vectorial R3 .
4.5 Producto Interno 169

hu|vi = h(2, 1, 0)|(5, 0, −3)i


= (2)(5) + (1)(0) + (0)(−3)
= 10 + 0 + 0
= 0.


4.5.1 Normas
Un primer resultado que se puede obtener a partir del producto interno es el concepto
de norma de vectores en un espacio vectorial. Aunque dicho concepto es más general
en términos matemáticos, aquí nos centraremos principalmente en su aplicación para los
espacios R2 y R3 , donde la norma se puede interpretar geométricamente como la longitud
de un vector en el plano o el espacio.

Definición 4.10 — La norma de un vector.


Si V es un espacio vectorial con producto interno hu|vi, entonces definimos la norma de
un vector v ∈ V como: p
kvk = hv|vi

Usando el producto escalar en el espacio vectorial R2 podemos formar la norma de


vectores v = (a, b) como:
p
kvk = hv|vi
p
= h(a, b)|(a, b)i

= a·a+b·b

= a2 + b2
A esta se le denomina la norma euclideana y de manera análoga podemos definir la
norma euclideana en el espacio R3 :
p
kvk = hv|vi

= a2 + b2 + c2
donde v = (a, b, c).

 Ejemplo 4.35
Calcular la norma euclideana del vector (2, −3, 1).
p
k(2, −3, 1)k = 22 + (−3)2 + 12

= 4+9+1

= 14.
170 Espacios Vectoriales
1.0

0.5

-1.0 -0.5 0.5 1.0

ÈÈvÈÈ=1
-0.5

v
-1.0

 
Figura 4.4: Vector v = √1 , − √1 y su norma.
2 2

 Ejemplo 4.36
Calcular la norma euclideana del vector ( √12 , − √12 ).
r  
2 2
k( √12 , − √12 )k = √1 , − √1
q 2 2
1 1
= +
√2 2
= 1
= 1


En los espacios vectoriales R2 y R3 la norma euclideana se asocia geométricamente con


la longitud de la flecha asociada con los vectores a los que se les calcula la norma. La figura
4.4 muestra el vector del ejemplo anterior con su longitud correspondiente.
4.5 Producto Interno 171

4.5.2 Propiedades del producto interno y la norma


Teorema 4.14 p
Si V es un espacio vectorial con producto interno, si definimos la norma k∗k = h∗|∗i,
entonces
khx|yik ≤ kxk ∗ kyk.
hx|yi
la igualdad se cumple si y solo si y = αx con α = .
kxk2

Por propiedades del producto interno sabemos que

hu|ui ≥ 0,

de lo cual se desprende una primera propiedad de la norma euclideana


p
kuk = hu|ui ∈ R,

Además
p
kuk = 0 ⇒ hu|ui = 0
⇒ hu|ui = 0
⇒ u = 0V (por propiedades del producto interno) euclideano)

Por otro lado, es claro que si u = 0V , entonces kuk = 0.


Otra de las propiedades de la norma euclideana, que podemos derivar del producto
interno involucra el cálculo siguiente:
p
kruk = hru|rui
p
= r2 hu|ui
= |r|kuk

Entonces, de las propiedades del producto interno se derivan las siguientes propieadades de
las normas:

Teorema 4.15
Si u ∈ Rn y r es un escalar, entonces se cumplen las siguientes propiedades:
a) kuk > 0 si u 6= 0V .
b) kuk = 0 si y sólo sí u = 0.
c) kruk = |r|kuk.
172 Espacios Vectoriales

A+B
A+B

Ha1 ,a2 L
ÈÈA+BÈÈ
ÈÈBÈÈ ÈÈBÈÈ ÈÈA+BÈÈ

Hb1 ,b2 L

ÈÈAÈÈ
ÈÈAÈÈ

Figura 4.5: Representación gráfica de dos vectores ortogonales

Teorema 4.16 — Desigualdad del triángulo).


Si u y v son vectores en Rn entonces:

ku + vk ≤ kuk + kvk,

más aún, la igualdad se cumple si y sólo si u = 0, o v = ru para algún escalar r > 0.

Es fácil observar que

ku + vk2 = kuk2 + kvk2 + 2hu|vi

pero geométricamente cuando los vectores forman flechas que son perpendiculares entre sí
(ver figura 4.5), por el teorema de Pitágoras entonces tendríamos que:

ku + vk2 = kuk2 + kvk2 ,

esto identifica que cuando los vectores son perpendiculares entonces hu|vi = 0, con lo cual
obtenemos la siguiente definición:

Definición 4.11
Dos vectores u y v en Rn se dice que son perpendiculares u ortogonales si hu|vi = 0.

 Ejemplo 4.37
Demuestre que los vectores (1, 2, −3) y (3, 0, 1) son perpendiculares entre sí.

h(1, 2, −3)|(3, 0, 1)i = (1)(3) + (2)(0) + (−3)(1) = 3 + 0 − 3 = 0.


la figura 4.6 muestra estos vectores. 

El producto interno tiene otra interpretación geométrica interesante. Observe la figura


4.7.
4.5 Producto Interno 173

2
-4

-2
-

z -2
0
0
y 0

2
x 2
4

-2 4

-4

Figura 4.6: Representación gráfica de dos vectores ortogonales (ver ejemplo 4.37)

Ahora bien, de acuerdo con la figura tenemos:

tB +C = A

y calculando el producto interno por el vector B en ambos lados de la igualdad tenemos:

⇒ htB +C|Bi = hA|Bi,

aplicamos la propiedad distributiva del producto interno en el término izquierdo:

⇒ htB|Bi + hC|Bi = hA|Bi,

y como B y C son perpendiculares, entonces hC|Bi = 0, entonces podemos despejar el


escalar t :
hA|Bi hA|Bi
⇒t = = .
hB|Bi kBk2
Por otro lado, usando el triángulo rectángulo de la figura 4.7:

ktBk tkBk
Cos(θ ) = = .
kAk kAk
luego juntando estos dos resultados tenemos que

hA|Bi
Cos(θ ) =
kAkkBk

⇒ hA|Bi = kAkkBkCos(θ ).
174 Espacios Vectoriales
C A=tB+C

tB

Figura 4.7: Construcción geométrica de la proyección ortogonal

Definición 4.12 — proyección Ortogonal.


Sean A y B dos vectores en Rn , con B 6= 0. el vector tB donde

hA|Bi
t=
hB|Bi

es llamado la proyección ortogonal de A sobre B. Si ambos A y B son no cero, el


ángulo entre A y B está dado por:
 
−1 hA|Bi
θ = Cos .
kAkkBk

Teorema 4.17
Si u y v son dos vectores no nulos, entonces:

hu|vi = kukkvkCos(θ ).

4.6 Base Ortonormal y Proceso de Grahm-Schmidt


Otro resultado de la existencia del producto interno en un espacio vectorial reside en la
capacidad de calcular cierto tipo de bases que cumplan características singulares en dichos
espacios. Estas bases se conocen como bases ortogonales y bases ortonormales, las cuales
se definen y calculan en esta sección.

Definición 4.13 — Base Ortogonal.


Sea V un espacio vectorial con producto interno y sea W = {v1 , v2 , ..., , vn } una base de
V , entonces decimos que W es una base ortogonal si se cumple que hvi |v j i = 0 para
cada pareja diferente de elementos de W.
4.6 Base Ortonormal y Proceso de Grahm-Schmidt 175

 Ejemplo 4.38
El conjunto de vectores:
W = {(−1, 3), (6, 2)}
forma una base ortogonal para el espacio vectorial R2 .
Para comprobar esta afirmación primero verificamos que los vectores son linealmente
independientes. Calculamos las soluciones de la combinación lineal:

c1 (−1, 3) + c2 (6, 2) = (0, 0)


(−c1 , 3c1 ) + (6c2 , 2c2 ) = (0, 0)
(−c1 + 6c2 , 3c1 + 2c2 ) = (0, 0)

y si calculamos el determinante de la matriz de coeficientes tenemos que:


!
−1 6
det = −20 6= 0
3 2

por lo cual el sistema es compatible determinado, es decir que únicamente tiene una
solución (la trivial) y por lo tanto los vectores son linealmente independientes.
Ahora comprobamos que los vectores son generadores del espacio vectorial. Calcula-
mos el conjunto generado por estos vectores:

gen(W ) = {c1 (−1, 3) + c2 (6, 2)| c1 , c2 ∈ R}


= {(−c1 + 6c2 , 3c1 + 2c2 )| c1 , c2 ∈ R}

y si suponemos que (x, y) ∈


/ gen(W ), entonces el sistema de ecuaciones siguiente no
debería tener solución:
−c1 + 6c2 = x
3c1 + 2c2 = y
pero como comentamos anteriormente, la matriz de coeficientes tiene determinante
diferente de cero, con lo cual el sistema siempre tendrá solución sin importar los valores
de (x, y). Entonces gen(W ) = R2 .
Ya hemos probado que los vectores forman una base, para finalizar veamos que son
ortogonales entre sí:

h(−1, 3)|(6, 2)i = (−1)(6) + (3)(2) = 0

En conclusión los vectores del conjunto W forman una base ortogonal para el espacio
vectorial R2 . 
176 Espacios Vectoriales

 Ejemplo 4.39
Las bases canónicas de Rn son bases ortogonales. Por ejemplo, la base:

{(1, 0, 0), (0, 1, 0), (0, 0, 1)}

del espacio R3 es una base ortogonal.


Para ver esto, calculamos los productos internos:

h(1, 0, 0)|(0, 1, 0)i = (1)(0) + (0)(1) + (0)(0) = 0


h(1, 0, 0)|(0, 0, 1)i = (1)(0) + (0)(0) + (0)(1) = 0
h(0, 1, 0)|(0, 0, 1)i = (0)(0) + (1)(0) + (0)(1) = 0


Definición 4.14 — Bases Ortonormal.


Sea V un espacio vectorial con producto interno y sea w = {v1 , v2 , . . . , vn } un base de V ,
entonces decimos que w es una base ortonormal si se cumple que
hvi |v j i = 0 para cada pareja diferente de elementos de w.
1.
2. v j = 1 para cada vector de la base.

 Ejemplo 4.40
El conjunto de vectores
(  r !  )
1 1 1 2 1 1 −1 1
W = {v1 , v2 , v3 } = √ ,√ ,√ , − ,√ ,√ , 0, √ , √
3 3 3 3 6 6 2 2

forman una base ortonormal del espacio vectorial R3 .


Omitiremos la prueba de que el conjunto es una base para concentrarnos en demostrar
que los vectores son ortonormales. Primero calculamos los productos escalares entre los
vectores de la base, empezando con v1 y v2 :
4.6 Base Ortonormal y Proceso de Grahm-Schmidt 177

   q    q       
√1 , √1 , √1 2 √1 √1
| − 3, 6, 6 = √1 − 23 + √13 √1 + √13 √1
3 3 3 3 6 6
 √     
− 2
= 3 + √118 + √118
 √     
− 2 1 1
= 3 + √
3 2
+ √
3 2
 √   
− 2 2
= 3 + 3√ 2
 √  √ √ 
− 2
= 3 + 32√22
 √  √ 
− 2
= 3 + 32

= 0

Para v1 y v3 tenemos:

D   E        
√1 , √1 , √1 −1 √1 √1 (0) + √1 −1
3 3 3
| 0, √2
, 2
= 3 3

2
+ √13 √1
2
   
−1
= (0) + √ 6
+ √16

= 0

Y por último para v2 y v3

 q     q       
2 √1 √1 −1 1 −1
− 3 , 6 , 6 | 0, √2 , √2 = − 23 (0) + √16 √
2
+ √16 √1
2
   
= (0) + √−1
12
+ √112

= 0

Esto demuestra que los vectores son ortogonales entre sí. Ahora calculamos la norma
de cada uno de ellos, empezando con v1
178 Espacios Vectoriales

   2  2  2
√1 √1 √1 √1
3, 3, 3 = 3
+ √13 + √13
1
= 3 + 13 + 13

= 1

El módulo de v2 es:

 q   q 2    
2 2
2 1 1
− 23 + √16 + √16


3, 6, 6 =
√ √

2
= 3 + 16 + 16
2
= 3 + 26

= 1

Y por último el módulo de v3 es:

   2  2
−1 √1 2 −1
0, √ , = (0) + √ + √12

2 2 2

= 0 + 12 + 12

= 1

Y con esto demostramos entonces que los vectores:


(  r !  )
1 1 1 2 1 1 −1 1
W = {v1 , v2 , v3 } = √ ,√ ,√ , − ,√ ,√ , 0, √ , √
3 3 3 3 6 6 2 2

forman una base ortonormal para R3 . La figura 4.8 muestra la representación gráfica de
estos vectores en el espacio R3 . 

4.6.1 Proceso de Ortonormalización de Grahm-Schmidt

El proceso de ortonormalización de Grahm-Schmidt nos permite convertir una base


cualquiera en una base ortonormal con ayuda del producto interno en un espacio vectorial
donde esté definido.
4.6 Base Ortonormal y Proceso de Grahm-Schmidt 179
1

-1

Figura 4.8: Vectores que forman una base ortonormal en R3 (ver ejemplo 4.40).

Definición 4.15 — Proceso de Ortonormalización de Grahm-Schmidt.


Sea W = {v1 , v2 , ..., vm } una base de un espacio vectorial V. Podemos crear una base
ortonormal a partir de la base W, aplicando el siguiente proceso
Paso 1: Elección de primer vector unitario
v1
u1 = .
|v1 |

Paso 2: Elección del segundo vector ortogonal a u1 .

v02 = v2 − (hv2 |u1 i) u1

Paso 3: Elección del segundo vector unitario

v02
u2 = 0 .

v2

Paso 4: Fórmula general para calcular el vector v0k+1

v0k+1 = vk+1 − (hvk+1 |u1 i) u1 − (hvk+1 |u2 i) u2 − ... − (hvk+1 |uk i) uk

Paso 5: Fórmula general de normalización para hallar vectores unitarios

v0
uk+1 = k+1 .
v0k+1

 Ejemplo 4.41
Vamos a aplicar el proceso de Grahm-Schmidt en el espacio vectorial V = R3 con la base
180 Espacios Vectoriales

S = {(1, 1, 1), (0, 1, 1), (0, 0, 1)} :


Aplicamos el paso 1: Seleccionamos  el primer
 vector unitario de la nueva base
v1 (1,1,1) (1,1,1)
u1 = || v k = k(1,1,1)k = √3 = √13 , √13 , √13
1
Paso 2: Calculamos el segundo vector, ortogonal al primero.

v02 = v2 − (v2 · u1 ) u1
D  E  
1 √1 √1 1 √1 √1
= (0, 1, 1) − (0, 1, 1)| 3 , 3 , 3
√ √
3
, 3, 3
  
= (0, 1, 1) − 0 + √13 + √13 √1 , √1 , √1
3 3 3
2 2 2

= (0, 1, 1) − 3, 3, 3

−2 1 1

= 3 , 3, 3 .

Paso 3: Normalizamos el vector obtenido en el paso anterior para obtener el


segundo vector de la base ortonormal.

v02
u2 =
|v02 |
( −2 1 1
3 ,3,3)
= −2 1 1
k( 3 , 3 , 3 )k
( −2

1 1
3 ,3,3)
=
6/9
−2 1 1
(√ 3 ,3,3 )
=
2/3
 q 
2 √1 √1
= − 3, 6, 6

Paso 4: Aplicamos la fórmula general para calcular el siguiente vector perpendi-


cular a los ya calculados de la nueva base.
4.6 Base Ortonormal y Proceso de Grahm-Schmidt 181

v03 = v3 − (v3 · u1 ) u1 − (v3 · u2 ) u2


D  E  
= (0, 0, 1) − (0, 0, 1)| √13 , √13 , √13 √1 , √1 , √1
3 3 3
  q   q 
2 √1 √1 2 √1 √1
− (0, 0, 1)| − 3 , 6 , 6 − 3, 6, 6
     q 
1 1 1 1 1 2 1 1
= (0, 0, 1) − √3 √ ,√ ,√
3 3 3
− √6 − 3 , √6 , √6

1 1 1
− − 31 , 16 , 16
 
= (0, 0, 1) − 3, 3, 3

0, − 12 , 21

=

Paso 5: Normalizamos el vector anterior para hallar el tercer vector unitario de la


nueva base.

v03
u3 =
|v03 |
(0,− 12 , 12 )
=
k(0,− 12 , 12 )k
1 1
(0,− , )
q2 2
= 1
2
 
−1 √1
= 0, √2
, 2

Entonces base ortonormal obtenida con el proceso de Ortonormalización de Grahm-


Schmidt es:
(  r !  )
1 1 1 2 1 1 −1 1
√ ,√ ,√ , − ,√ ,√ , 0, √ , √
3 3 3 3 6 6 2 2

En el ejemplo 4.40 anteriormente mostrado, verificamos que esta base cumple las
condiciones de ortonormalidad. 
5 — Transformaciones Lineales

En los cursos tradicionales de cálculo, se inicia definiendo el conjunto de números reales,


como los objetos con los que se trabajará durante todo el curso, se definen sus propiedades
y operaciones y se representan en la recta real. Posteriormente se definen las funciones entre
los números reales como transformaciones que convierten a cada uno de estos objetos bajo
ciertas reglas de la forma:

f :R→R

y se estudian las características ideales de estas funciones: la continuidad, la diferenciabili-


dad, el área bajo la curva, etc.
De manera análoga, en el capítulo anterior se definió el conjunto denominado espacio
vectorial, junto con sus propiedades y operaciones. Ahora, en este capítulo, estudiaremos
las “funciones” que pueden definirse entre estos objetos (los espacios vectoriales) junto
con sus propiedades principales. Primero que nada cabe mencionar que las funciones
que nos interesa estudiar se denominan transformaciones lineales y a diferencia de las
funciones estudiadas en los cursos de cálculo, no estamos interesados en su continuidad
o diferenciabilidad, sino más bien nos centraremos en la linealidad de las fórmulas que
definen a estas funciones.
Como veremos más adelante, la propiedad de linealidad en las transformaciones lineales,
nos permitirá estudiar características particulares de los espacios vectoriales sobre los que
se aplique la transformación, así entonces, propondremos estudiar la dimensión y las bases
de los espacios vectoriales por medio de la transformación lineal. Además, en algunos
casos particulares, también podremos asociar la fórmula de una transformación lineal entre
espacios vectoriales, con cierto tipo especial de matrices y entonces podremos emplear
muchos de los resultados obtenidos en el capítulo dos de este libro.
184 Transformaciones Lineales

5.1 Definiciones básicas


Nuevamente, como en cada uno de los capítulos anteriores, iniciamos la exposición del
contenido dando la definición del objeto con el cual se trabajará. En este caso empezamos
con la definición de las transformaciones lineales entre espacios vectoriales y daremos
algunos ejemplos de este tipo de funciones.

Definición 5.1 — Transformación lineal.


Sean U y V espacios vectoriales sobre un campo F.
Una transformación lineal de U sobre V está definida como una función lineal T
que mapea a U sobre V. Es decir,

T (u + w) = T (u) + T (w)

y
T (αu) = αT (u)
o bien equivalentemente

T (αu + β w) = αT (u) + β T (w)

Un operador lineal sobre U es una transformación lineal de U en sí mismo.

El lector puede observar que en la definición anterior no se especifica cuál es la fórmula


que se debe aplicar entre espacios vectoriales para formar una transformación lineal, esto
implica que dicha fórmula puede ser cualquiera que elijamos, sin emabrgo es importante
considerar las propiedades que la fórmula seleccionada debe satisfacer para considerarse
transformación lineal. Por este motivo, el trabajo inicial que tenemos que desarrollar consiste
en comprobar que tipos de fórmulas forman transformaciones lineales y cuáles no.
Por otro lado, la transformación lineal se puede definir entre dos espacios vectoriales
cualesquiera, esto implica que en muchos casos, dichas transformaciones se definen sobre
elementos demasiado abstractos, debido a la naturaleza propia de los espacios vectoriales.
Sin embargo (si los espacios vectoriales sobre los cuales se define una transformación
lineal son de la forma Rn ), en ocasiones es posible tener una interpretación geométrica del
significado de la aplicación de dicha transformación lineal como veremos a continuación.

5.1.1 Transformaciones Lineales sobre Rn


En esta sección se presentarán cinco transformaciones lineales especiales que se definen
sobre los espacios vectoriales de tipo Rn : la proyección, la dilatación, la contracción, la
reflexión y la rotación. Una ventaja de estas transformaciones es que podemos visualizar
su efecto gráficamente, en el plano y en el espacio (R2 y R3 ), sobre los vectores en los
que se apliquen, además de que resulta relativamente fácil demostrar que estas funciones
efectivamente forman transformaciones lineales.
5.1 Definiciones básicas 185

Proyección

Definición 5.2 — Proyección.


Definimos la proyección como la transformación lineal dada por:

T : Rn → Rn
T (x1 , x2 , ..., xn ) = (x1 , x2 , ..., xi−1 , 0, xi+1 , ..., xn ),

es decir, la proyección convierte en 0 a la componente xi de la coordenada que se evalúe.

Las proyecciones que nos interesan estudiar son las que se aplican sobre los espacios R2
yR3 ya que estas tienen una interpretación gráfica, a continuación se muestra un ejemplo
de una proyección.

 Ejemplo 5.1
La función:
T : R3 → R3
definida como T (x, y, z) = (x, y, 0), es una trasnformación lineal.
Para demostrar la afirmación anterior tomemos:

u = (a, b, c); w = (d, e, f ),

y α, β ∈ R, entonces:

T (αu + β w) = T (α(a, b, c) + β (d, e, f ))


= T ((αa, αb, αc) + (β d, β e, β f ))
= T (αa + β d, αb + β e, αc + β f )
= (αa + β d, αb + β e, 0)

Por otro lado:

αT (u) + β T (w) = αT (a, b, c) + β T (d, e, f )


= α(a, b, 0) + β (d, e, 0)
= (αa, αb, 0) + (β d, β e, 0)
= (αa + β d, αb + β e, 0)

con lo cual demostramos que

T (αu + β w) = αT (u) + β T (w),


186 Transformaciones Lineales

es decir, T cumple la condición de la definición de transformación lineal.


Esta transformación lineal recibe el nombre de proyección en el plano XY. 

La proyección se puede realizar sobre cualquiera de los planos en R3 . La figura 5.1


muestra la representación gráfica de la proyección del ejemplo anterior aplicado al vector
T (2, 3, 4) = (2, 3, 0).

u
3

0
1
1
2 2
3

THuL

Figura 5.1: Proyección sobre el plano XY.

Otras proyecciones son:


Proyección sobre el plano XZ :

T (x, y, z) = (x, 0, z).

La figura 5.2 muestra un ejemplo de aplicación de la proyección: T (2, 3, 4) = (2, 0, 4).

Proyección sobre el plano Y Z :

T (x, y, z) = (0, y, z).

La figura 5.3 muestra un ejemplo de aplicación de la proyección: T (2, 3, 4) = (0, 3, 4).

En general, las proyecciones se pueden definir en cualquier espacio vectorial de la forma


Rn ,aunque las únicas que podemos representar gráficamente son las proyecciones en el
espacio R3 y en el plano R2 .
5.1 Definiciones básicas 187

4
THuL

3 u

0
1
1
2
2
3

Figura 5.2: Proyección sobre el plano XZ.

Dilatación
Definición 5.3 — Dilatación.
Definimos la dilatación como la transformación lineal dada por la función:

T : Rn → Rn
T (x1 , x2 , ..., xn ) = r(x1 , x2 , ..., xn ),

con r ∈ R, r > 1.

 Ejemplo 5.2
A continuación comprobaremos que la dilatación para el espacio vectorial R3 , es una
transformación lineal. Primero calculamos el lado izquierdo de la condición dada en
la definición de transformación lineal. Sean u = (a, b, c), w = (d, e, f ) vectores, y sean
α, β ∈ R, entonces:

T (αu + β w) = T (α(a, b, c) + β (d, e, f ))


= T ((αa, αb, αc) + (β d, β e, beta f ))
= T (αa + β d, αb + β e, αc + β f )
= r(αa + β d, αb + β e, αc + β f )
= (r(αa + β d), r(αb + β e), r(αc + β f ))
188 Transformaciones Lineales
4

3
THuL
u 2

1 1
2
2

Figura 5.3: Proyección sobre el plano Y Z.

por otro lado:

αT (u) + β T (w) = αT (a, b, c) + β T (d, e, f )


= α(r(a, b, c)) + β (r(d, e, f ))
= (rαa, rαb, rαc) + (rβ d, rβ e, rβ f )
= (rαa + rβ d, rαb + rβ e, rαc + rβ f )
= (r(αa + β d), r(αb + β e), r(αc + β f ))

con lo cual se cumple que:

T (αu + β w) = αT (u) + β T (w)

Esta transformación lineal recibe el nombre de Dilatación en el espacio R3 . 

La dilatación también se puede definir sobre el plano R2 . Además la dilatación también


tiene una interpretación gráfica, por ejemplo la figura 5.4 muestra la dilatación en el plano
aplicado a cuatro vectores distintos.

 Ejemplo 5.3
Sean
u1 = (2, 3), u2 = (−3, 2), u3 = (−1, −1), u4 = (3, −3),
aplique la dilatación en el plano con r = 2.
Aplicando la transformación lineal a cada uno de los vectores anteriores tenemos:
T (u1 ) = T (2, 3) = 2(2, 3) = (4, 6).
T (u2 ) = T (−3, 2) = 2(−3, 2) = (−6, 4).
5.1 Definiciones básicas 189
6 THu1L
5
THu2L
4

3 u1
u2
2

-6 -5 -4 -3 -2 -1 1 2 3 4 5 6

u3
-1

THu3L -2
u4
-3

-4

-5

-6 THu4L

Figura 5.4: Dilatación en el plano con r = 2.

T (u3 ) = T (−1, −1) = 2(−1, −1) = (−2, −2).


T (u4 ) = T (3, −3) = 2(3, −3) = (6, −6)
La figura 5.4 muestra en color azul los vectores u1 , u2 , u3 y u4 , y en color rojo
punteado a los vectores T (u1 ), T (u2 ), T (u3 ) y T (u4 ). 

Contracción
Definición 5.4 — Contracción.
Definimos la función de contracción como la transformación lineal dada por:

T : Rn −→ Rn
T (x1 , x2 , ..., xn ) = r(x1 , x2 , ..., xn )

con r ∈ R, 0 < r < 1.

 Ejemplo 5.4
La demostración de que la contracción es una transformación lineal es similar a la de
la dilatación, ya que la única variación entre estas dos, está en la condición impuesta al
valor de r.
Como ejemplo, vamos a mostrar la aplicación de la contracción en R3 , tomando
r = 0,5. Sean
u1 = (4, 6, 2), u2 = (−8, 2, 4), u3 = (−4, −4, 6),
entonces
T (u1 ) = 0,5(4, 6, 2) = (2, 3, 1).
T (u2 ) = 0,5(−8, 2, 4) = (−4, 1, 2).
190 Transformaciones Lineales

T (u3 ) = 0,5(−4, −4, 6) = (−2, −2, 3).


la figura 5.5 muestra la representación gráfica de esta transformación en el espacio. Las
flechas rojas punteadas representan los vectores originales y las flechas azules representan
los vectores transformados. 

u3

z
u2

THu3L

2 THu2L

-5

THu1L
0
0 u1
0
y
5
x

Figura 5.5: Contracción en el espacio con r = 0,5.

Reflexión
Definición 5.5 — Reflexión.
Definimos la Reflexión como la transformación lineal dada por:

T : Rn → Rn
T (x1 , ..., xi , ..., xn ) = (x1 , ..., −xi , ..., xn ),

es decir, la transformación connsiste en cambiar el signo de la componente xi de la


coordenada que se evalúe.

A partir de la definición podemos observar que para un mismo espacio vectorial, existen
diferentes tipos de reflexiones dependiendo de la variable seleccionada para realizar el
cambio de signo.
Nuevamente, las reflexiones que podemos interpretar gráficamente son las que se de-
5.1 Definiciones básicas 191

finen sobre el plano y sobre el espacio. A continuación se muestran ejemplos de estas


transformaciones lineales.

 Ejemplo 5.5
Aplicaremos la reflexión en el espacio vectorial R2 dada por:

T : R2 → R2
T (x, y) = (x, −y),

sobre los vectores:

u1 = (3, 5), u2 = (−4, 2), u3 = (−3, −3), u4 = (2, −2).

T (u1 ) = T (3, 5) = (3, −5).


T (u2 ) = T (−4, 2) = (−4, −2).
T (u3 ) = T (−3, −3) = (−3, 3).
T (u4 ) = T (2, 2) = (2, 2)
La figura 5.6 muestra en color azul los vectores originales y en color rojo los vectores
transformados. 

u1
5

THu3L
3

THu4L
2

u2
1

-4 -3 -2 -1 1 2 3

-1

THu2L
-2

u4
-3

u3
-4

-5

THu1L

Figura 5.6: Reflexión en el plano

La reflexión del ejemplo anterior se realizó sobre el eje x. Una segunda reflexión se
192 Transformaciones Lineales

obtendría reflejando los vectores con respecto al eje y.


En el espacio R3 , las reflexiones se realizan con respecto a uno de los tres planos que
forman los octantes: xy, xz y yz. el siguiente ejemplo muestra uno de estos casos.

 Ejemplo 5.6
Vamos a aplicar la reflexión:

T : R3 → R3
T (x, y, z) = (x, −y, z),

en el espacio reflejando los vectores con respecto al plano XZ.


Para ello aplicaremos la transformación lineal al los vectores:

u1 = (2, 4, 3), u2 = (−4, 3, 6).

Los vectores transformados de estas coordenadas son:


T (u1 ) = T (2, 4, 3) = (2, −4, 3).
T (u2 ) = T (−4, 3, 6) = (−4, −3, 6).
La figura 5.7 muestra en color azul a los vectores originales y en color rojo a los
vectores transformados. 

THu2L
u2

6 z

-4
3
-3
-2
-1
THu1L -4 -3 -2 0 0 y
-1 0 1 2
1 3 4
2

3
u1
4

5
x

Figura 5.7: Reflexión en el espacio R3


5.1 Definiciones básicas 193

Rotación
Definición 5.6 — Rotación en el plano.
Definimos la función de Rotación en el plano R2 , como la transformación lineal dada
por:
Tα : R2 → R2
definida como
! !
Cos(α) −Sen(α) x
Tα (x, y) = · = (xCos(α) − ySen(α), xSen(α) + yCos(α)),
Sen(α) Cos(α) y

donde α es el ángulo de rotación y


!
Cos(α) −Sen(α)
Rα =
Sen(α) Cos(α)

es la matriz de rotación.

 Ejemplo 5.7
Aplicaremos las transformaciones de rotación en el plano, con ángulos de

α = π/6, π/3, π/2, 2π/3, 5π/6

radianes, al vector u = (1, 0).


Primero calculamos las matrices de rotación asociadas a cada uno de los ángulos
mencionados:
! √ !
3 1
Cos(π/6) −Sen(π/6) 2 −
Rπ/6 = = √2
1 3
Sen(π/6) Cos(π/6) 2 2

! √ !
1 3
Cos(π/3) −Sen(π/3) −
Rπ/3 = = √2 2
3 1
Sen(π/3) Cos(π/3) 2 2

! !
Cos(π/2) −Sen(π/2) 0 −1
Rπ/2 = =
Sen(π/2) Cos(π/2) 1 0
194 Transformaciones Lineales

! √ !
3
Cos(2π/3) −Sen(2π/3) − 12 − 2
R2π/3 = = √
3
Sen(2π/3) Cos(2π/3) 2 − 12

! √ !
3
Cos(5π/6) −Sen(5π/6) − 2 − 12
R5π/6 = = √
1 3
Sen(5π/6) Cos(5π/6) 2 − 2

Ahora, al calcular las transformadas del vector (1, 0) bajo las rotaciones anteriores
tenemos que:
√ ! !
3 1 √
2 − 1 3 1
T(π/6) (1, 0) = √2 = (
1 3 2 , 2)
2 2 0

√ ! !
1
− 23 1 √
3
T(π/3) (1, 0) = √2
3 1
= ( 12 , 2 )
2 2 0

! !
0 −1 1
T(π/2) (1, 0) = = (0, 1)
1 0 0

√ ! !
3
− 21 − 1 √
3
T(2π/3) (1, 0) = √
3
2
= (− 12 , 2 )
2 − 12 0

√ ! !
3
− 2 − 21 1 √
3 1
T(5π/6) (1, 0) = √ = (− 2 , 2)
1
2 − 23 0

La figura 5.8 muestra el vector original y las rotaciones obtenidas anteriormente. 

Es posible definir la rotación en espacios generales de la forma Rn , sin embargo en este


material presentamos únicamente las rotaciones correspondientes a los espacios de dos y
tres dimensiones, ya que estos son los que tienen interpretación geométrica y aplicaciones
más generales.

Definición 5.7 — Rotación en el espacio.


En el espacio vectorial R3 definimos tres rotaciones rotaciones básicas, dadas en general
5.1 Definiciones básicas 195

T Π HuL
2

T 2 Π HuL 1 T Π HuL
3 3

3
2

T 5 Π HuL T Π HuL
6 6

1
2

u
3 1 1 3
-1 - - 0 1
2 2 2 2

Figura 5.8: Rotaciones en el plano (ver ejemplo 5.7)

por una transformación lineal de la forma:

T : R3 −→ R3
T (v) = RvT

donde R es una de las siguientes matrices de rotación:


 
1 0 0
 
Rx (α) =   0 Cos(α) −Sen(α)

0 Sen(α) Cos(α)

 
Cos(α) 0 Sen(α)
 
Ry (α) = 
 0 
 1 0
−Sen(α) 0 Cos(α)

 
Cos(α) −Sen(α) 0
 
Rz (α) = 
 Sen(α) Cos(α) 0 

0 0 1

las cuales se corresponden geométricamente con rotaciones de vectores alrededor de los


ejes x, y, y z, en el espacio de coordenadas de tres dimensiones.
196 Transformaciones Lineales
2.
z

1.5

1.

0.5

0.5
0.5
1.
1.5
1.
2.

1.5 y
x

Figura 5.9: Tetraedro en el espacio (ver ejemplo 5.8)

 Ejemplo 5.8
Los vectores:

u1 = (1, 1, 1), u2 = (1, 2, 1), u3 = (1, 3/2, 2), u4 = (3/2, 3/2, 3/2)

forman los vértices de un tretraedro en el espacio (ver figura 5.9). Vamos a aplicarle una
rotación de 45◦ a esta figura con respecto al eje x.
Primero calculamos la matriz de rotación correspondiente:
   
1 0 0 1 0 0
Rx (45◦ ) =  ◦ ) −Sen(45◦ ) = 0 √1 √1  ,
   
 0 Cos(45   2
− 2
0 Sen(45◦ ) Cos(45◦ ) 0 √12 √12
5.1 Definiciones básicas 197

Entonces, al aplicar la transformación tenemos:


    
1 0 0 1 1
√1 √1  1 =  0 
     
Tx (u1 ) =   0 2
− 2  √ 
√1 √1
0 2 2
1 2

    
1 0 0 1 1
√
√1 − √12  2 =  2 − √1 
   
0
Tx (u2 ) =  2   √ 2
0 √1 √1 1 2 + √1
2 2 2
    
1 0 0 1 1
√ 
√1 − √12 
    3
0
Tx (u3 ) =  2
3/2 =  √
  2 2
√ − 2

0 √1 √1 2 3
2+ 2 2

2 2

    
1 0 0 3
3/2
 2 
√1 1
  
0
Tx (u4 ) =  2
− √2  3/2 = 
  
0

0 √1 √1 3/2 √3
2 2 2
La figura 5.10 muestra en color azul al tetraedro original y en color rojo el tetraedro
formado con la rotación de los vértices anteriores. 

5.1.2 Transformaciones Lineales sobre Espacios Vectoriales en general


Las transformaciones lineales se pueden definir sobre cualquier espacio vectorial y no
únicamente sobre los espacios de la forma Rn , por ello en esta sección mostraremos algunos
ejemplos de transformaciones lineales sobre espacios vectoriales más generales.
Una desventaja de definir una transformación lineal sobre un espacio vectorial que no
sea de la forma Rn es que dificilmente podremos darle una interpretación geométrica a los
vectores transformados con relación a los vectores originales como hicimos en la sección
anterior. Así entonces, en lugar de enfocarnos en tratar de interpretar el efecto geométrico
de las transformaciones lineales, nos concentraremos en mostrar el procedimiento para
verificar una función dada entre espacios vectoriales sea una transformación lineal.
Recordemos que de acuerdo con la definición 5.1, para que una función T dada entre
espacios vectoriales, sea una transformación lineal, se debe cumplir que:

T (αu + β v) = αT (u) + β T (v),

donde α y β son escalares y u, v son vectores del espacio vectorial donde se defina la
función.
198 Transformaciones Lineales

1 45°

0
0.
0.5
1.
1.5
2.
0.5
y

1.

1.5
x

Figura 5.10: Rotación de los vértices de un tetraedro en el espacio (ver ejemplo 5.8)

 Ejemplo 5.9
Determinar si la función:

T : R3 → R[x]
T (a, b, c) = a + bx + cx2

es una transformación lineal.


Como podemos observar, en este caso la transformación lineal no es un operador
lineal (a diferencia de los ejemplos de la sección anterior), ya que el dominio de la
función no coincide con el contradominio.
Antes de revisar si la función es una transformación lineal vamos a mostrar cómo se
aplica esta transformación para algunos vectores particulares:
Si u1 = (1, 1, 1), entonces T (u1 ) = 1 + 1x + 1x2 = 1 + x + x2 .
Si u2 = (2, −3, 0), entonces T (u2 ) = 2 − 3x + 0x2 = 2 − 3x.
Si u3 = (1/4, −2, 6), entonces T (u3 ) = 1/4 − 2x + 6x2 .
El lector puede observar, entonces, que esta transformación convierte coordenadas en
5.1 Definiciones básicas 199

polinomios.
Para comprobar que la función sea una transformación lineal, tomemos:

u = (a, b, c), v = (d, e, f )

y los escalares α, β ∈ R. Vamos a verificar que se cumple que:

T (αu + β v) = αT (u) + β T (v),

Primero calculamos el lado izquierdo de la expresión:

T (αu + β v) = T (α(a, b, c) + β (d, e, f ))


= T ((αa, αb, αc) + (β d, β e, β f ))
= T (αa + β d, αb + β e, αc + β f )
= (αa + β d) + (αb + β e)x + (αc + β f )x2 ,

ahora calculamos el lado derecho de la igualdad que queremos probar:

αT (u) + β T (v) = αT (a, b, c) + β T (d, e, f )


= α(a + bx + cx2 ) + β (d + ex + f x2 )
= αa + αbx + αcx2 + β d + β ex + β f x2
= (αa + β d) + (αb + β e)x + (αc + β f )x2

Como se puede ver, ambos resultados son iguales, con lo cual la función es una
transformación lineal. 

 Ejemplo 5.10
Definimos la función

T : R2 → R3
T (a, b) = (a + b, a − b, 2a − 3b)

Vamos a determinar si esta es una transformación lineal.


Antes de la comprobación primero revisamos la aplicación de la función con algunos
vectores específicos:
Si u1 = (1, 1), entonces T (u1 ) = (1 + 1, 1 − 1, 2(1) − 3(1)) = (2, 0, −1)
Si u2 = (2, −4), entonces T (u2 ) = (2+(−4), 2−(−4), 2(2)−3(−4)) = (−2, 6, 16).
Si u3 = (1/2, 3/2), entonces T (u3 ) = ( 21 + 32 , 21 − 32 , 2( 12 ) − 3( 32 )) = (2, −1, −7
2 ).
Ahora revisamos la condición de linealidad. Sean u = (a, b), v = (c, d) ∈ R2 y
200 Transformaciones Lineales

α, β ∈ R, empezamos calculando el lado izquierdo:

T (αu + β v) = T (α(a, b) + β (c, d))


= T ((αa, αb) + (β c, β d))
= T (αa + β c, αb + β d)
= ((αa + β c) + (αb + β d), (αa + β c) − ...
...(αb + β d), 2(αa + β c) − 3(αb + β d))
= (α(a + b) + β (c + d), α(a − b) + ...
...β (c − d), α(2a − 3b) + β (2c − 3d))

Calculando el lado derecho tenemos:

αT (u) + β T (v) = αT (a, b) + β T (c, d)


= α(a + b, a − b, 2a − 3b) + β (c + d, c − d, 2c − 3d)
= (α(a + b) + β (c + d), α(a − b) + ...
...β (c − d), α(2a − 3b) + β (2c − 3d))

con lo cual se demuestra que esta función sí es una transformación lineal. 

 Ejemplo 5.11
Verificar si la función:
T : R3 → R2
T (a, b, c) = (ab, ac)
es una transformación lineal.
Sean u = (a, b, c), v = (d, e, f ) ∈ R3 y α, β ∈ R, entonces:

T (αu + β v) = T (α(a, b, c, ) + β (d, e, f ))


= T ((αa, αb, αc) + (β d, β e, β f ))
= T (αa + β d, αb + β e, αc + β f )
= ((αa + β d)(αb + β e), (αa + β d)(αc + β f ))
5.2 Propiedades de las transformaciones Lineales 201

Por otro lado:

αT (u) + β T (v) = αT (a, b, c) + β T (d, e, f )


= α(ab, ac) + β (de, d f )
= (αab, αac) + (β de, β d f )
= (αab + β de, αac + β d f )

y claramente observamos que en este caso los resultados no coinciden, por lo cual no se
cumple la condición para afirmar que T es una transformación lineal, esto quiere decir
que T no es transformación lineal. 

5.2 Propiedades de las transformaciones Lineales


La propiedad principal de la definición de transformación lineal nos indica una forma
simplificada de evaluar una combinación lineal con dos vectores:

T (αu + β v) = αT (u) + β T (v),

sin embargo esta propiedad se puede generalizar para simplificar la evaluación, bajo una
transformación lineal, de una combinación lineal con más elementos, el siguiente procedi-
miento nos muestra esta descomposición.
Es fácil ver que si consideramos la combinación lineal de k elementos de la forma:

c1 v1 + c2 v2 + ... + ck vk

entonces lo podemos descomponer como una suma de dos operandos:

c1 v1 + (c2 v2 + ... + ck vk ),

así entonces, si T es una transformación lineal, podemos aplicar la propiedad de la definición


de transformación lineal para obtener:

T (c1 v1 + (c2 v2 + ... + ck vk )) = T (c1 v1 ) + T (c2 v2 + ... + ck vk )


= c1 T (v1 ) + T (c2 v2 + ... + ck vk )

y repitiendo el mismo proceso de manera reiterada para el sumando T (c2 v2 + ... + ck vk )


podemos ir descomponiendo la combinación lineal hasta obtener el resultado expuesto en el
siguiente teorema.
202 Transformaciones Lineales

Teorema 5.1
Si T : V → W es una transformación lineal, entonces

T (c1 v1 + c2 v2 + ... + ck vk ) = c1 T (v1 ) + c2 T (v2 ) + ... + ck T (vk )

Otra propiedad importante de las transformaciones lineales está asociada con la exis-
tencia de inversos aditivos en los espacios vectoriales. Recordemos que si v es un vector
de un F−espacio vectorial V y 0 ∈ F, entonces 0v = 0V . Entonces, si T : V → W es una
transformación lineal y v es cualquier vector de V :

T (0V ) = T (0v) = 0T (v) = 0W

Este resultado se expresa en el siguiente teorema.

Teorema 5.2
Sea T : V → W una transformación lineal. Entonces:

T (0V ) = 0W

Un resultado mucho más útil que se puede obtener del teorema anterior se muestra a
continuación:

Proposición 5.2.1
Sea T : V → W una función. Si T (0V ) 6= 0W , entonces T no es una transformación
lineal.

Otra propiedad de los espacios vectoriales que podemos usar para obtener un nuevo
teorema es la de existencia de los inversos aditivos. Recordemos que si v es un vector de
un F− espacio vectorial, entonces debe existir otro vector, representado por −v, tal que
v + (−v) = 0V y además −v = −1v. De esta manera entonces:

T (u − v) = T (u + (−v))
= T (u) + T (−v)
= T (u) + T (−1v)
= T (u) + (−1)T (v)
= T (u) − T (v)

este resultado se expone en el siguiente teorema:


5.2 Propiedades de las transformaciones Lineales 203

Teorema 5.3
Si T : V → W es una transformación lineal, entonces:

T (u − v) = T (u) − T (v).

Teorema 5.4
Sea T : V → W una transformación lineal de un espacio vectorial V de dimensión n en
un espacio vectorial W. Además, sea S = {v1 , ..., vn } una base de V.
Si u es cualquier vector en V, entonces T (u) se puede expresar como combinación
lineal de {T (v1 ), ..., T (vn )}.

 Ejemplo 5.12
Sea L : R1 [t] → R2 [t]a una transformación lineal para la cual sabemos que

L(t + 1) = t 2 − 1; y L(t − 1) = t 2 + t

Sin importar que desconocemos la fórmula para L, podemos calcular el valor de


L(7t + 3).
Como t + 1 y t − 1 conforman una base para R1 [t], entonces existen escalares c1 y c2
tales que:
c1 (t + 1) + c2 (t − 1) = 7t + 3,
desarrollando y resolviendo:

(c1 + c2 )t + (c1 − c2 ) = 7t + 3

c1 + c2 = 7
c1 − c2 = 3
entonces c1 = 5, c2 = 2.
Usando esta combinación tenemos que:

L(7t + 3) = L(5(t + 1) + 2(t − 1))


= 5L(t + 1) + 2L(t − 1)
= 5(t 2 − 1) + 2(t 2 + t)
= 5t 2 − 5 + 2t 2 + 2t
= 7t 2 + 2t − 5
204 Transformaciones Lineales

En general podemos calcular L(at + b) si resolvemos:

c1 (t + 1) + c2 (t − 1) = at + b

⇒ c1 = (a + b)/2, c2 = (c1 − c2 )/2.


con lo cual:
L(at + b) = L(c1 (t + 1) + c2 (t − 1))
= c1 L(t + 1) + c2 L(t − 1)
= c1 (t 2 − 1) + c2 (t 2 + t)
= a+b (t − 1) + a−b
 2  2
2 2 (t + t)
a−b a+b
= at 2 + 2 t − 2
 

a En
general definimos el espacio vectorial Rn [x] como el conjunto de polinomios relaes en la variable
x y de grado menor o igual a n.

5.2.1 Isomorfismos
Dado que las transformaciones lineales se pueden interpretar como funciones entre
espacios vectoriales, existen dos definiciones que coinciden con definiciones dadas para
funciones reales: la inyectividad y la suprayectividad.

Definición 5.8 — Transformación Lineal Inyectiva.


Una transformación lineal L : V → W es uno a uno (o inyectiva) si para todo v1 , v2 en
V, v1 6= v2 implica que L(v1 ) 6= L(v2 ).

Decir que una transformación lineal es inyectiva implica que no existen dos vectores
distintos en el espacio vectorial del dominio de la transformación, cuyos vectores trans-
formados coincidan, es decir, que cualesquiera dos vectores distintos darán dos resultados
distintos al aplicarles la transformación.

 Ejemplo 5.13
Vamos a verificar que la transformación lineal

T : R3 → R[x]
T (a, b, c) = a + bx + cx2

es inyectiva.
Para ello empezaremos suponiendo lo contrario, es decir, supongamos que existen al
menos dos vectores diferentes:

u1 = (a1 , b1 , c1 ) y u2 = (a2 , b2 , c2 )
5.2 Propiedades de las transformaciones Lineales 205

tales que T (u1 ) = T (u2 ), entonces:

T( u1 ) = T (a1 , b1 , c1 ) = a1 + b1 x + c1 x2

y
T (u2 ) = T (a1 , b1 , c1 ) = a2 + b2 x + c2 x2 ,
entonces, si T (u1 ) = T (u2 ), esto quiere decir que:

a1 + b1 x + c1 x2 = a2 + b2 x + c2 x2

y entonces se debe cumplir:


a1 = a2
b1 = b2
c1 = c2
esto implica que u1 = u2 , lo cual contradice la afirmación de que u1 6= u2 , es decir, que
la única manera en que dos vectores pueden tener la misma imagen es cuando u1 = u2
por lo cual la transformación lineal es inyectiva. 

 Ejemplo 5.14
Demostrar que la transformación:

T : M2×2 (R) → R2
!
a b
T = (a + d, b + c)
c d

es lineal pero no es inyectiva.


Primero verificamos que efectivamente la transformación es lineal. Sean
! !
u11 u12 v11 v12
u= yv=
u21 u22 v21 v22

y sean α, β ∈ R, entonces: ! !!
u11 u12 v11 v12
T (αu + β v) = T α +β
u21 u22 v21 v22

! !!
αu11 αu12 β v11 β v12
= T +
αu21 αu22 β v21 β v22
206 Transformaciones Lineales

!!
αu11 + β v11 αu12 + β v12
= T
αu21 + β v21 αu22 + β v22

= ((αu11 + β v11 ) + (αu22 + β v22 ), (αu12 + β v12 ) + (αu21 + β v21 ))

= (αu11 + αu22 + β v11 + β v22 , αu12 + αu21 + β v12 + β v21 )

= (α(u11 + u22 ) + β (v11 + v22 ), α(u12 + u21 ) + β (v12 + v21 ))

= (α(u11 + u22 ), α(u12 + u21 )) + (β (v11 + v22 , β v12 + v21 ))

= α(u11 + u22 , u12 + u21 ) + β (v11 + v22 , v12 + v21 )

!! !!
u11 u12 v11 v12
= αT +βT
u21 u22 v21 v22

= αT (u) + β T (v)

lo cual demuestra que T es una transformación lineal.


Ahora verificamos que no es inyectiva, para ello trataremos de demostrar que existen
dos matrices u y v tales que u 6= v pero que T (u) = T (v).
Supongamos nuevamente que
! !
u11 u12 v11 v12
u= yv=
u21 u22 v21 v22

entonces
T (u) = (u11 + u22 , u12 + u21 )
y
T (v) = (v11 + v22 , v12 + v21 ),
pero como queremos que T (u) = T (v), entonces se debe cumplir que:

(u11 + u22 , u12 + u21 ) = (v11 + v22 , v12 + v21 ),


5.2 Propiedades de las transformaciones Lineales 207

lo cual implica que:


u11 + u22 = v11 + v22
u12 + u21 = v12 + v21
y se puede observar que este sistema posee ocho incógnitas y sólo 2 ecuaciones, por
lo cual el sistema no puede ser determinado, más aún, la primera ecuación no com-
parte niguna variable con la segunda, esto quiere decir que estas dos ecuaciones son
independientes entre sí.
En la primera ecuación podemos despejar la variable u11 y dejar como variables
libres a u22 , v11 y v22 :
u11 = v11 + v22 − u22 .
De igual manera, en la segunda ecuación, si despejamos a u12 , tendríamos como
variables libres a u21 , v12 y v21 :

u12 = v12 + v21 − u21 .

Estos dos resultados nos indican que existen infinitas combinaciones de valores para
las variables ui y vi cuyos resultados serán iguales bajo la función T, por ejemplo, si
tomamos: !
1 1
u= ⇒ T (u) = (2, 2)
1 1
y !
2 −1
v= ⇒ T (v) = (2, 2)
3 0
en este caso T (u) = T (v), pero u 6= v. En conclusión T es una transformación lineal no
inyectiva. 

 Ejemplo 5.15
Sea
T : R4 → M2×2 (R)
!
a b
T (a, b, c, d) =
c d
vamos a demostrar que esta transformación lineal es inyectiva.
Supongamos que u1 = (a1 , b1 , c1 ) y u2 = (a2 , b2 , c2 ), y que T (u1 ) = T (u2 ), esto
208 Transformaciones Lineales

significa que:
T (u1 ) = (a1 + b1 , a1 − b1 , a1 + c1 , a1 − c1 )
= (a2 + b2 , a2 − b2 , a2 + c2 , a2 − c2 )
= T (u2 )
entonces:
a1 + b1 = a2 + b2
a1 − b1 = a2 − b2
a1 + c1 = a2 + c2
a1 − c1 = a2 − c2
Para resolver este sistema, empezamos sumando término a término las primeras dos
ecuaciones del sistema anterior:

(a1 + b1 ) + (a1 − b1 ) = (a2 + b2 ) + (a2 − b2 ) ⇒ 2a1 = 2a2 ⇒ a1 = a2

luego, si restamos estas dos primeras ecuaciones tendremos que:

(a1 + b1 ) − (a1 − b1 ) = (a2 + b2 ) − (a2 − b2 ) ⇒ 2b1 = 2b2 ⇒ b1 = b2 .

Restando las ecuaciones tercera y cuarta, del sistema anterior obtenemos c1 = c2 .


Esto implica que T (u1 ) = T (u2 ) sólo ocurre cuando u1 = u2 , lo que significa que T
es inyectiva. 

Sabemos que, en una transformación lineal, siempre tendremos que T (0V ) = 0W , y


si la transformación fuera inyectiva entonces claramente el vector 0V sería el único que
produciría como resultado de la transformación al vector 0W . Entonces:

Teorema 5.5
Sea T : V → W es una transformación lineal inyectiva, y v ∈ V un vector tal que
T (v) = 0W , entonces v = 0V .

Supongamos que T : V → W es una transformación lineal inyectiva y que S = {v1 , v2 , ..., vn }


es un conjunto de vectores de V que son linealmente independientes ebtre sí, ¿qué para-
saría entonces con el conjunto S1 = {T (v1 ), T (v2 ), ..., T (vn )}?, ¿El conjunto S1 será
dependiente o independiente?
Para responder a la pregunta anterior, analicemos que pasaría si el conjunto S1 fuera
linealmente dependiente. En este caso, entonces existirían escalares c1 , c2 , ..., cn no todos
cero, tales que:

c1 T (v1 ) + c2 T (v2 ) + ... + cn T (vn ) = 0W


5.2 Propiedades de las transformaciones Lineales 209

Ahora bien, por definición de las transformaciones lineales, sabemos que

c1 T (v1 ) + c2 T (v2 ) + ... + cn T (vn ) = T (c1 v1 ) + T (c2 v2 ) + ... + T (cn vn )


= T (c1 v1 + c2 v2 + ... + cn vn )

Esto quiere decir que:


0W = T (c1 v1 + c2 v2 + ... + cn vn )
pero como T es inyectiva, entonces:

0V = c1 v1 + c2 v2 + ... + cn vn

pero esto es imposible ya que los vectores v1 , v2 , ...vn eran linealmente independientes.
Esto quiere decir que es imposible que S1 forme un conjunto de vectores dependientes. Esto
demuestra el siguiente teorema:

Proposición 5.2.2
Sea T : V → W una transformación lineal inyectiva y sea {v1 , ..., vn } un conjunto de
vectores linealmente independientes de V, entonces {T (v1 ), ..., T (vn )} es un conjunto
de vectores l. i. en W.

 Ejemplo 5.16
Consideremos la transformación lineal inyectiva T : R2 → R2 dada por T (v) = AvT
donde !
3 5
A=
2 4
y los vectores linealmente independientes {(1, 0), (0, 1)}. Entonces el conjunto resultante
de aplicar la transformación es un conjunto linealmente independiente.
Dejamos al lector la prueba de que la transformación dada es inyectiva, para con-
centrarnos en mostrar una aplicación del teorema anterior. Primero que nada vemos que
los vectores {(1, 0), (0, 1)} forman la base canónica de R2 , por lo cual son linealmente
independientes. Por otro lado:
! ! !
3 5 1 3
T (1, 0) = =
2 4 0 2

! ! !
3 5 0 5
T (0, 1) = =
2 4 1 4

De acuerdo con el teorema anterior, los vectores (3, 2) y (5, 4) deberían ser lineal-
210 Transformaciones Lineales

mente independientes. Revisemos esta afirmación:

c1 (3, 2) + c2 (5, 4) = (0, 0)


⇒ (3c1 + 5c2 , 2c1 + 4c2 ) = (0, 0)

y obtenemos el sistema:
3c1 + 5c2 = 0
2c1 + 4c2 = 0
cuyas únicas soluciones son c1 = 0 y c2 = 0, por lo cual los vectores efectivamente son
linealmente independientes. 

 Ejemplo 5.17
Consideremos la Proyección del espacio sobre el plano:

L : R3 → R2

definida como L(x, y, z) = (x, y)


Esta transformación no es inyectiva, ya que por ejemplo L(1, 2, 3) = (1, 2) = L(1, 2, 0)
y (1, 2, 3) 6= (1, 2, 0).
Es fácil ver que el conjunto de vectores {(3, 1, 1), (2, 4, 2), (1, 1, 3)} es un conjunto
de vectores linealmente independientes. Sin embargo los vectores

{L(3, 1, 1), L(2, 4, 2), L(1, 1, 3)}

no pueden ser independientes, ya que la dimensión del plano es 2 (esta es la dimensión


del conjunto maximal de vectores linealmente independientes), y en el conjunto habrán 3
vectores.
Por otro lado, los vectores {(1, 0, 0), (0, 1, 0)} también son independientes ya que
forman parte de la base canónica y además los vectores:

{L(1, 0, 0), L(0, 1, 0)} = {(1, 0), (0, 1)}

también serán independientes, ya que el resultado forma la base canónica de R2 .


En conclusión, si la transformación lineal no es inyectiva, entonces no podemos
afirmar que los vectores linealmente independientes se conviertan en dependientes (o
independientes) ya que cualquiera de los dos resultados posibles podría ocurrir. 

Definición 5.9 — Transformación Lineal Suprayectiva.


Una transformación lineal L : V → W es suprayectiva (o sobre) si todo w ∈ W es la
imagen de, al menos, un v ∈ V
5.2 Propiedades de las transformaciones Lineales 211

Una transformación lineal suprayectiva es aquella que abarca a todo el contradominio


con los vectores del dominio transformados, es importante remarcar que la inyectividad y la
suprayectividad son propiedades independientes entre sí, lo cual implica que una función
que sea inyectiva puede no ser suprayectiva y viceversa.

 Ejemplo 5.18
Demostraremos que la transformación lineal

T : M2×2 (R) → R2
!
a b
T = (a + d, b + c)
c d

es suprayectiva.
Debemos probar que para cualquier coordenada v ∈ R2 , existe al menos una matriz
u ∈ M2×2 (R) tal que T (u) = v.
Supongamos que v = (a, b) ∈ R2 , entonces las incógnitas sería los valores de
!
u11 u12
u=
u21 u22

que cumplan:
!!
u11 u12
T (u) = T = (u11 + u22 , u12 + u21 ) = (a, b).
u21 u22

esta última igualdad implica que:

u11 + u22 = a
u12 + u21 = b

y podemos observar que se forma un sistema de 2 ecuaciones con 2 incógnitas, y entonces


sabemos que existirán 2 variables libres en la solución del sistema, es decir, el sistema
tiene infinitas soluciones dadas por:

u11 = a − u22
u12 = b − u21

donde u22 y u21 son variables libres.


El despeje anterior garantiza que sin importar los valores de v = (a, b) siempre
podremos encontrar infinitas matrices u tales que T (u) = v, por lo cual podemos concluir
que la transformación lineal es suprayectiva. 
212 Transformaciones Lineales

Teorema 5.6
Sea T : V → W una transformación lineal suprayectiva, si {v1 , v2 , ..., vn } forman un
conjunto de generadores de V, entonces {T (v1 ), T (v2 ), ..., T (vn )} formará un conjunto
de vectores generadores de W.

 Ejemplo 5.19
Sea T : R3 → R2 , dada por T (a, b, c) = (a + b, a + c). El lector puede comprobar que
esta función es suprayectiva.
Además {(1, 1, 1), (1, 1, 0), (1, 0, 0)} forma una base de R3 , con lo cual es un
conjunto de generadores, entonces de acuerdo al teorema anterior, los vectores

{T (1, 1, 1), T (1, 1, 0), T (1, 0, 0)}

deberían formar un conjunto de vectores generadores de R2 . Esto es claro ya que:

{T (1, 1, 1), T (1, 1, 0), T (1, 0, 0)} = {(2, 2), (1, 1), (1, 0)}

y es fácil ver que los vectores {(1, 1), (1, 0)} forman una base para R2 . 

Definición 5.10 — Transformación Lineal Biyectiva.


Una transformación que es inyectiva y suprayectiva se dice que es una biyección (o
biyectiva). Estas funciones siempre son invertibles.

 Ejemplo 5.20
Cada dilatación particular, forma una transformación lineal biyectiva, por ejemplo, si
definimos la dilatación T (u) = 2u en R2 , entonces esta transformación será inyectiva, ya
que si:
u = (a, b), v = (c, d)
y T (u) = T (v), entonces:
T (u) = 2(a, b) = (2a, 2b)
T (v) = 2(c, d) = (2c, 2d)
y por lo tanto:

(2a, 2b) = (2c, 2d) ⇒ 2a = 2c y 2b = 2d ⇒ a = c y b = d,

en otras palabras T (u) = T (v) implica que u = v. Esto demuestra que T es inyectiva.
5.2 Propiedades de las transformaciones Lineales 213

Por otro lado, si u ∈ R2 , entonces v = 12 u cumple que:

1 1 1
T (v) = T ( u) = T (u) = (2u) = u,
2 2 2
por lo cual la función es suprayectiva.
En conclusión, la dilatación T (u) = 2u es biyectiva en R2 . 

Un procedimiento similar al del ejemplo anterior nos permitiría demostrar que T (u) = ru
es biyectivo para cualquier r ∈ R, r 6= 0. En general esto quiere decir que tanto la dilatación
como la contracción son funciones biyectivas en Rn .
Además, es fácil ver que la función inversa de una dilatación de la forma T (u) = ru,
con r > 1, es la transformación de contracción dada por T (u) = 1r u.

Definición 5.11 — Espacios Vectoriales Isomorfos.


Diremos que dos espacios vectoriales U y V sobre un campo F, son isomorfos si existe
una transformación lineal biyectiva T : V → U. La transformación T se denomina
entonces isomorfismo entre V y U.

 Ejemplo 5.21
Sea
T : R4 → M2×2 (R)
!
a b
T (a, b, c, d) =
c d
Esta transformación lineal convierte coordenadas de 4 componentes en matrices de
2 × 2. Además esta transformación es un isomorfismo entre estos espacios vectoriales.
Para comprobar la afirmación anterior, primero verificamos que la transformación es
inyectiva. Si:
u = (a, b, c, d), v = (e, f , g, h)
y T (u) = T (v), entonces:
!
a b
T (u) = T (a, b, c, d) =
c d
!
e f
T (v) = T (e, f , g, h) =
h h
! !
a b e f
T (u) = T (v) ⇒ =
c d h h
214 Transformaciones Lineales

con lo cual
a = e, b = f , c = g, d = h
y entonces u = v. Esto demuestra que T es inyectiva.
Por otro lado, si !
a b
v= ∈ M2×2 (R),
c d
entonces es fácil ver que si tomamos u = (a, b, c, d), entonces T (u) = v, por lo cual
podemos afirmar que T es suprayectiva.
En conclusión, entonces, T es un isomorfismo entre R4 y M2×2 (R). 

Teorema 5.7
Sea T : V → W un isomorfismo entre los espacios vectoriales V y W, entonces:

dim(V ) = dim(W )

y además, si
{v1 , v2 , ..., vn }
forma una base para V, entonces

{T (v1 ), T (v2 ), ..., T (vn )}

formará una base para el espacio W.

 Ejemplo 5.22
Continuando con el ejemplo 5.21, ya demostramos que la transformación lineal:

T : R4 → M2×2 (R)
!
a b
T (a, b, c, d) =
c d

es un isomorfismo, además:

dim(R4 ) = 4 = dim(M2×2 (R)).

Por otro, lado, si tomamos la base canónica:

u1 = (1, 0, 0, 0), u2 = (0, 1, 0, 0), u3 = (0, 0, 1, 0), u4 = (0, 0, 0, 1),


5.3 El Kernel y la Imagen 215

al aplicarle la transformación lineal a estos vectores obtendríamos:


!
1 0
T (u1 ) =
0 0

!
0 1
T (u2 ) =
0 0

!
0 0
T (u3 ) =
0 0

!
0 0
T (u4 ) =
0 1

la cual es la base canónica para M2×2 (R), cumpliendose así lo que marca el teorema
anterior. 

5.3 El Kernel y la Imagen


Los isomorfismos entre espacios vectoriales juegan un papel importante en el estudio de
dichos espacios, debido a que este tipo de transformaciones lineales nos permite interpretar
a dos espacios como “similares” bajo ciertas condiciones, por ejemplo, en su dimensión,
sus bases o la combinaciones lineales que se pueden formar en cada espacio vectorial.
En esta sección presentamos dos conceptos importantes, el kernel y la imagen de una
transformación lineal, lo cuales nos permitirán estudiar a las transformaciones lineales y en
particular caracterizar a los isomorfismos.

Definición 5.12 — El Kernel de una Transformación Lineal.


Sea L : V → W una transformación lineal. El núcleo (o kernel) de L, o núcleo(L) es el
subconjunto de V que consta de todos los vectores v tales que L(v) = 0. Es decir

ker(L) = {v ∈ V | L(v) = 0}

En pocas palabras, el kernel se puede interpretar con el conjunto de todos los vectores
en el espacio vectorial que forma el dominio de la transformación lineal, tales que al
evaluarse en dicha transformación den como resultado el vector 0W en el contradominio de
la función. En el siguiente ejemplo mostramos este hecho, junto con el cálculo necesario
para determinar el kernel de una transformación lineal.
216 Transformaciones Lineales

 Ejemplo 5.23
Determinar el núcleo de la transformación lineal T : R4 → M2×2 (R) dada por
!
a+b c+d
T (a, b, c, d) =
c−d a−b

Si (a, b, c, d) ∈ ker(L), entonces:


! !
a+b c+d 0 0
T (a, b, c, d) = =
c−d a−b 0 0

entonces:
a+b = 0
c+d = 0
c−d = 0
a−b = 0
y resolviendo este sistema tenemos que a = 0, b = 0, c = 0, d = 0. Por lo tanto

ker(T ) = {(0, 0, 0, 0)},

es decir, el kernel sólo posee un elemento. 

 Ejemplo 5.24
Sea T : T4 → R2 tal que T (a, b, c, d) = (a + c, b + d), vamos a calcular el kernel de T.
Si (a, b, c, d) ∈ ker(T ), entonces

T (a, b, c, d) = (a + c, b + d) = (0, 0)

lo cual genera el sistema:


a+c = 0
b+d = 0
cuyas soluciones son:
a = −c
b = −d
con c y d, variables libres y podemos reescribir:

(a, b, c, d) = (−c, −d, c, d) = (−c, 0, c, 0) + (0, −d, 0, d) = c(−1, 0, 1, 0) + d(0, −1, 0, 1)


5.3 El Kernel y la Imagen 217

Esto quiere decir que

ker(T ) = gen{(−1, 0, 1, 0), (0, −1, 0, 1)},

así por ejemplo, el vector:

2(−1, 0, 1, 0) + 3(0, −1, 0, 1) = (−2, −3, 2, 3)

pertenece al kernel de T, y de hecho:

T (−2, −3, 2, 3) = (−2 + 2, −3 + 3) = (0, 0).

Como vimos anteriormente, en todas las trasnformaciones lineales se cumple que


T (0V ) = 0W , y además, si la transformación es inyectiva, entonces el vector 0V es el único
que cumple que T (v) = W, esto justifica el siguiente teorema:

Proposición 5.3.1
Sea T : V → W una transformación lineal, entonces T es inyectiva sí y sólo sí ker(T ) =
0V , es decir, el ker(T ) sólo posee un elemento.

 Ejemplo 5.25
Sea T : R3 → R3 definida como
      
a1 1 0 1 a1 a1 + a3
      
T a2
 = 1 1 2 a2  =  a1 + a2 + 2a3 
      
a3 2 1 3 a3 2a1 + a2 + 3a3

¿L es inyectiva?
Para responder la pregunta vamos a calcular al ker(T ). De acuerdo con la definición:

ker(T ) = {v ∈ R3 | T (v) = 0R3 }

pero 0R3 = (0, 0, 0) y si v = (a1 , a2 , a3 ), entonces:

ker(T ) = {(a1 , a2 , a3 ) ∈ R3 | T (a1 , a2 , a3 ) = (0, 0, 0)},

además sabemos que por definición T (a1 , a2 , a3 ) = (a1 + a3 , a1 + a2 + 2a3 , 2a1 + a2 +


3a3 ), entonces:

ker(T ) = {(a1 , a2 , a3 ) ∈ R3 | (a1 + a3 , a1 + a2 + 2a3 , 2a1 + a2 + 3a3 ) = (0, 0, 0)},


218 Transformaciones Lineales

de donde se forma el sistema:

a1 + a3 = 0
a1 + a2 + 2a3 = 0
2a1 + a2 + 3a3 = 0

cuya matriz de coeficientes cumple que:


 
1 0 1
  a
1 1 2 = 0
det  
2 1 3

lo cual indica que el sistema tendrá infinitas soluciones, y entonces el kernel de la


transformación contendrá infinitos elementos. Podemos concluir que, de acuerdo con
el teorema anterior, la transformación no es inyectiva ya que no cumple la condición
presentada en dicho teorema. 

a Observe que esta matriz es la misma con la que se define a la transformación.

Definición 5.13 — Imagen de una Transformación Lineal.


Si T : V → W es una transformación lineal, definimos la imagen de V bajo T como el
conjunto de vectores w ∈ W tales que existe un v ∈ V que cumple que T (v) = w. Es
decir
Im(T ) = {w ∈ W | T (v) = w para algún v ∈ V },
o bien
Im(T ) = {T (v) ∈ W | v ∈ V }.

En términos generales la imagen de una transformación lineal se puede interpretar como


la colección de todos los vectores transformados bajo dicha transformación. Estos vectores
no necesariamente abarcarán a todo el espacio vectorial del contradominio como veremos
en los siguientes ejemplos.

 Ejemplo 5.26
Determinaremos la imagen de la transformación T : R3 → R3 dada por

T (a, b, c) = (a + b − c, a − b + c, −a + b − c),

entonces por definición Im(T ) = {T (v)|v ∈ R3 }, con lo cual

Im(T ) = {(a + b − c, a − b + c, −a + b − c)| a, b, c ∈ R}


5.3 El Kernel y la Imagen 219

= {(a, a, −a) + (b, −b, b) + (−c, c, −c)| a, b, c ∈ R}


= {a(1, 1, −1) + b(1, −1, 1) + c(−1, 1, −1)| a, b, c ∈ R}
= gen{(1, 1, −1), (1, −1, 1), (−1, 1, −1)}


Proposición 5.3.2
Si T : V → W entonces T es una transformación lineal suprayectiva sí y sólo sí Im(T ) =
W

Teorema 5.8
Sea T : U → W una transformación lineal, entonces el Kernel de T (Ker(T )) y la imagen
de T (Im(T )) forman subespacios vectoriales de U y W respectivamente

Supongamos que T : V → W es transformación lineal, sabemos que ker(T ) ⊆ V y que


si u, v ∈ V son dos vectores tales que u, v ∈ ker(T ), entonces:

T (c1 u + c2 v) = c1 T (u) + c2 T (v) = 0W ,

esto quiere decir cualquier combinación lineal de vectores que pertenezcan al kernel tambińe
pertenecerá al kernel de T, esto significa que el conjunto ker(T ) es cerrado bajo la suma y la
multiplicación por escalar, lo cual implica entonces que ker(T ) es un subespacio vectorial
de V.
Por otro lado la imagen es un subespacio vectorial del espacio W, ya que si w1 , w2 ∈
Im(T ), esto significa entonces que existen u1 , u2 ∈ V tales que T (u1 ) = w1 y T (u2 ) = w22 .
Además:
c1 w1 + c2 w2 = c1 T (u1 ) + c2 T (u2 ) = T (c1 u1 + c2 u2 ),
con lo cual probamos que cualquier combinación lineal de vectores en Im(T ) también estará
en Im(T ), lo cual implica que el conjunto Im(T ) ⊆ W es un subespacio vectorial.

 Ejemplo 5.27
Hallar una base para la imagen de la transformación lineal T : R3 → R3 dada por

T (a, b, c) = (a + b − c, a − b + c, −a + b − c).

Como mostramos en un ejemplo anterior,

Im(T ) = {(1, 1, −1), (1, −1, 1), (−1, 1, −1)}


220 Transformaciones Lineales

entonces podemos usar estos vectores para hallar una base de la imagen.
Estos vectores ya son generadores de Im(T ), sólo falta verificar que sean linealmente
independientes:

c1 (1, 1, −1) + c2 (1, −1, 1) + c3 (−1, 1, −1) = (0, 0, 0)


⇒ (c1 , c1 , −c1 ) + (c2 , −c2 , c2 ) + (−c3 , c3 , −c3 ) = (0, 0, 0)
⇒ (c1 + c2 − c3 , c − 1 − c2 + c3 , −c1 + c2 − c3 ) = (0, 0, 0)

y se forma el sistema de ecuaciones lineales:

c1 + c2 − c3 = 0
c1 − c2 + c3 = 0
−c1 + c2 − c3 = 0

cuya matriz de coeficientes cumple:


 
1 1 −1
 
det 
1 −1 1 = 0,
−1 1 −1

lo cual implica que el sistema tiene infinitas soluciones y entonces los vectores son
linealmente dependientes.
Para obtener la base vamos a formar una matriz auxiliar cuyos renglones sean los
vectores generadores y aplicaremos el algoritmo de Gauss-Jordan para reducir la matriz
a la forma escalonada reducida:
   
1 1 −1 1 0 0
   
A= 1 −1 1  −→ 0 1 −1
   
−1 1 −1 0 0 0

Las operaciones elementales renglón usadas en el método de Gauss-Jordan nos garantizan


que los renglones obtenidos se pueden expresar como combinación lineal de los renglones
originales, esto implica que:

gen{(1, 1, −1), (1, −1, 1), (−1, 1, −1)} = gen{(1, 0, 0), (0, 1, −1)}

y además estos vectores son linealmente independientes. Por lo tanto, la base buscada es:

Im(T ) = gen{(1, 0, 0), (0, 1, −1)}.


5.3 El Kernel y la Imagen 221

Teorema 5.9
Supongamos que v1 , v2 , ..., vn generan a un espacio vectorial V y que F : V → U es
lineal. Entonces F(v1 ), F(v2 ), ..., F(vn ) generan al subespacio vectorial Im(F).

 Ejemplo 5.28
Vamos a mostrar que la aplicación del teorema es válido para la transformación lineal
T : R3 → R4 , dada por T (a, b, c) = (a + b, a − b, a + c, a − c).
El conjunto de vectores

G = {(1, 0, 0), (0, 1, 0), (0, 0, 1)}

forma una base para el espacio R3 , por lo cual son generadores de este espacio. De
acuerdo con el teorema anterior, los vectores: G1 = {T (1, 0, 0), T (0, 1, 0), T (0, 0, 1)}
son generadores del subespacio vectorial Im(T ). Si aplicamos la transformación:

T (1, 0, 0) = (1 + 0, 1 − 0, 1 + 0, 1 − 0) = (1, 1, 1, 1)
T (0, 1, 0) = (0 + 1, 0 − 1, 0 + 0, 0 − 0) = (1, −1, 0, 0)
T (0, 0, 1) = (0 + 0, 0 − 0, 0 + 1, 0 − 1) = (0, 0, 1, −1)

Entonces, de acuerdo con el teorema:

Im(T ) = gen{(1, 1, 1, 1), (1, −1, 0, 0), (0, 0, 1, −1)},

para comprobar esto primero calculamos la imagen de la transformación. De acuerdo


con la definición de la imagen:

Im(T ) = {T (v)| v ∈ R3 }
= {T (a, b, c)| (a, b, c) ∈ R3 }
= {(a + b, a − b, a + c, a − c)| a, b, c ∈ R}
= {(a, a, a, a) + (b, −b, 0, 0) + (0, 0, c, −c)| a, b, c ∈ R}
= {a(1, 1, 1, 1) + b(1, −1, 0, 0) + c(0, 0, 1, −1)| a, b, c ∈ R}
= gen{(1, 1, 1, 1), (1, −1, 0, 0), (0, 0, 1, −1)}

lo cual demuestra la afirmación planteada. 


222 Transformaciones Lineales

 Ejemplo 5.29
Sea T : R3 → R3 definida como
    
a1 1 0 1 a
     1
Ta2  = 1 1 2 a2 
   
a3 2 1 3 a3

Vamos a verificar si esta transformación es suprayectiva y vamos a hallar una base


para Im(L) (recordemos que ya trabajamos anteriormente con esta transformación en el
ejemplo 5.25) .

Sea:
U = {(1, 0, 0), (0, 1, 0), (0, 0, 1)}
la base canónica para R3 , la cual claramente forma un conjunto de vectores generadores
del espacio, entonces por el teorema 5.9, las transformaciones de estos vectores bajo
T formarán un conjunto de vectores generadores de Im(T ), pero si sustituimos en la
fórmula de T tenemos que:

T (1, 0, 0) = (1, 1, 2)
T (0, 1, 0) = (0, 1, 1)
T (0, 0, 1) = (1, 2, 3)

y resulta que los vectores {(1, 1, 2), (0, 1, 1), (1, 2, 3)} son linealmente dependientes,
lo cual implica que dim(Im(T )) < 3 y como dim(R3 ) = 3, entonces es imposible que
Im(T ) = R3 , por lo cual T no es suprayectiva.
Ahora vamos a calcular una base para Im(T ), formamos una matriz cuyos renglones
sean los vectores obtenidos anteriormente y le aplicamos el método de reducción de
Gauss-Jordan:    
1 1 2 1 0 1
  Gauss−Jordan  
A = 0 1 1 −−−−−−−−→  0 1 1 
  

1 2 3 0 0 0
y las operaciones elementales renglón aplicadas bajo el método de Gauss-Jordan nos
garantizan que los renglones obtenidos, se pueden representar como combinación lineal
de los renglones de la matriz original. Esto implica que:

gen{(1, 1, 2), (0, 1, 1), (1, 2, 3)} = gen{(1, 0, 1), (0, 1, 1)} = Im(T )

y además podemos demostrar fácilmente que {(1, 0, 1), (0, 1, 1)} son vectores linealmen-
te independientes, por lo cual estos vectores forman la base buscada. 
5.3 El Kernel y la Imagen 223

Teorema 5.10
Sea V de dimensión finita y sea F : V → W una aplicación lineal. Entonces

dim(V ) = dim(Ker(F)) + dim(Im(F)).

 Ejemplo 5.30
Sea T : R3 → R3 definida como
    
a1 1 0 1 a
     1
Ta2  = 1 1 2 a2 
   
a3 2 1 3 a3

Vamos a hallar una base para ker(T ). Vomo mostramos anteriormente en el ejemplo
5.25:

ker(T ) = {(a1 , a2 , a3 ) ∈ R3 | (a1 + a3 , a1 + a2 + 2a3 , 2a1 + a2 + 3a3 ) = (0, 0, 0)},

de donde se forma el sistema:

a1 + a3 = 0
a1 + a2 + 2a3 = 0
2a1 + a2 + 3a3 = 0

y para resolver el sistema aplicamos el método de reducción de Gauss-Jordan a la matriz


aumentada del sistema:
   
1 0 1 0 1 0 1 0
  Gauss−Jordan  
 1 1 2 0 − − −−−−− −→  0 1 1 0 
   
2 1 3 0 0 0 0 0

Ahora bien, la matriz obtenida es equivalente al sistema de ecuaciones lineales:

a1 + a3 = 0

a2 + a3 = 0
el cual tendrá en sus soluciones a una variable libre a3 , con lo cual:

a1 = −a3 , a2 = −a3 , a3 = libre.


224 Transformaciones Lineales

Esto significa que:

ker(T ) = {(a1 , a2 , a3 ) ∈ R3 | a1 = −a3 , a2 = −a3 y a3 ∈ R3 ,

o bien, sustituyendo:

ker(T ) = {(−a3 , −a3 , a3 )| a3 ∈ R3 }

⇒ ker(T ) = {a3 (−1, −1, 1)| a3 ∈ R3 }


⇒ ker(T ) = gen{(−1, −1, 1)}
y entonces la base sería el conjunto con un único vector:

{(−1, −1, 1)}.

Reuniendo este resultado con el del ejemplo 5.29 se puede comprobar que:

dim(ker(T )) = 1, dim(Im(T )) = 2

y entonces se cumple el teorema anterior, ya que:

dim(R3 ) = dim(ker(T )) + dim(Im(T ))

Definición 5.14 — Rango y Nulidad de un matriz.


Definimos el rango de una matriz cuadrada A como el número de pivotes que posee en
la forma escalonada, y la nulidad de la matriz como n − rango, donde n es la dimensión
de la matriz

 Ejemplo 5.31
Sea T : R4 → R3 la transformación definida por

T (x, y, s,t) = (x − y + s + t, x + 2s − t, x + y + 3s − 3t)

Encontremos una base y la dimensión de la imagen de T :

T (1, 0, 0, 0) = (1, 1, 1) T (0, 0, 1, 0) = (1, 2, 3)


T (0, 1, 0, 0) = (−1, 0, 1) T (0, 0, 0, 1) = (1, −1, −3)

Necesitamos encontrar vectores l. i. que generen al espacio vectorial dado por estos
vectores
5.4 Matrices y Transformaciones Lineales 225

Para conseguir este propósito, construimos la matriz cuyas filas son estos vectores
imagen y la reducimos a su forma escalonada reducida:
   
1 1 1 1 1 1
   
−1 0 1  0 1 2
 ∼ 
1 2 3  0 0 0
 

1 −1 −3 0 0 0

De este modo (1, 1, 1), (0, 1, 2) constituyen una base de Im(T ), luego dim(Im(T )) =
2, o en otras palabras, rango(t) = 2. 

5.4 Matrices y Transformaciones Lineales


Como se mencionó al inicio del capítulo, algunas transformaciones lineales se pueden
representar por medio de matrices. Luego, podemos identificar algunas carcaterísticas de las
transformaciones por medio de sus matrices asociadas. En esta sección se presentan algunos
de estos resultados.

Definición 5.15 — Vector de coordenadas.


Supongamos que {v1 , ..., vn } es una base de un espacio vectorial V sobre un campo F, y
para v ∈ V supongamos que
v = a1 v1 + ... + an vn
Entonces el vector vector coordenado de v relativo a la base S, se denota y define como
 
a1
. T
[v]s =  .
 .  = [a1 , ..., an ]
an

 Ejemplo 5.32
Sea V = R2 y consideremos la base:

S = {(1, 1), (1, −1)},

vamos a calcular el vector de coordenadas de u = (6, −4), para ello primero calculamos
los escalares de la combinación lineal:

(6, −4) = c1 (1, 1) + c2 (1, −1)


= (c1 + c2 , c1 − c2 )
226 Transformaciones Lineales

Entonces los escalares c1 y c2 se obtienen del sistema de ecuaciones lineales:

c1 + c2 = 6
c1 − c2 = −4

cuyas soluciones son c1 = 1 y c2 = 5. Entonces:


!
1
[(6, −4)]S = .
5


 Ejemplo 5.33 !
3 −6
Sea V = M2×2 (R), vamos a generar el vector de coordenadas de u = bajo la
1 9
base ( ! ! ! !)
1 1 1 −1 0 0 1 0
S= , , ,
0 0 0 0 1 1 0 1
Primero hallamos los valores de los escalares c1 , c2 , c3 y c4 , tales que:
! ! ! ! !
3 −6 1 1 1 −1 0 0 1 0
= c1 + c2 + c3 + c4
1 9 0 0 0 0 1 1 0 1

! ! ! !
c1 c1 c2 −c2 0 0 c4 0
= + + +
0 0 0 0 c3 c3 0 c4

!
c1 + c2 + c4 c1 − c2
=
c3 c3 + c4

y entonces los escalares se pueden obtener del sistema de ecuaciones lineales:

c1 + c2 + c4 = 3
c1 − c2 = −6
c3 = 1
c3 + c4 = 9
5.4 Matrices y Transformaciones Lineales 227

cuyas soluciones son c1 = − 11 1


2 , c2 = 2 , c3 = 1 y c4 = 8. Entonces:
 
− 11
2
" !#  1 
3 −6  2 
= 
1 9  1 
S  
8


 Ejemplo 5.34
Vamos a construir el vector de coordenadas de 3 − 5x + 2x2 en el espacio R2 [x] bajo la
base:
S = {1 + x, 1 − x, 1 + x − x2 }.
Construimos la combinación lineal:

3 − 5x + 2x2 = c1 (1 + x) + c2 (1 − x) + c3 (1 + x − x2 )
= (c1 + c2 + c3 ) + (c1 − c2 + c3 )x + (−c3 )x2

Igualando los términos se forma el sistema:

c1 + c2 + c3 = 3
c1 − c2 + c3 = −5
−c3 = 2

cuyas soluciones son c1 = 4, c2 = 1, c3 = −2 y entonces:


 
4
2
 
[3 − 5x + 2x ]S = 
1

−2


Sea T un operador lineal en un espacio vectorial V sobre un campo F y supongamos que


S = {u1 , ..., un } es una base de V. Ahora T (u1 ), ..., T (un ) son vectores en V por lo tanto
cada uno de ellos es combinación lineal de los vectores de la base S, es decir,
T (u1 ) = a11 u1 + ... + a1n un
..
.
T (un ) = an1 u1 + ... + ann un
con este desarrollo podemos formar una nueva matriz asociada a la transformación lineal T
228 Transformaciones Lineales

bajo la base S.

Definición 5.16 — Representación matricial de una Transformación Lineal.


Sea T un operador lineal en el espacio vectorial V y sea S = {v1 , v2 , ..., vn } una
base de V. Se denomina la representación matricial de T relativa a la base S (repre-
sentada por [T ]S ) a la matriz cuyas columnas son los vectores de coordenadas de
T (v1 ), T (v2 ), ..., T (vn ) bajo la base S. Es decir, si

T (u1 ) = a11 u1 + a12 + ... + a1n un


T (u2 ) = a21 u1 + a22 + ... + a2n un
..
.
T (un ) = an1 u1 + an1 + ... + ann un

entonces  
a a ... an1
 11 21 
 12 a22 ... an2 
a 
[T ]S =  . .. .. 
 .. . . 
 
a1n a2n ... ann

 Ejemplo 5.35
Sea T : R3 → R3 , la reflexión T (a, b, c) = (a, b, −c) y sea

S = {(1, 0, 0), (0, 1, 0), (0, 0, 1)}

la base canónica, entonces:


 
1
 
T (1, 0, 0) = (1, 0, 0) = 1(1, 0, 0) + 0(0, 1, 0) + 0(0, 0, 1) ⇒ [(1, 0, 0)]S = 0


0
 
0
 
T (0, 1, 0) = (0, 1, 0) = 0(1, 0, 0) + 1(0, 1, 0) + 0(0, 0, 1) ⇒ [(0, 1, 0)]S = 
1 

0
 
0
 
T (0, 0, 1) = (0, 0, −1) = 0(1, 0, 0) + 0(0, 1, 0) + −1(0, 0, 1) ⇒ [(0, 0, 1)]S = 0

−1
5.4 Matrices y Transformaciones Lineales 229

entonces:  
1 0 0
 
[T ]S = 0 1 0 


0 0 −1


 Ejemplo 5.36
Consideremos el operador lineal T : R2 → R2 definido por F(x, y) = (4x − 2y, 2x + y) y
las bases de R2 :

S = {u1 = (1, 1), u2 = (−1, 0)}, S1 = {(1, 0), (0, 1)}

Calculamos la representación matricial de T bajo cada una de las bases dadas.

Representación Matricial de T bajo S :


Primero calculamos las transformaciones de los vectores bajo la transformación:

T (1, 1) = (4 − 2, 2 + 1) = (2, 3)
T (−1, 0) = (4(−1) − 2(0), 2(−1) + (0)) = (−4, −2)

luego estos resultados se descomponen como combinación lineal de los elementos de la


base: !
3
(2, 3) = c1 (1, 1) + c2 (−1, 0) ⇒ c1 = 3, c2 = 1 ⇒ [(2, 3)]S =
1
!
−2
(−4, −2) = c1 (1, 1) + c2 (−1, 0) ⇒ c1 = −2, c2 = 2 ⇒ [(6, 1)]S =
2
luego entonces: !
3 −2
[T ]S =
1 2

Representación Matricial de T bajo S1 :


Ahora calculamos las transformaciones de los vectores de la base S1 :

T (1, 0) = (4(1) − 2(0), 2(1) + (0)) = (4, 2)


T (0, 1) = (4(0) − 2(1), 2(0) + (1)) = (−2, 1)
230 Transformaciones Lineales

y al descomponer estos vectores como combinación loneal de los elementos de la base


S1 obtenemos los vectores de coordenadas:
!
4
(4, 2) = 4(1, 0) + 2(0, 1) ⇒ [(4, 2)]S1 =
2

!
−2
(−2, 1) = −2(1, 0) + 1(0, 1) ⇒ [(−2, 1)]S1 =
1

Entonces la matriz asociada a T bajo la base S1 sería:


!
4 −2
[T ]S1 =
2 1

Observe que en este caso particular:


! ! ! !
x 4 −2 x 4x − 2y
[T ]S1 = = ' (4x − 2y, 2x + y) = T (x, y)
y 2 1 y 2x + y


Teorema 5.11
Sean S = {u1 , ..., un } una base de V y T un operador lineal en V. Entonces, para todo
vector v ∈ V,
[T ]s [v]s = [T (v)]s .

Esto es, si multiplicamos el vector coordenado de v por la representación matricial de T,


conseguimos el vector coordenado de T (v).

 Ejemplo 5.37
Retomando el ejemplo 5.35 con la transformación lineal T : R3 → R3 , dada por T (a, b, c) =
(a, b, −c), es fácil ver que cuando S es la base canónica, entonces [v]s = v para cualquier
vector v del espacio R3 , más áun, de acuerdo con el teorema anterior:
  
1 0 0 a
  
T (a, b, c) = (a, b, −c) ' 
0 1 0  b ,
 
0 0 −1 c

es decir, el resultado de aplicar la fórmula de la transformación T a un vector v cualquiera,


5.4 Matrices y Transformaciones Lineales 231

es igual al producto de la matriz asociada a T bajo S (obtenida en el ejemplo 5.35) por el


vector v. a 

a Ojo:
Este resultado sólo se cumple en este ejemplo debido al uso que le dimos a la base canónica y la
transformación aplicada.

 Ejemplo 5.38
Retomando el ejemplo 5.36 consideremos la transformación lineal T : R2 → R2 definido
por F(x, y) = (4x − 2y, 2x + y) y la base de R2 :

S = {u1 = (1, 1), u2 = (−1, 0)}

Vamos a mostrar una aplicación del teorema anterior. Sea u = (4, −5), entonces:
!
−5
(4, −5) = −5(1, 1) − 9(−1, 0) ⇒ [(4, −5)]S =
−9

Si evaluamos el vector u en la transformación obtenemos:

T (u) = T (4, −5) = (4(4) − 2(−5), 2(4) + (−5)) = (26, 3)

y su vector de coordenadas sería:


!
3
(26, 3) = 3(1, 1) − 23(−1, 0) ⇒ [(26, 3)]S =
−23

Ahora bien, de acuerdo con el teorema anterior se debería cumplir que:

[T ]s [u]s = [T (u)]s .

y de acuerdo con el ejemplo 5.36:


! ! !
3 −2 −5 3
[T ]s [u]s = = = [(26, 3)]S = [T (u)]S
1 2 −9 −23

y se comprueba que se cumple la afirmación planteada. 


Índice alfabético

Adjunta de una Matriz, 82 Escalar, 32


Espacio Vectorial, 122
Base, 160 Base de un, 160
Ortogonal, 174 Propiedades, 136
Ortonormal, 176 Espacio vectorial
Base Canónica, 163 Dimensión, 166
Cofactor de una Matriz, 80 Grahm-Schmidt, 179
Combinación lineal, 147
Conjugado de un complejo, 11 Igualdad
Conjunto de generadores, 153 de Matrices, 28
Conjunto Generado, 151 Imagen, 218
Conjunto maximal linealmente independien- Isomorfismo, 213
te., 163
Conjunto minimal de generadores, 163 Kernel, 215
Conjuntos l. i. y l. d., 156
Método
Desigualdad del triángulo, 172 de la Regla de Cramer, 113
Determinante de Sarrus, 75
de matrices de 2 × 2., 73 de sustitución hacia Atrás, 100
de matrices de 3 × 3., 75 Método de Reducción
de una matriz de n × n, 78 de Gauss, 60
por Cofactores, 80 de Gauss-Jordan, 64
Matriz, 25
Ecuación Lineal, 85 Antihermítica, 48
Degenerada, 95 Antisimétrica, 47
Eje imaginario, 8 Cero, 29
Eje Real, 8 Columna, 26
ÍNDICE ALFABÉTICO 233

Compleja, 47 Módulo, 10
Conjugada, 47 Parte imaginaria, 2
Cuadrada, 26 Parte real, 2
Diagonal, 43 Producto, 2
Diagonal Principal de una, 27 Suma, 2
Elemental, 58 Unidad Imaginaria, 5
Escalar, 44 Norma, 169
Escalonada, 59 Euclidena, 169
Reducida, 59
Hermítica, 48 Operación Elemental
Idempotente, 45 de Matrices, 52
Identidad, 37 en sistemas de ecuaciones lineales, 104
Inversa Tipo I, 52
Por medio de la Adjunta, 83 Tipo II, 52
inversa aditiva, 30, 38 Tipo III, 52
Inversa., 49 Operador Lineal, 184
Invertible, 49
Permutación, 76
Involutiva, 45
Inversión de una, 77
Neutro aditivo, 29, 38
Signo de una, 77
Nilpotente, 45
Pivote, 59
Nulidad de una, 224
Renglón, 60
Orden de una, 27
Plano Complejo, 8
Ortogonal, 48
Polinomio, 15
Periódica, 44 Grado, 16
Rango de una, 116, 224 Producto
Rectangular, 26 de polinomios, 16
Renglón, 26 de números complejos, 2
Simétrica, 46 Euclideano, 168
Singular, 49 Punto, 168
Transpuesta, 46 Proyección ortogonal, 174
Triangular
Inferior, 43 Regla de Cramer, 113
Superior, 43 Resta
Menor de una matriz, 79 de matrices, 31
Multiplicación
de Matrices, 33–35 Sarrus, 75
Propiedades, 40 Sistema de Ecuaciones Lineales, 86
de Matrices por Escalar, 32 Compatibles e Incompatibles, 87
Propiedades, 38 Determinados e Indeterminados, 90
Equivalentes, 104
Números Complejos, 2 Escalonada, 98
Argumento, 10 Forma escalonada reducida, 99
Igualdad, 2 Método de Gauss, 109
234 ÍNDICE ALFABÉTICO

Método de Gauss-Jordan, 111


Matriz aumentada, 106
Matriz de Coeficientes, 106
Representación matricial, 107
Triangular, 97
Subespacio vectorial, 140
Suma
de Matrices, 28
Propiedades, 38
de números complejos, 2
de polinomios, 16

Tansformación Lineal
Contracción, 189
Transformación Lineal, 184
Biyectiva, 212
Dilatación, 187, 188
Inyectiva, 204
Proyección, 185, 186
Reflexión, 190
Representación matricial, 228
Rotación en R2 , 193
Rotación en R3 , 194
Suprayectiva, 210

Vector
de coordenadas, 225

Вам также может понравиться