Вы находитесь на странице: 1из 68

Elementos de

Algebra Lineal y Matricial


Vctor Manuel Alvarado Castro,
Alejo Lopez Gonzalez
Abril de 2007
Contenido
1 Preliminares 5
1.1 Resolucion de sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . 5
1.2 Resolucion de un sistema de ecuaciones lineales . . . . . . . . . . . . . . . . . . 7
2 Ecuaciones lineales 9
2.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2 Eliminacion gausiana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.3 Metodo de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3 Sistemas Rectangulares y Formas Escalonadas 17
3.1 Forma Escalonada por Renglones y Rango . . . . . . . . . . . . . . . . . . . . . 17
3.2 Forma Escalonada por Renglones Reducida . . . . . . . . . . . . . . . . . . . . 20
3.3 Consistencia de Modelos Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.4 Sistemas Homogeneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.5 Sistemas no Homogeneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4

Algebra Matricial 29
4.1 Adicion, Multiplicacion Escalar y Transpuesta . . . . . . . . . . . . . . . . . . . 29
4.1.1 Adicion de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.1.2 Multiplicacion Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4.1.3 La Transpuesta de una Matriz . . . . . . . . . . . . . . . . . . . . . . . 31
4.2 Linealidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.3 Multiplicacion Matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.3.1 Propiedades de la Multiplicacion Matricial . . . . . . . . . . . . . . . . . 38
4.4 Multiplicacion de Matrices Particionadas . . . . . . . . . . . . . . . . . . . . . 40
4.5 Matrices Elementales y Equivalentes . . . . . . . . . . . . . . . . . . . . . . . . 43
4.5.1 Matrices Elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.5.2 Matrices Equivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.6 Factorizacion LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
5 Espacios vectoriales 53
5.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.2 Los Cuatro Subespacios Fundamentales . . . . . . . . . . . . . . . . . . . . . . 57
5.3 Independencia Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
5.4 Base y dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3
4 CONTENIDO
Captulo 1
Preliminares
1.1 Resolucion de sistemas de ecuaciones lineales
Antes de conocer y aplicar los metodos especicos de resolucion de un sistema de ecuaciones
lineales, veamos que signica resolver el sistema y, como consecuencia, porque debemos utilizar
un metodo especico de resolucion.
De nuestro conocimiento de la geometria analtica en el plano, sabemos que la ecuacion general
de la recta es de la forma
Ax + By + C = 0 A ,= 0, o B ,= 0 (1.1)
A la ecuacion anterior le denominamos ecuacion lineal general en las variables x, y. El adjetivo
lineal, es debido a que las variables que intervienen tienen grado uno.
En geometria analtica se demuestra que una ecuacion lineal en las variables x, y representa
una recta y, una recta en el plano IR
2
, tiene como ecuacion de su lugar gemetrico una ecuacion
lineal en las variables x, y.
Algunos ejemplos de ecuaciones lineales son los siguientes:
a) y = 1, d)
3y
7
= 6,
b) x = 5, e) 3x + 2y = 5,
c) 5x = 8, f)
2
x 3
=
5
y 1
.
Nuestro objetivo es resolver los sistemas de ecuaciones lineales, pero antes debemos saber
como resolvemos una ecuacion lineal. Estamos ante la interrogante que signica resolver una
ecuacion lineal?. En algebra, la pregunta anterior, signica calcular, delimitar o determinar
el conjunto de valores n umericos de la variable o variables que satisfacen la ecuacion. Las
variables generalmente estan denidas en el conjunto IR, salvo que se especique lo contrario.
5
6 CAP

ITULO 1. PRELIMINARES
As, la solucion de la ecuacion y = 1, es sin duda el valor y = 1, ya que 1 = 1. De la misma
manera, la solucion de 5x = 8 es x =
8
5
, por que
5
_
8
5
_
= 8
8 = 8
.
En las dos ecuaciones lineales anteriores los conjuntos solucion son y IR [ y = 1 y
_
x IR

x =
8
5
_
.
Ahora veamos cual es el conjunto solucion para la ecuacion
3x + 2y = 5,
no perdamos de vista lo que signica resolver la ecuacion, que en este caso consta de dos
variables.
Como podemos determinar el conjunto de parejas (x, y) de n umeros reales que satisfagan a
la ecuacion?. Una manera es despejar una variable en funcion de la otra, por ejemplo
x =
5 2y
3
.
En la ecuacion anterior es posible determinar el valor de x si le asignamos alg un valor a y
(y IR). Algunos valores asignados a y se muestran en la tabla
Tabla 1.1: Valores de y
y
3
0.5
0
3
1.5
Si sustituimos los valores anteriores de y, en la ecuacion x =
5 2y
3
, resulta la correspondiente
de x. As, tenemos la siguiente tabla
Todas las parejas de esta tabla son solucion de la ecuacion lineal, lo cual puede vericar.
Cuantos pares (x, y) son solucion para la ecuacion lineal?, como la variable y se puede elegir
del conjunto IR, existe un conjunto innito de pares, como se indica:
solucion =
_
(x, y) IR
2

x =
5 2y
3
_
.
1.2. RESOLUCI

ON DE UN SISTEMA DE ECUACIONES LINEALES 7


Tabla 1.2: Valores de y y x
y x
3 3.7
0.5 2
0 1.7
3 0.3
1.5 0.7
Ejercicios:
1. Represente en el plano algunas parejas de puntos de la Tabla (1.2).
2. Bosqueje la graca de la ecuacion 2y + 3x 5 = 0. Cual es la representacion graca de la
solucion?.
Nota: Observe que todo punto solucion esta sobre la recta.
3. Bosqueje la graca de cada una de las siguientes ecuaciones y localice al menos 3 puntos
solucion.
a) x = 5,
b)
1
2
x
1
3
y = 1,
c) y = 0.
1.2 Resolucion de un sistema de ecuaciones lineales
Iniciamos suponiendo que queremos resolver un sistema de dos ecuaciones lineales con dos
incognitas.
A
1
x + B
1
y + C
1
= 0 E
1
A
2
x + B
2
y + C
2
= 0 E
2
.
De nueva cuenta, resolver el sistema signica determinar los valores reales de x y y que sat-
isfagan a ambas ecuaciones; como podemos bosquejar el conjunto de pares (x, y) de n umeros
reales que satisfagan a ambas ecuaciones del sistema?. Una manera de hacerlo es analizando
que ocurre gracamente. Sabemos del curso de geometra analtica en IR
2
, que las posiciones
relativas de dos rectas en el plano son las que sepresentan en la Figura (1.1). Cada caso de
estos merece un estudio por separado.
En el caso de que las rectas se intersecta en un punto, la solucion es unica, ya que las rectas no
se vuelve a cortar. Como determinamos la solucion?. Esta claro que queremos determinar
las coordenadas del punto (x, y) que es com un en ambas rectas o que satisface a la ecuacion
de ambas.
8 CAP

ITULO 1. PRELIMINARES
todos los puntos son
comunes
no hay puntos
comunes
punto comn
c) Que sean coincidentes.
b) Que sean paralelas.
0
0
a) Que se intersectan en un punto.
E1=E2
E2
E1
E2
E1
x
x 0 x
y
y y
Figura 1.1: Posiciones relativas de dos rectas en el plano.
Ejemplo 1.2.1. Veamos si el sistema
x + 2y = 3 E
1
2x 2y = 8 E
2
,
tiene solucion unica. Auxiliandonos de la representacion graca, Figura(1.2), se puede ob-
servar que las rectas se intersectan en un solo punto, de donde se deduce que el sistema de
ecuaciones tiene solucion unica.
x
0
punto
comn
E
1
E
2
y
Figura 1.2: Representacion graca de un sistema de ecuaciones.
Captulo 2
Ecuaciones lineales
2.1 Introduccion
Un problema fundamental el cual aparece en todas las ciencias matematicas es el de analizar y
resolver m ecuaciones algebraicas en n incognitas. El estudio de un sistema de ecuaciones linea-
les simultaneas esta naturalmente ligado con el estudio de arreglos rectangulares de n umeros
denidos por los coecientes de las ecuaciones.
Los primeros registros de analisis de ecuaciones simultaneas son encontrados en el antiguo libro
chino Chiu-chang Suan-shu(Nueve capitulos sobre Aritmetica), el cual fue escrito al rededor
del a no 200 antes de cristo. Al inicio del Captulo VIII aparece un problema, el cual tiene la
siguiente forma:
Tres atados de una cosecha buena, dos atados de una cosecha mediocre, y un atado de una
cosecha mala se venden por 39 dou. Dos atados de una buena, tres atados de una mediocre,
y un atado de una mala se venden por 34 dou; y un atado de una buena, dos atados de una
mediocre, y tres atados de una mala se venden por 26 dou. Que precio se recibe por cada
atado de una cosecha buena, cada atado de una cosecha mediocre, y cada atado de una cosecha
mala?
En la actualidad, este problema sera formulado como tres ecuaciones en tres incognitas
3x + 2y + z = 39
2x + 3y + z = 34
x + 2y + 3z = 26
donde x, y, y z representan el precio para cada uno de los atados de las tres diferentes cosechas,
a saber buena, mediocre y mala, respectivamente. Los chinos dieron con la parte medular de
la materia. Ellos colocaron los coecientes (representados por varas de bamb u coloreadas) de
este sistema en un arreglo cuadrado sobre una tabla de conteo y entonces manipularon las
lineas de los arreglos de acuerdo a las reglas prescritas del dedo pulgar. Sus tecnicas de la tabla
de conteo y las reglas del dedo pulgar encuentran utilidad en Japon y eventualmente aparecen
en Europa, donde las varas de colores son remplazadas por n umeros y la tabla de conteo es
9
10 CAP

ITULO 2. ECUACIONES LINEALES


remplazada por papel y lapiz. En Europa, la tecnica llega a ser conocida como Eliminacion
Gaussiana en honor al matematico aleman Carl Gauss, quien popularizo el metodo.
2.2 Eliminacion gausiana
El problema es calcular, si es posible, una solucion com un para un sistema de m ecuaciones
lineales con n incognitas
a
11
x
1
+ a
12
x
2
+ ... + a
1n
x
n
= b
1
a
21
x
1
+ a
22
x
2
+ ... + a
2n
x
n
= b
2
.
.
.
.
.
.
a
m1
x
1
+ a
m2
x
2
+ ... + a
mn
x
n
= b
m
donde las x

i
s son incognitas y las a

ij
s y b

i
s son constantes conocidas. Las a

ij
s son llamadas
los coecientes del sistema y el conjunto de las b

i
s es referido como el lado derecho del sistema.
Para cualquier sistema, existen tres posibilidades para el conjunto de soluciones:
1) Solucion unica: hay un solo cojunto de valores para los x

i
s que satisfacen todas las
ecuaciones simultaneamente.
2) No hay solucion: no hay un conjunto de valores para los x

i
s los cuales satisfagan
todas las ecuaciones simultaneamente.
3) Innitas soluciones: hay una innidad de diferentes conjuntos de valores para los x

i
s
que satisfacen simultaneamente todas las ecuaciones.
Una parte del trabajo es identicar cual de estas posibilidades es verdadera para un sistema
en particular, la otra parte es calcular el conjunto de soluciones. La eliminacion gaussiana es
una herramienta que puede ser usada para cumplir estos objetivos.
La eliminacion gaussiana es un procedimiento metodico que transforma un sistema en otro
sistema equivalente, pero mas simple (dos sistemas son equivalentes si poseen el mismo con-
junto de soluciones) mediante la eliminacion de incognitas y arreglando un sistema que es de
facil solucion. La eliminacion se realiza mediante tres operaciones simples que transforman al
sistema en otro equivalente. Para describir estas operaciones denamos a E
k
como la k-esima
ecuacion:
E
k
: a
k1
x
1
+ ... + a
kn
x
n
= b
k
.
As el sistema sera:
S =
_

_
E
1
E
2
.
.
.
E
m
_

_
.
Para un sistema lineal S cada una de las siguientes tres operaciones elementales origina un
sistema equivalente S

.
2.2. ELIMINACION GAUSIANA 11
1) Intercambiar la i-esima y j-esima ecuacion. Esto es, si
S =
_

_
E
1
.
.
.
E
i
.
.
.
E
j
.
.
.
E
m
_

_
, entonces S

=
_

_
E
1
.
.
.
E
j
.
.
.
E
i
.
.
.
E
m
_

_
.
(2.1)
2) Remplazar la i-esima ecuacion por un m ultiplo de si misma, distinto de cero,esto es:
S

=
_

_
E
1
.
.
.
E
i
.
.
.
E
m
_

_
donde ,= 0. (2.2)
3) Remplazar la j-esima ecuacion por una combinacion de si misma mas un m ultiplo de la
i-esima ecuacion. Esto es:
S

=
_

_
E
1
.
.
.
E
i
.
.
.
E
j
+ E
i
.
.
.
E
m
_

_
. (2.3)
El problema mas com un que se tiene en la practica es aquel en que se tiene n ecuaciones con
n incognitas, llamado sistema cuadrado, para el cual hay una unica solucion.
Ejemplo 2.2.1. Considere el sistema cuadrado :
2x + y + z = 1
6x + 2y + z = 1
2x + 2y + z = 7
, (2.4)
tal sistema sera de utilidad para ejemplicar la eliminacion gaussiana.
12 CAP

ITULO 2. ECUACIONES LINEALES


En cada paso, la estrategia es ubicarnos en una posicion llamada posicion pivote y eliminar to-
dos los terminos debajo de esta posicion usando las tres operaciones elementales. El coeciente
en la posicion pivote es llamado pivote mientras la ecuacion donde esta el pivote es referida
como la ecuacion pivotal. Solo n umeros distintos de cero pueden ser considerados pivotes, si
un coeciente en una posicion pivotal es cero, entonces la ecuacion pivotal es intercambiada
con otra ecuacion de bajo de la ecuacion pivotal que produzca un pivote distinto de cero. Por
ejemplo, el parentesis (2) en el anterior sistema indica el pivote, esto es:
(2)x + y + z = 1
6x + 2y + z = 1
2x + 2y + z = 7
Paso 1: Eliminar todos los terminos de bajo del primer pivote.
Sustraer tres veces la primera ecuacion de la segunda, lo cual produce el sistema equivalente:
(2)x + y + z = 1
y 2z = 4 (E
2
3E
1
)
2x + 2y + z = 7
Sumando la primera ecuacion y la tercera se tiene el sistema equivalente:
(2)x + y + z = 1
y 2z = 4
3y + 2z = 8 (E
3
+ E
1
)
Paso 2: Seleccionar un nuevo pivote.
El siguiente pivote se seleciona moviendose a la siguiente ecuacion y al segundo coeciente
de esta. Si este es distinto de cero entonces es el nuevo pivote. De otra forma se intercambia
esta ecuacion por otra de bajo de ella, cuyo segundo coeciente es distinto de cero. En este
ejemplo el nuevo pivote es el 1
2x + y + z = 1
(1)y 2z = 4
3y + 2z = 8
Paso 3: Eliminar todos los terminos de bajo del segundo pivote.
Sumar tres veces la segunda ecuacion a la tercer ecuacion, lo cual produce el sistema equi-
valente:
2x + y + z = 1
(1)y 2z = 4 (2.5)
4z = 4 (E
3
+ 3E
2
)
En general, en cada paso se debe de mover a la siguiente ecuacion y colocarse en un nuevo
pivote y as sucesivamente. En este ejemplo, el nuevo pivote es 4, pero dado que no hay
elementos por eliminarse de bajo del pivote, entonces el procedimiento esta completo.
2.2. ELIMINACION GAUSIANA 13
En este punto decimos que el sistema ha sido triangularizado. Un sistema triangular es facil
de resolver por un metodo conocido como sustitucion inversa, en la cual la ultima ecuacion
es resuelta y el resultado sustituye a la incognita en la ecuacion anterior y as sucesivamente
hasta determinar el conjunto de soluciones del sistema. En este ejemplo se tiene que:
z = 1
y sustituyendo este valor en la segunda ecuacion de (2.5) se tiene que y = 2. Y nalmente,
sustituyendo y y z en la primera ecuacion de (2.5) se tiene que x = 1. As, el conjunto
solucion del sistema es x = 1, y = 2, z = 1.
Note que no tiene sentido colocar los smbolos x, y, z y = en cada paso dado que
unicamente manipulamos los coecientes. Si tales smbolos son eliminados, entonces un sis-
tema de ecuaciones lineales se reduce a un arreglo rectangular de n umeros en el que cada la
representa una ecuacion, por ejemplo, el sistema (2.4) se reduce al arreglo:
_
_
2 1 1
6 2 1
2 2 1

1
1
7
_
_
.
El arreglo de coecientes es llamado matriz de coecientes. El arreglo que contiene los coe-
cientes del sistema y la parte derecha del sistema es llamado matriz aumentada. Si la matriz
de coecientes es denotada por A y la parte derecha del sistema por b, entonces [A[b] denotara
la matriz aumentada.
Formalmente, un escalar es un n umero real o complejo y una matriz es un arreglo rectangular
de escalares. Denotaremos a las matrices con letras may usculas y a los escalares con letras
minusculas. Por ejemplo
A =
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
denota la matriz A con escalares a
ij
, i = 1, 2, ..., m y j = 1, 2, ..., n. La matriz A se dice que
tiene tama no u orden mn, si tiene exactamente m reglones y n columnas. Por ejemplo si la
matriz A es
A =
_
_
2 1 3 4
8 6 5 9
3 8 3 7
_
_
, (2.6)
entonces el orden de tal matriz es 3 4.
El smbolo A

i
denotara al i-esimo reglon y A
j
denotara a la j-esima columna. Por ejemplo, si
A es la matriz en (2.6), entonces
14 CAP

ITULO 2. ECUACIONES LINEALES


A

2
=
_
8 6 5 9
_
y A
2
=
_
_
1
6
8
_
_
.
Para un sistema lineal de ecuaciones
a
11
x
1
+ a
12
x
2
+ ... + a
1n
x
n
= b
1
a
21
x
1
+ a
22
x
2
+ ... + a
2n
x
n
= b
2
.
.
.
.
.
.
a
m1
x
1
+ a
m2
x
2
+ ... + a
mn
x
n
= b
m
la eliminacion gaussiana puede ser ejecutada sobre la matriz aumentada [A[b] realizando las
operaciones elementales (2.1), (2.2) y (2.3).
As, para una matriz mn (denotaremos M IR
mn
)
M =
_
_
_
_
_
_
_
_
_
_
_
_
_
M

1
.
.
.
M

i
.
.
.
M

j
.
.
.
M

m
_
_
_
_
_
_
_
_
_
_
_
_
_
, las tres operaciones elementales de M son:
(1) Intercambiar los reglones i-esimo y j-esimo de M esto es:
_
_
_
_
_
_
_
_
_
_
_
_
_
M

1
.
.
.
M

j
.
.
.
M

i
.
.
.
M

m
_
_
_
_
_
_
_
_
_
_
_
_
_
(2.7)
(2) Remplazar el i-esimo reglon de M por un m ultiplo distinto de cero de si mismo.
_
_
_
_
_
_
_
_
M

1
.
.
.
M

i
.
.
.
M

m
_
_
_
_
_
_
_
_
,= 0 (2.8)
2.3. M

ETODO DE GAUSS-JORDAN 15
(3) Remplazar el j-esimo reglon de M por una combinacion de si mismo mas un m ultiplo
distinto de cero del i-esimo reglon.
_
_
_
_
_
_
_
_
_
_
_
_
_
M

1
.
.
.
M

i
.
.
.
M

j
+ M

i
.
.
.
M

m
_
_
_
_
_
_
_
_
_
_
_
_
_
(2.9)
As, para resolver el sistema (2.4) usando operaciones elementales de reglones, de la matriz
aumentada [A[b], se procedera de la siguiente forma :
_
_
(2) 1 1
6 2 1
2 2 1

1
1
7
_
_
R
2
3R
1
R
3
R
1

_
_
2 1 1
0 1 2
0 3 2

1
4
8
_
_
R
3
+ 3R
2

_
_
2 1 1
0 1 2
0 0 4

1
4
4
_
_
.
El arreglo nal representa al sistema triangular
2x + y + z = 1
y 2z = 4
4z = 4
el cual se resolvera mediante la sustitucion inversa.
2.3 Metodo de Gauss-Jordan
El metodo de Gauss-Jordan es una variacion de la eliminacion gaussiana. Las dos carac-
tersticas que distiguen al metodo de Gauss-Jordan con la eliminacion gaussiana son las sigui-
entes:
En cada caso, el pivote es forsado a ser uno, (1).
En cada paso los elementos que estan por abajo y por arriba del pivote son eliminados.
Esto es, si
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn

b
1
b
2
.
.
.
b
n
_
_
_
_
_
16 CAP

ITULO 2. ECUACIONES LINEALES


es la matriz aumentada asociada con el sistema lineal, entonces las operaciones elementales
son usadas para reducir a esta matriz en
_
_
_
_
_
1 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1

s
1
s
2
.
.
.
s
n
_
_
_
_
_
As, las soluciones del sistema sera el conjunto de las s

i
s.
Ejemplo 2.3.1. Aplicar el metodo Gauss-Jordan para resolver el siguiente sistema
2x
1
+ 2x
2
+ 6x
3
= 4
2x
1
+ x
2
+ 7x
3
= 6
2x
1
6x
2
7x
3
= 1
Solucion:
_
_
(2) 2 6
2 1 7
2 6 7

4
6
1
_
_
R
1
/2

_
_
(1) 1 3
2 1 7
2 6 7

2
6
1
_
_
R
2
2R
1
R
3
+ 2R
1

_
_
1 1 3
0 1 1
0 4 1

2
2
3
_
_
R
2
/ 1
_
_
1 1 3
0 1 1
0 4 1

2
2
3
_
_
R
1
R
2
R
3
+ 4R
2

_
_
1 0 4
0 1 1
0 0 5

4
2
5
_
_
R
3
/ 5

_
_
1 0 4
0 1 1
0 0 1

4
2
1
_
_
R
1
4R
3
R
2
+ R
3

_
_
1 0 0
0 1 0
0 0 1

0
1
1
_
_
.
Por tanto, la solucion es
_
_
x
1
x
2
x
3
_
_
=
_
_
0
1
1
_
_
.
Captulo 3
Sistemas Rectangulares y Formas
Escalonadas
3.1 Forma Escalonada por Renglones y Rango
Ahora estamos interesados en analizar sistemas lineales mas generales que consisten de m
ecuaciones y n incognitas.
a
11
x
1
+ a
12
x
2
+ ... + a
1n
x
n
= b
1
a
21
x
1
+ a
22
x
2
+ ... + a
2n
x
n
= b
2
.
.
.
.
.
.
a
m1
x
1
+ a
m2
x
2
+ ... + a
mn
x
n
= b
m
,
donde m puede ser diferente de n. Si sabemos que m ,= n entonces el sistema se dice que es
rectangular.
El primer objetivo es extender la tecnica de eliminacion Gaussiana a sistemas rectangulares.
Note que para un sistema cuadrado con solucion unica, los pivotes se encuentran sobre la
diagonal principal de la matriz (la diagonal formada de la esquina superior izquierda a la
esquina inferior derecha). En cambio, en un sistema rectangular no es posible que los pivotes
esten sobre la diagonal principal de la matriz de coecientes , pues nisiquiera existe tal diagonal.
As, la eliminacion Gaussiana en un sistema rectangular no tiene como resultado una forma
triangular. Por ejemplo, considere el siguiente sistema :
x
1
+ 2x
2
+ x
3
+ 3x
4
+ 3x
5
= 5
2x
1
+ 4x
2
+ 4x
4
+ 4x
5
= 6
x
1
+ 2x
2
+ 3x
3
+ 5x
4
+ 5x
5
= 9
2x
1
+ 4x
2
+ 4x
4
+ 7x
5
= 9
.
17
18 CAP

ITULO 3. SISTEMAS RECT

ANGULARES Y FORMAS ESCALONADAS


Pongamos atencion en la matriz de coecientes
A =
_
_
_
_
1 2 1 3 3
2 4 0 4 4
1 2 3 5 5
2 4 0 4 7
_
_
_
_
,
e ignoremos por un momento el lado derecho. Aplicando la eliminacion gaussiana a A se
obtiene el siguiente resultado:
_
_
_
_
1 2 1 3 3
2 4 0 4 4
1 2 3 5 5
2 4 0 4 7
_
_
_
_

_
_
_
_
1 2 1 3 3
0 0 2 2 2
0 0 2 2 2
0 0 2 2 1
_
_
_
_
En el proceso de eliminacion basico, la estrategia es moverse hacia a bajo y a la derecha, a la
posicion pivotal mas proxima. Si se tiene un cero en esta posicion este renglon es intercambiado
por otro renglon, que se encuentre debajo de el, buscando que en esta posicion se tenga un
n umero distinto de cero, el cual sera el nuevo pivote. Sin embargo, en este ejemplo, es claro que
es imposible hacer que en la posicion (2, 2) se tenga un n umero distinto de cero al intercambiar
el segundo renglon por otro debajo de el.
As, el procedimiento de eliminacion Gaussiana es modicado como sigue:
Suponga que U es la matriz aumentada asociada al sistema despues de que los i 1 pasos de
eliminacion han sido completados para ejecutar el i esimo paso , el procedimiento es:
1. Moverse de izquierda a derecha en U , ubicandose en la primera columna que contiene
una entrada distinta de cero, digamos U
j
.
2. El pivote para el i esimo paso sera U
ij
.
3. Si es necesario cambie el i-esimo renglon por otro que, de bajo de el, tenga una entrada
distinta de cero y entonces U

ij
sera su pivote, donde U

es la matriz U modicada al
cambiar el i-esimo renglon del sistema.
4. Si el renglon U

i
como todo los renglones de U de bajo de U
i
son ceros entonces el
procedimiento termina.
Ejemplo 3.1.1. Aplicar la eliminacion Gaussiana modicada para la siguiente matriz.
A =
_
_
_
_
1 2 1 3 3
2 4 0 4 4
1 2 3 5 5
2 4 0 4 7
_
_
_
_
.
3.1. FORMA ESCALONADA POR RENGLONES Y RANGO 19
Solucion:
_
_
_
_
1 2 1 3 3
2 4 0 4 4
1 2 3 5 5
2 4 0 4 7
_
_
_
_

_
_
_
_
1 2 1 3 3
0 0 2 2 2
0 0 2 2 2
0 0 2 2 1
_
_
_
_

_
_
_
_
1 2 1 3 3
0 0 2 2 2
0 0 0 0 0
0 0 0 0 3
_
_
_
_

_
_
_
_
1 2 1 3 3
0 0 2 2 2
0 0 0 0 3
0 0 0 0 0
_
_
_
_
.
Note que el resultado nal no es una forma triangular pura, si no que es parecida a una forma
triangular. Tal estructura recibe el nombre de forma escalonada por renglones.
Denicion 3.1.1. Una matriz E IR
mn
con renglones E

i
y columnas E
j
se dice que es una
forma escalonada por renglones si satisface lo siguiente:
i) Si E

i
consiste de entradas ceros , entonces todos los renglones de bajo de E

i
son cero.
ii) Si la primera entrada distinta de cero de E

i
se encuentra en la j-esima posici on, entonces
todas las entradas por de bajo de la ij-esima posicion son cero.
Debido a la libertad que uno tiene en aplicar operaciones elementales en una matriz A, entonces
la forma escalonada por renglones E, asociada a A, no es unica. Sin embargo, E es unica en el
sentido de que las posiciones de los pivotes en E (y A), son determinadas de forma unica por
la entradas de A. De esto se sigue, que el n umero de pivotes -el cual es el n umero de renglones
distintos de cero en E- es determinado de forma unica por las entradas de A.
Denicion 3.1.2 (Rango de una matriz). Si una matriz A es reducida a su forma escalon-
ada por renglones E, entonces las columnas basicas de A son denidas como aquellas columnas
en A las cuales contienen los pivotes. El n umero
r = n umero de pivotes
= n umero de renglones distintos de cero de E
= n umero de columnas basicas de A
es llamado el rango de A y se denotara por r(A).
Ejemplo 3.1.2. Determine el rango de
A =
_
_
1 2 1 1
2 4 2 2
3 6 3 4
_
_
,
e identique las columnas basicas de A.
20 CAP

ITULO 3. SISTEMAS RECT

ANGULARES Y FORMAS ESCALONADAS


Solucion: reducir a A en su forma escalonada por renglones como sigue:
A =
_
_
1 2 1 1
2 4 2 2
3 6 3 4
_
_

_
_
1 2 1 1
0 0 0 0
0 0 0 1
_
_

_
_
1 2 1 1
0 0 0 1
0 0 0 0
_
_
= E.
As, el r(A) = 2 y las columnas basicas de A son :
columnas basicas de A =
_
_
_
_
_
1
2
3
_
_
,
_
_
1
2
4
_
_
_
_
_
3.2 Forma Escalonada por Renglones Reducida
Note que el metodo de Gauss-Jordan transforma a una matriz A, a una matriz diagonal con
estradas 1, para obtener la solucion del sistema asociado a la matriz. Esto sucede en un sistema
cuadrado con una solucion. En el caso de sistemas rectangulares se producen entradas distintas
de cero en las columnas no basicas de la matriz.
Por ejemplo:
A =
_
_
_
_
1 2 1 3 3
2 4 0 4 4
1 2 3 5 5
2 4 0 4 7
_
_
_
_

_
_
_
_
1 2 1 3 3
0 0 2 2 2
0 0 2 2 2
0 0 2 2 1
_
_
_
_

_
_
_
_
1 2 0 2 2
0 0 1 1 1
0 0 0 0 0
0 0 0 0 3
_
_
_
_

_
_
_
_
1 2 0 2 2
0 0 1 1 1
0 0 0 0 3
0 0 0 0 0
_
_
_
_

_
_
_
_
1 2 0 2 2
0 0 1 1 1
0 0 0 0 1
0 0 0 0 0
_
_
_
_
_
_
_
_
1 2 0 2 0
0 0 1 1 0
0 0 0 0 1
0 0 0 0 0
_
_
_
_
.
Denicion 3.2.1 (Forma escalonada por renglones reducida). Una matriz E
A
IR
mn
se dice que es una forma escalonada por renglones reducida si satisface lo siguiente:
1. E
A
es una forma escalonada por renglones
2. La primera entrada en cada renglon (i.e., cada pivote) es 1.
3. Todas las entradas de bajo del pivote son cero.
Si una matriz A es transformada por una sucesion de operaciones elementales a una matriz
E
A
, la cual es una forma escalonada por renglones reducida, entonces cada entrada de E
A
es
determinada de forma unica por las entradas de A.
Ejemplo 3.2.1. Para la matriz
A =
_
_
_
_
1 2 2 3 1
2 4 4 6 2
3 6 6 9 6
1 2 4 5 3
_
_
_
_
,
3.2. FORMA ESCALONADA POR RENGLONES REDUCIDA 21
determine E
A
, r(A), y las columnas basicas de A.
Solucion:
_
_
_
_
1 2 2 3 1
2 4 4 6 2
3 6 6 9 6
1 2 4 5 3
_
_
_
_

_
_
_
_
1 2 2 3 1
0 0 0 0 0
0 0 0 0 3
0 0 2 2 2
_
_
_
_

_
_
_
_
1 2 2 3 1
0 0 2 2 2
0 0 0 0 3
0 0 0 0 0
_
_
_
_

_
_
_
_
1 2 0 1 1
0 0 1 1 1
0 0 0 0 3
0 0 0 0 0
_
_
_
_

_
_
_
_
1 2 0 1 0
0 0 1 1 0
0 0 0 0 1
0 0 0 0 0
_
_
_
_
Por tanto el r(A) = 3 y las columnas basicas de A son:
_

_
_
_
_
_
1
2
3
1
_
_
_
_
,
_
_
_
_
2
4
6
4
_
_
_
_
,
_
_
_
_
1
2
6
3
_
_
_
_
_

_
.
Note que el ejemplo anterior ilustra una caracterstica importante de E
A
y explica por que las
columnas con pivote de A son llamadas columnas basicas, note que:
A
2
= 2A
1
, y A
4
= A
1
+ A
3
,
exactamente las mismas relaciones que en E
A
. Esto es,
E
2
= 2E
1
y E
4
= E
1
+ E
3
.
As,
1. Cada columna no basica E
k
de E
A
es una combinacion lineal -una suma de multiplos-
de las columnas basicas de E
A
. Esto es
E
k
=
1
E
b
1
+
2
E
b
2
+ ... +
j
E
b
j
=
1
_
_
_
_
_
_
_
_
_
_
1
0
.
.
.
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
+
2
_
_
_
_
_
_
_
_
_
_
0
1
.
.
.
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
+ ... +
j
_
_
_
_
_
_
_
_
_
_
0
0
.
.
.
1
.
.
.
0
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
_

2
.
.
.

j
.
.
.
0
_
_
_
_
_
_
_
_
_
_
.
Donde las E

b
i
s son las columnas basicas que generan a E
k
y donde los m ultiplos
i
son
las primeras j entradas en E
k
.
22 CAP

ITULO 3. SISTEMAS RECT

ANGULARES Y FORMAS ESCALONADAS


2. Las relaciones que existen entre las columnas de A son exactamente las mismas relaciones
que existen entre las columnas de E
A
. En particular, si A
k
es una columna no basica en
A, entonces
A
k
=
1
A
b
1
+
2
A
b
2
+ ... +
j
A
b
j
,
donde las A

b
i
s son las columnas basicas que generan a A
k
y donde los
i
son los mismos
que los de la combinacion anterior, las primeras j entradas en E
k
.
Ejemplo 3.2.2. Escribir cada columna no basica de
A =
_
_
2 4 8 6 3
0 1 3 2 3
3 2 0 0 8
_
_
,
como una combinacion lineal de las columnas basicas.
Solucion: Primero transformamos a A en E
A
, as
A =
_
_
2 4 8 6 3
0 1 3 2 3
3 2 0 0 8
_
_

_
_
1 2 4 3
3
2
0 1 3 2 3
3 2 0 0 8
_
_

_
_
1 2 4 3
3
2
0 1 3 2 3
0 4 12 9
7
2
_
_

_
_
1 0 2 7
15
2
0 1 3 2 3
0 0 0 17
17
2
_
_

_
_
1 0 2 0 4
0 1 3 0 2
0 0 0 1
1
2
_
_
= E
A
Entonces
E
3
= 2E
1
+ 3E
2
y E
5
= 4E
1
+ 2E
2
+
1
2
E
3
.
Y as,
A
3
= 2A
1
+ 3A
2
y A
5
= 4A
1
+ 2A
2
+
1
2
A
3
.
En resumen, la utilidad de E
A
recae en la habilidad de revelar dependencias en los datos de
las columnas de A. Las columnas no basicas en A representan informacion redundante en el
sentido de que esta informacion puede ser expresada en terminos de los datos contenidos en
las columnas basicas.
3.3 Consistencia de Modelos Lineales
Denicion 3.3.1 (Sistemas consistentes e inconsistentes). Un sistema de m ecuaciones
con n incognitas
a
11
x
1
+ a
12
x
2
+ ... + a
1n
x
n
= b
1
a
21
x
1
+ a
22
x
2
+ ... + a
2n
x
n
= b
2
.
.
.
.
.
.
a
m1
x
1
+ a
m2
x
2
+ ... + a
mn
x
n
= b
m
,
3.3. CONSISTENCIA DE MODELOS LINEALES 23
se dice que es consistente si al menos tiene una solucion. Si no tiene soluciones, entonces se
dice que el sistema es inconsistente.
Si la matriz aumentada [A[b] es reducida, mediante operaciones elementales de renglones, a
una matriz [E[c], entonces la consistencia -o falta de ella- es evidente, supongase que en alg un
paso del proceso se origina un renglon de la forma
(0 0 0[), con ,= 0,
entonces tal ecuacion asociada a este renglon no tiene solucion.
As, si un sistema es inconsistente, entonces en alg un paso del proceso de eliminacion se genera
un renglon de la forma
(0 0 0[) , con ,= 0. (3.1)
Hay otras formas de caracterizar la consistencia (o inconsistencia)de un sistema. Una de ellas
es observar que si la ultima columna b de la matriz aumentada [A[b] es una columna no basica,
entonces no puede existir pivote en la ultima columna, y as, el sistema es consistente ya que
(3.1)no puede ocurrir, en otras palabras , un sistema es consistente si y solo si b es una
columna no basica de [A[b].
Decir que b es una columna no basica de [A[b] equivale a decir que todas las columnas basicas
de [A[b] estan en la matriz de coecientes A. Dado que el n umero de columnas basicas de una
matriz es el rango, la consistencia tambien puede ser caracterizada de la siguiente forma, un
sistema es consistente si y solo si r[A[b] = r[A].
Por otro lado, ya que un sistema consistente se caraceriza por que el lado derecho b es una
columna no basica, de esto se sigue que un sistema es consistente si y solo si el lado derecho b
es una combinacion de las columnas de A.
Ejemplo 3.3.1. Determine si el siguiente sistema es consistente
2x + y + 2z = 1
2x + y + 3z = 2
4x + 2y + 6z = 3
Solucion: Aplicando la eliminacion Gaussiana a la matriz asociada al sistema se tiene
[A[b] =
_
_
2 1 2
2 1 3
4 2 6

1
2
3
_
_

_
_
2 1 2
0 0 1
0 0 2

1
1
1
_
_

_
_
2 1 2
0 0 1
0 0 0

1
1
1
_
_
El ultimo renglon del paso nal reeja que el sistema es inconsistente. Alternativamente,
r (A[b) = 3 ,= 2 = r (A) reeja la inconsistencia del sistema.
24 CAP

ITULO 3. SISTEMAS RECT

ANGULARES Y FORMAS ESCALONADAS


3.4 Sistemas Homogeneos
Denicion 3.4.1 (Sistemas homogeneos y no homogeneos). Un sistema de m ecuaciones
y n de incognitas
a
11
x
1
+ a
12
x
2
+ ... + a
1n
x
n
= 0
a
21
x
1
+ a
22
x
2
+ ... + a
2n
x
n
= 0
.
.
.
.
.
.
a
m1
x
1
+ a
m2
x
2
+ ... + a
mn
x
n
= 0
,
cuyo lado derecho consiste en entradas de 0

s, se dice que es un sistema homogeneo. Si al


menos una entrada es distinta de cero, entonces se llamara sistema no homogeneo.
Dado que un sistema homogeneo se resuelve para
x
1
= x
2
= ... = x
n
= 0,
entonces es consistente. Tal solucion es conocida como la solucion trivial del sistema. Ahora,
la pregunta natural sera, existe alguna otra solucion del sistema, que no sea la trivial?. Como
antes, la eliminacion Gaussiana dara respuesta a esta pregunta.
Note que al aplicar el procedimiento de eliminacion Gaussiana a la matriz aumentada [A[0],
asociada al sistema, se obtiene una matriz [E[0], pues las operaciones elementales no afectan a
la ultima columna de [A[0], la cual corresponde a la parte derecha del sistema. Por tanto, da
lo mismo trabajar con la matriz de coeciente A, que con la matriz aumentada [A[0], y llevarla
a una matriz escalonada E y al realizar sustitucion regresiva recordar que el lado derecho son
entradas cero.
Veamos un ejemplo. Examinemos las soluciones del sistema homogeneo
x
1
+ 2x
2
+ 2x
3
+ 3x
4
= 0
2x
1
+ 4x
2
+ x
3
+ 3x
4
= 0
3x
1
+ 6x
2
+ x
3
+ 4x
4
= 0
.
Reduciendo la matriz de coecientes a una forma escalonada.
A =
_
_
1 2 2 3
2 4 1 3
3 6 1 4
_
_

_
_
1 2 2 3
0 0 3 3
0 0 5 5
_
_

_
_
1 2 2 3
0 0 3 3
0 0 0 0
_
_
= E
As,
3x
3
3x
4
= 0, de donde x
3
= x
4
y
x
1
+ 2x
2
+ 2x
3
+ 3x
4
= x
1
+ 2x
2
+ 2(x
4
) + 3x
4
= x
1
+ 2x
2
+ x
4
= 0, de donde x
1
= 2x
2
x
4
.
3.4. SISTEMAS HOMOGENEOS 25
Note que las variables x
2
y x
4
no estan sujetas a nada, y por tanto pueden tomar cualquier
valor. Por tal motivo, estas variables seran llamadas variables libres. Las variables que toman
valores dependiendo de las variables libres, seran llamadas variables base. Observe que hay
distintas formas de elegir a las variables base, y por consiguiente a las variables libres. Aqu
convenimos seleccionar a las variables base como aquellas que corresponden a las posiciones de
los pivotes. En el ejemplo x
1
y x
3
son las variables base.
La forma en la cual se expresa la solucion (o soluciones) del sistema, en el ejemplo, no es la
mas adecuada, pues una solucion sera
x
1
= 0, x
2
= 1, x
3
= 2, x
4
= 2,
y es fastidioso escribir de esta forma soluciones particulares, lo conveniente sera escribir la
solucion general que produce cualquier solucion particular. As , es mas conveniente escribir
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
=
_
_
_
_
2x
2
x
4
x
2
x
4
x
4
_
_
_
_
= x
2
_
_
_
_
2
1
0
0
_
_
_
_
+ x
4
_
_
_
_
1
0
1
1
_
_
_
_
,
con lo que se entiende que x
2
y x
4
son las variables las cuales pueden tomar cualquier valor. Esta
expresion pone enfasis en que cada solucion es una combinacion de dos soluciones particulares
h
1
=
_
_
_
_
2
1
0
0
_
_
_
_
y h
2
=
_
_
_
_
1
0
1
1
_
_
_
_
.
El hecho de h
1
y h
2
sean soluciones es claro, por que h
1
es producido cuando x
4
= 0 y x
2
= 1,
mientras que h
2
es generado cuando x
2
= 0 y x
4
= 1.
Ahora consideremos el sistema homogeneo general
a
11
x
1
+ a
12
x
2
+ ... + a
1n
x
n
= 0
a
21
x
1
+ a
22
x
2
+ ... + a
2n
x
n
= 0
.
.
.
.
.
.
a
m1
x
1
+ a
m2
x
2
+ ... + a
mn
x
n
= 0
,
de m ecuaciones y n incognitas. Si la matriz de coecientes es tal que r(A) = r, entonces es
obvio que se tienen r variables base y n r variables libres. Reduciendo a A en una forma
escalonada usando la eliminacion Gaussiana y despues usando la sustitucion regresiva para
expresar las variables base en terminos de las variables libres se produce la solucion general,
la cual tiene la forma
x = x
f
1
h
1
+ x
f
2
h
2
+ ... + x
f
nr
h
nr
(3.2)
Donde x
f
1
, ..., x
f
nr
son las variables libres y h
1
, ..., h
nr
son columnas n 1 las cuales repre-
sentan soluciones particulares del sistema.
26 CAP

ITULO 3. SISTEMAS RECT

ANGULARES Y FORMAS ESCALONADAS


Ahora, regresemos a la pregunta cuando la solucion trivial no es la unica solucion para un
sistema homogeneo?. La respuesta se obtiene de la solucion general (3.2). Note que si al menos
en (3.2) se tiene una variable libre entonces se generan innidad de soluciones. Consecuente-
mente, la solucion trivial es la unica solucion s y solo s no hay variables libres. Como el
n umero de variables libres es dado por n r, donde r(A) = r, entonces el enunciado anterior
puede ser reformulado por: un sistema homogeneo posee una solucion unica, la solucion trivial,
si y solo si r(A) = n.
3.5 Sistemas no Homogeneos
El sistema
a
11
x
1
+ a
12
x
2
+ ... + a
1n
x
n
= b
1
a
21
x
1
+ a
22
x
2
+ ... + a
2n
x
n
= b
2
.
.
.
.
.
.
a
m1
x
1
+ a
m2
x
2
+ ... + a
mn
x
n
= b
m
,
es no homogeneo si b
i
,= 0, para al menos un i. Como los sistemas homogeneos, un sistema no
homogeneo puede ser consistente. Para describir el conjunto de todas las posibles soluciones de
un sistema homogeneo consistente, construimos una solucion general usando el mismo metodo
que utilizamos para los sistemas homogeneos. Esto es:
1. Usar la eliminacion Gaussiana para reducir la matriz aumentada [A[b] a una matriz [E[c],
donde E es una forma escalonada asociada a A.
2. Identicar las variables base y las variables libres.
3. Aplicar sustitucion regresiva a [E[c] y resolver para las variables base en terminos de las
variables libres.
4. Escribir el resultado en la forma
x = p + x
f
1
h
1
+ ...x
f
nr
h
nr
, (3.3)
donde x
f
1
, ..., x
f
nr
son las variables libres y p, h, ..., h
nr
son columnas n 1, las cuales
son soluciones particulares. Esta el la solucion general de los sistemas no homogeneos.
La diferencia entre la solucion general de un sistema homogeneo y uno no homogeneo es la
columna p, la cual aparece en (3.3). Veamos por que aparece p considerando el sistema no
homogeneo
x
1
+ 2x
2
+ 2x
3
+ 3x
4
= 4
2x
1
+ 4x
2
+ x
3
+ 3x
4
= 5
3x
1
+ 6x
2
+ x
3
+ 4x
4
= 7
,
3.5. SISTEMAS NO HOMOGENEOS 27
cuya matriz de coecientes es la misma que la del sistema de la seccion anterior.
Usando el metodo de Gauss-Jordan se tiene
[A[b] =
_
_
1 2 2 3
2 4 1 3
3 6 4 7

4
5
7
_
_

_
_
1 2 0 1
0 0 1 1
0 0 0 0

2
1
0
_
_
= E
[A|b ]
Entonces:
x
1
+ 2x
2
+ x
4
= 2
x
3
+ x
4
= 1
Resolviendo para las columnas base x
1
y x
3
en terminos de las variables libre x
2
y x
4
, se
produce:
x
1
= 2 2x
2
x
4
x
3
= 1 x
4
As, la solucion general es:
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
=
_
_
_
_
2 2x
2
x
4
x
2
1 x
4
x
4
_
_
_
_
=
_
_
_
_
2
0
1
0
_
_
_
_
+ x
2
_
_
_
_
2
1
0
0
_
_
_
_
+ x
4
_
_
_
_
1
0
1
1
_
_
_
_
Ponga atencion en el hecho de que p =
_
_
_
_
2
0
1
0
_
_
_
_
es una solucion paricular del sistema cuando
x
2
= x
4
= 0.
Ademas la solucion del sistema homogeneo
x
1
+ 2x
2
+ 2x
3
+ 3x
4
= 0
2x
1
+ 4x
2
+ x
3
+ 3x
4
= 0
3x
1
+ 6x
2
+ x
3
+ 4x
4
= 0
,
Es:
_
_
_
_
2x
2
x
4
x
2
1 x
4
x
4
_
_
_
_
= x
2
_
_
_
_
2
1
0
0
_
_
_
_
+ x
4
_
_
_
_
1
0
1
1
_
_
_
_
Tales soluciones del sistema no homogeneo y del sistema homogeneo, solo dieren en p. Por
tanto decimos que la solucion general de un sistema no homogeneo es dada por una solucion
particular p, mas la solucion general del sistema homogeneo asociado.
Ahora respondamos la pregunta cuando un sistema consistente tiene solucion unica?. Se sabe
que la solucion general de un sistema no homogeneo consistente [A[b] con r(A) = r es dada
por :
28 CAP

ITULO 3. SISTEMAS RECT

ANGULARES Y FORMAS ESCALONADAS


x = p + x
f
1
h
1
+ ... + x
f
nr
h
nr
,
donde:
x
f
1
h
1
+ ... + x
f
nr
h
nr
es la solucion general del sistema homogeneo asociado. Consecuente-
mente, es evidente que el sistema no homogeneo [A[b] tiene solucion unica p si y solo si no
tiene variables libres o equivalente si r(A) = n. Esto equivale a decir que el sistema homoge-
neo asociado [A[0] tiene unicamente la solucion trivial.
Captulo 4

Algebra Matricial
4.1 Adicion, Multiplicacion Escalar y Transpuesta
En los captulos previos, la notacion y el lenguaje matricial fue usada simplemente para for-
mular algunos de los conceptos elementales relacionados a sistemas lineales. El proposito en
este captulo es usar el lenguaje dentro de una teoria matematica.
Un escalar es un n umero complejo. Los n umeros reales son un subconjunto de los n umeros
complejos, y as los n umeros reales son escalares, en estas notas solo se consideran escalares
que son n umeros reales.
IR Denotara al conjunto de los n umeros reales y IR
mn
denotara el conjunto de matriz de
tama no u orden mn.
Las matrices A = (a
ij
) y B = (b
ij
) son iguales cuando A y B tienen la misma forma (son del
mismo tama no u orden) y sus correspondientes entradas son iguales, esto es:
a
ij
= b
ij
para cada i = 1, , m y j = 1, , n.
4.1.1 Adicion de Matrices
Denicion 4.1.1 (Adicion matricial). Si A, B IR
mn
(A y B son matrices de orden
mn) la suma de A y B es denida como la matriz A+B de orden mn, obtenida al sumar
las correspondientes entradas, esto es:
(A + B)
ij
= a
ij
+ b
ij
para cada i, j.
Ejemplo 4.1.1. Aplicando la denicion de suma de matrices se tiene que
_
2 x 3
z + 3 4 4
_
+
_
2 1 x 2
3 4 + x 4 + y
_
=
_
0 1 1
z 8 + x y
_
.
29
30 CAP

ITULO 4.

ALGEBRA MATRICIAL
La matriz (A), llamada inversa aditiva de A, es denidad como la matriz obtenida del
negativo de cada entrada de A, esto es, si A = (a
ij
), entonces:
A = (a
ij
).
De esto sigue la denicion de sustraccion de matrices. Para dos matrices del mismo orden, la
diferencia AB es denida para ser la matriz AB = A+ (B), as
(AB)
ij
= a
ij
b
ij
para cada i, j.
Propiedades de la Adicion Matricial
Para A, B, C IR
mn
, las siguientes propiedades se cumplen:
Propiedad de clausura: A+ B IR
mn
.
Propiedad asociativa: (A + B) + C = A+ (B + C).
Propiedad conmutativa: A+ B = B + A.
Identidad aditiva: La matriz 0 IR
mn
, cuyas entradas son cero, tienen la propiedad
A+ 0 = A.
Inversa aditiva: La matriz (A) IR
mn
tiene la propiedad A+ (A) = 0.
Considere la suma de la forma:
A+ A+ + A
. .
k veces
,
en la cual A es sumada k veces. Por denicion de la adicion se tiene que la ij-esima entrada
de tal suma es:
[A+ A+ + A]
ij
= a
ij
+ a
ij
+ + a
ij
= ka
ij
.
Esto motiva la siguiente denicion de forma natural.
4.1.2 Multiplicacion Escalar
Denicion 4.1.2 (Multiplicacion escalar). El producto de un escalar y una matriz A es
denotada por A y denida como la matriz obtenida al multiplicar cada entrada de A por .
Esto es, si A = (a
ij
), entonces:
(A)
ij
= a
ij
para cada i, j.
Esta operacion es llamada multiplicacion escalar.
Ejemplo 4.1.2. Aplicando la denicion de m ultiplicacion escalar se tiene que
2
_
_
1 2 3
0 1 2
1 4 2
_
_
=
_
_
2 4 6
0 2 4
2 8 4
_
_
y
_
_
1 2
3 4
0 1
_
_
=
1
2
_
_
2 4
6 8
0 2
_
_
.
4.1. ADICI

ON, MULTIPLICACI

ON ESCALAR Y TRANSPUESTA 31
Propiedades de la Multiplicacion Escalar
Para matrices A, B IR
mn
y escalares , , las siguientes propiedades se cumplen:
Propiedad de clausura: A IR
mn
.
Propiedad asociativa: () A = (A)
Propiedad distributiva: (A + B) = A+ B, la multiplicacion escalar es distributiva
sobre la adicion escalar.
Propiedad distributiva: ( + ) A = A + A, la multiplicacion escalar es distributiva
sobre la adicion escalar.
Propiedad identidad: 1A = A.
Dada una matriz A IR
mn
, es frecuente manipular una matriz asociada obtenida de A al
intercambiar sus renglones y columnas.
4.1.3 La Transpuesta de una Matriz
Denicion 4.1.3 (Transpuesta). Para una matriz A IR
mn
, la transpuesta de A, deno-
tada por A

, es denida como la matriz obtenida de A al intercambiar sus renglones con sus


columnas. esto es, si:
A = (a
ij
), entonces (A

)
ij
= a
ji
para cada i, j.
Ademas A

IR
nm
. As, es evidente que (A

= A
Ejemplo 4.1.3. Aplicando la denicion de transpuesta de una matriz, se tiene que
_
_
1 2
3 4
5 6
_
_

=
_
1 3 5
2 4 6
_
.
Observe que la matriz
A =
_
_
1 2 3
2 4 5
3 2 6
_
_
, es igual a su transpuesta, esto es A = A

. Las matrices que exiben esta


estructura son llamadas matrices simetricas.
Denicion 4.1.4 (Matriz simetrica y antisimetrica). Una matriz cuadrada A = (a
ij
), se
dice que es simetrica si:
A = A

, i.e. si a
ij
= a
ji
.
A es llamada antisimetrica si:
A = A

, i.e. si a
ij
= a
ji
.
32 CAP

ITULO 4.

ALGEBRA MATRICIAL
Propiedades de la Transpuesta
Si A, B, IR
mn
, y si es un escalar entonces se cumple.
i) (A+ B)

= A

+ B

.
ii)(A)

= A

.
Demostracion. Por la denicion de matriz transpuesta y adicion matricial se verica lo
siguiente:
i)
_
(A+ B)

_
ij
= (A + B)
ji
= a
ji
+ b
ji
= (A

)
ij
+ (B

)
ij
= (A

+ B

)
ij
ii)
_
(A)

_
ij
= (A)
ji
= a
ji
= (A

)
ij
= (A

)
ij
.
4.2 Linealidad
En matematica elemental, el termino funcion lineal se reere a lineas rectas, pero en matematica
avanzada la linealidad signica algo mas general. Recordando, una funcion f es una regla que
asocia puntos de un conjunto D, llamado dominio de f , con puntos en otro conjunto R, el
rango de f. Una funcion lineal es un tipo particular de funcion la cual es caracterizada por la
siguiente dos propiedades.
Denicion 4.2.1 (Funcion lineal). Suponga que D y R son conjuntos, los cuales poseen las
operaciones adicion matricial y multiplicacion escalar. Una funcion f la cual mapea puntos
de D a R se dice que es una funcion lineal si f satisface:
f(x + y) = f(x) + f(y) (4.1)
y
f(x) = f(x), (4.2)
para cada x y y en D y para toda real . Estas dos condiciones pueden ser cambiadas, i.e. f
es una funcion lineal si:
f(x + y) = f(x) + f(y), (4.3)
para todo escalar a y para todo x, y D.
Una de las funciones lineales mas simple es:
f(x) = x,
cuya graca en IR
2
es una linea recta.
Veriquemos que f(x) = x es efectivamente una funcion lineal, usando (4.3). Sean x
1
, x
2
IR
y

escalar, entonces
f(

x
1
+x
2
) = (

x
1
+x
2
) = (

x
1
) +x
2
=

(x
1
) +x
2
=

f(x
1
) +f(x
2
).
4.2. LINEALIDAD 33
En IR
3
, la supercie descrita por la funcion
f(x
1
, x
2
) =
1
x
1
+
2
x
2
es una funcion lineal ya que para (y
1
, y
2
), (z
1
, z
2
) IR
2
y para todo escalar se tienen:
f((y
1
, y
2
) + (z
1
, z
2
)) = f(y
1
+ z
1
, y
2
+ z
2
) =
1
(y
1
+ z
1
) +
2
(y
2
+ z
2
) =
(
1
y
1
+
2
y
2
) + (
1
z
1
+
2
z
2
) = f(y
1
, y
2
) + f(z
1
, z
2
).
As, podemos generalizar diciendo que la funcion
f(x
1
, x
2
, , x
n
) =
1
x
1
+
2
x
2
+ +
n
x
n
es una funcion lineal.
La linealidad es encontrada en diferentes familias de operaciones. Por ejemplo en la diferen-
ciacion y en la integracion.
Dado que
d(f + g)
dx
=
df
dx
+
dg
dx
y
d(f)
dx
=
df
dx
,
el operador diferenciacion denida por D
x
(f) =
df
dx
cumple las condiciones para ser una funcion
lineal.
Similarmente
_
(f + g)dx =
_
fdx +
_
gdx y
_
fdx =
_
fdx,
signica que el operador integral I(f) =
_
fdx es una funcion lineal.
Ahora, considere el operador transpuesta y de sus propiedades se tiene que:
(A+ B)

= A

+ B

y (A)

= A

.
Esto signica que la funcion transpuesta ()

es una funcion lineal f : IR


mn
IR
nm
.
Otra funcion lineal importante es denida en el conjunto de matrices cuadradas, esta es pre-
sentada en el siguiente ejemplo.
34 CAP

ITULO 4.

ALGEBRA MATRICIAL
Ejemplo 4.2.1. Para una matriz A = (a
ij
) IR
nn
, la traza de A es denida como la suma
de las entradas de las diagonal principal de A. Esto es:
tr(A) =
n

i=1
a
ii
.
La traza es una funcion lineal por que las propiedades
tr(A+ B) = tr(A) + tr(B) y tr(A) = tr(A),
se cumplen para A, B IR
nn
y para todo escalar . Veriquemos tales propiedades.
Sea f(A) = tr(A) : IR
nn
IR, y sea A = (a
ij
) y B = (b
ij
), entonces
tr(A + B) =

n
i=1
(A + B)
ii
=

n
i=1
(a
ii
+ b
ii
) =

n
i=1
a
ii
+

n
i=1
b
ii
=
tr(A) + tr(B).
Ejemplo 4.2.2. Para una matriz dada A = (a
ij
) IR
mn
, muestre que la funcion U = f(x)
la cual mapea puntos
X =
_
_
_
x
1
.
.
.
x
n
_
_
_ IR
n
en puntos U =
_
_
_
u
1
.
.
.
u
n
_
_
_ IR
m
de acuedo a la regla
a
11
x
1
+ + a
1n
x
n
= u
1
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
x
1
+ + a
mn
x
n
= u
m
AX = U, es lineal.
Solucion: Exprese la imagen de un punto arbitrario x como
f(x) = f
_
_
_
x
1
.
.
.
x
n
_
_
_ =
_
_
_
a
11
x
1
+ + a
1n
x
n
= u
1
.
.
.
a
m1
x
1
+ + a
mn
x
n
= u
m
_
_
_ = x
1
_
_
_
a
11
.
.
.
a
m1
_
_
_ + +
x
n
_
_
_
a
1n
.
.
.
a
mn
_
_
_ = x
1
A
1
+ + x
n
A
n
=

n
j=1
x
j
A
j
,
donde A
j
es la j-esima columna de A.
Ahora, para cada par de puntos
4.3. MULTIPLICACI

ON MATRICIAL 35
X =
_
_
_
x
1
.
.
.
x
n
_
_
_ y Y =
_
_
_
y
1
.
.
.
y
n
_
_
_
y para todo escalar , tenemos
f(x + y) = f
_
_
_
x
1
+ y
1
.
.
.
x
n
+ y
n
_
_
_ =

n
j=1
(x
j
+ y
j
) A
j
=

n
j=1
(x
j
A
j
+ y
j
A
j
) =

n
j=1
x
j
A
j
+

n
j=1
y
j
A
j
= f(x) + f(y).
De acuerdo a (4.3), la funcion f es lineal.
La funcion lineal en el ejemplo anterior toma la forma
f(x) = x
1
A
1
+ x
2
A
2
+ + x
n
A
n
=

n
j=1
x
j
A
j
,
donde las x
j
s son escalares y las A
j
s son columnas, es llamada combinacion lineal.
Denicion 4.2.2 (Combinacion lineal). Para escalares
j
y matrices o columnas X
j
, la
expresion

1
X
1
+ +
n
X
n
=

n
j=1

j
X
j
,
es llamada una combinacion lineal de las x
j
s.
4.3 Multiplicacion Matricial
En esta seccion desarrollamos el concepto de multiplicacion matricial. Para esto, es util comen-
zar por multiplicacion de un renglon y una columna, si
R

= (r
1
, r
2
, r
n
) y C =
_
_
_
c
1
.
.
.
c
n
_
_
_,
el producto interno (o producto punto) de R y C se dene como el escalar:
R

C = r
1
c
1
+ r
2
c
2
+ r
n
c
n
=

n
i=1
r
i
c
i
36 CAP

ITULO 4.

ALGEBRA MATRICIAL
Ejemplo 4.3.1. Aplicando la denicion de producto interno, se tiene que
_
2 4 2
_
_
_
1
2
3
_
_
= (2 + 8 6) = 4.
Se dice que las matrices A y B son conformables si el n umero de columna de A es el mismo
que el n umero de renglones de B. i.e. A IR
mp
y B IR
pn
.
Denicion 4.3.1 (Multiplicacion matricial). Para matrices conformables A
mp
= (a
ij
)
y B
pn
= (b
ij
), el producto matricial AB es la matriz m n cuyo ij- esimo elemento es el
producto interno del i-esimo rengl on de A y la j-esima columna de B. i.e.
(AB)
ij
= A

i
B
j
=
p

k=1
a
ik
b
kj
.
En caso de que A y B no sean conformables, entonces AB no esta denido.
Ejemplo 4.3.2. Si las entradas de A y B son:
A =
_
2 1 4
3 0 5
_
y B =
_
_
1 3 3 2
2 5 1 8
1 2 0 2
_
_
,
entonces el producto AB es
AB =
_
2 1 4
3 0 5
_
_
_
1 3 3 2
2 5 1 8
1 2 0 2
_
_
=
_
8 3 7 4
8 1 9 4
_
.
Note que el producto BA no esta denido ya que B y A no son conformables, ya que B IR
34
y A IR
23
.
A un cuando el producto AB y BA existen y tienen la misma forma, ellos no necesariamente
son iguales.
Ejemplo 4.3.3. Si A y B son matrices tales que
A =
_
1 1
1 1
_
y B =
_
1 1
1 1
_
,
4.3. MULTIPLICACI

ON MATRICIAL 37
entonces
AB =
_
0 0
0 0
_
y BA =
_
2 2
2 2
_
.
Esta es una de las principales diferencia entre el algebra escalar y el algebra matricial. As, la
multiplicacion matricial no es conmutativa. Otra diferencia se muestra acontinuaion.
Para escalares
= 0 implica que = 0 o = 0.
Lo cual no se cumple para la multiplcacion matricial. Pues es posible que AB = 0 con A ,= 0
y B ,= 0.
Otra diferencia es la ley de cancelacion, para escalares, esta ley dice que:
= y ,= 0 implica que = .
Lo cual no se cumple para la multiplicacion matricial, como se muestra en el siguiente ejemplo.
Ejemplo 4.3.4. La ley de cancelacion falla para la multiplicacion matricial, si
A =
_
1 1
1 1
_
, B =
_
2 2
2 2
_
y C =
_
3 1
1 3
_
,
entonces
AB =
_
4 4
4 4
_
= AC, pero B ,= C.
Los Renglones de un Producto
Para matrices A
mp
= (a
ij
) y B
pn
= (b
ij
), el i-esimo renglon de AB es dado por:
(AB)

i
= A

i
B.
Esto es (i-esimo renglon de AB) = (i-esimo renglon de A)B, Ademas:
(AB)

i
= a
i1
B

1
+ a
i2
B

2
+ + a
ip
B

p
=

p
k=1
a
ip
B

p
.
Esto es, el i-esimo renglon de AB es una combinacion lineal de los renglones de B.
38 CAP

ITULO 4.

ALGEBRA MATRICIAL
Las Columnas de un Producto
Para matrices A
mp
= (a
ij
) y B
pn
= (b
ij
), la j-esima columna de AB es:
(AB)
j
= AB
j
.
Esto es, la (j-esima columna de AB) =A(j-esimo renglon de B). Ademas
(AB)
j
= A
1
b
1j
+ A
2
b
2j
+ + A
p
b
pj
=

p
k=1
A
k
b
kj
Esto es, la j-esima columna de AB es una combinaci on lineal de las columnas de A.
As, AB =
_

_
A

1
B
.
.
.
A

p
B
_

_ =
_
AB
1
AB
p
_
.
4.3.1 Propiedades de la Multiplicacion Matricial
Teorema 4.3.1. Para matrices conformables se tiene:
i) A(B + C) = AB + AC (Ley distributiva del lado izquierdo)
ii) (D + E)F = DF + EF (Ley distributiva del lado derecho)
iii) A(BC) = (AB)C (Ley asociativa).
Demostracion.
i) Se demostrara que [A(B + C)]
ij
= [AB + AC]
ij
.
Por denicion de multiplicacion matricial se tiene:
[A(B + C)]
ij
= A

i
(B +C)
j
=

k
a
ik
(B +C)
kj
=

k
a
ik
(b
kj
+c
kj
) =

k
a
ik
b
kj
+

k
a
ik
c
kj
= A

i
B
j
+ A

i
C
j
= (AB)
ij
+ (AC)
ij
= (AB + AC)
ij
.
ii) Analogamante a i).
iii) [A(BC)]
ij
= A

i
(BC)
j
= A

k
B
k
c
kj
=

k
A

i
B
k
c
kj
=

k
(AB)
ik
c
kj
= (AB)

i
C
j
=
[(AB) C]
ij
.
Denicion 4.3.2 (Matriz identidad). La matriz n n con 1s en la diagonal principal y
0s fuera de ella,
I
n
=
_
_
_
_
_
1 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_
_
_
_
_
,
4.3. MULTIPLICACI

ON MATRICIAL 39
es llamada matriz identidad de orden n.
Para cada matriz A
AI
n
= A y I
n
A = A.
ya que
(AI
n
)
ij
= A

i
I
j
=

k
a
ik
(I)
kj
= a
ij
.
Por tanto
AI
n
= A.
De igual forma se demuestra que I
n
A = A.
Analogamente al algebra escalar se dene, para una matriz A IR
nn
.
A
0
= I
n
y A
n
= AA A
. .
n veces
.
Se generaliza la ley usual de exponentes. Para enteros no negativos r, s.
A
r
A
s
= A
r+s
y (A
r
)
s
= A
rs
.
Teorema 4.3.2. Para matrices conformables A y B,
(AB)

= B

.
Demostracion. Por denicion de transpuesta y multiplicacion matricial, se verica la sigui-
ente cadena de igualdades:
(AB)

ij
= (AB)
ji
= A

j
B
i
=

k
a
jk
b
kj
=

k
b
ki
a
jk
=

k
(B

)
ik
(A

)
kj
= (B

)
ij
.
Ejemplo 4.3.5. Para cada matriz A IR
mn
, los productos A

A y AA

son matrices
simetricas por que:
(A

A)

= A

(A

= A

A y (AA

= (A

= AA

.
Ejemplo 4.3.6. Demuestre que
tr(AB) = tr(BA).
Solucion: Por la denicion de traza y del producto de matrices, se tiene que
tr(AB) =

i
(AB)
ii
=

i
A

i
B
i
=

i

j
a
ij
b
ji
=

j

i
b
ji
a
ij
=

j
B

j
A
j
=

j
(BA)
jj
= tr(BA).
40 CAP

ITULO 4.

ALGEBRA MATRICIAL
4.4 Multiplicacion de Matrices Particionadas
Supongase que A y B son particionadas en submatrices, tambien llamadas bloques, como se
indica a continuacion:
A =
_
_
_
_
_
A
11
A
12
A
1r
A
21
A
22
A
2r
.
.
.
.
.
.
.
.
.
.
.
.
A
s1
A
s2
A
sr
_
_
_
_
_
y B =
_
_
_
_
_
B
11
B
12
B
1t
B
21
B
22
B
2t
.
.
.
.
.
.
.
.
.
.
.
.
B
r1
B
r2
B
rt
_
_
_
_
_
.
Si los pares (A
ik
, B
kj
) son conformables, entonces A y B se dicen que son particionadas con-
formables. Para tales matrices, el producto AB es formado por la combinacion de los bloques
de la misma forma como los escalares, son combinados en la multiplicacion ordinaria, esto es,
el (i, j) - bloque en AB es:
A
i1
B
1j
+ A
i2
B
2j
+ + A
ir
B
rj
.
Ejemplo: Considere las matrices particionadas
A =
_
_
_
_
1 2 1 0
3 4 0 1
1 0 0 0
0 1 0 0
_
_
_
_
=
_
C I
I 0
_
, B =
_
_
_
_
1 0 0 0
0 1 0 0
1 2 1 2
3 4 3 4
_
_
_
_
=
_
I 0
C C
_
As
AB =
_
C I
I 0
__
I 0
C C
_
=
_
2CI CI
I
2
0
_
=
_
_
_
_
2 4 1 2
6 8 3 4
1 0 0 0
0 1 0 0
_
_
_
_
.
Denicion 4.4.1 (Matriz Inversa). Para una matriz cuadrada A
nn
, la matriz B
nn
, la
cual satisface que:
AB = BA = I
n
,
es llamada la inversa de A, y es denotada por:
B = A
1
.
No toda la matriz cuadrada tiene inversa. La matriz cero es un ejemplo trivial. Una matriz
que tiene inversa es llamada matriz no singular y si no posee inversa inversa es llamada matriz
singular.
Ejemplo: Si
4.4. MULTIPLICACI

ON DE MATRICES PARTICIONADAS 41
A =
_
a b
c d
_
donde = ad bc ,= 0.
Entonces
A
1
=
1

_
d b
c a
_
,
ya que
AA
1
= A
1
A = I.
Teorema 4.4.1 (Unicidad de la Inversa). Para una matriz singular A, A
1
= B es unica.
Demostracion. Supongamos que existe C tal que AC = CA = I. As, C = CI = C(AB) =
(CA)B = IB = B. Por tanto B = A
1
es unica.
Calculo de la Inversa de una Matriz
Una matriz A IR
nn
es no singular si y solo si la matriz aumentada [A [ I] puede ser reducida
por renglones a la forma [I [ X], en cuyo caso X = A
1
. Esto es
[A [ I]
GaussJordan
[I [ X].
La matriz es singular si y solo si la reduccion falla.
Ejemplo: Si es posible encuentra la inversa de A =
_
_
1 1 1
1 2 2
1 2 3
_
_
.
Solucion.
(A [ I) =
_
_
1 1 1 1 0 0
1 2 2 0 1 0
1 2 3 0 0 1
_
_

_
_
1 1 1 1 0 0
0 1 1 -1 1 0
0 1 2 -1 0 1
_
_

_
_
1 0 0 2 -1 0
0 1 1 -1 1 0
0 0 1 0 -1 1
_
_

_
_
1 0 0 2 -1 0
0 1 0 -1 2 -1
0 0 1 0 -1 1
_
_
.
As, A
1
=
_
_
2 1 0
1 2 1
0 1 1
_
_
.
Teorema 4.4.2 (Existencia de una Inversa). Para una matriz A IR
nn
, los siguientes
enunciados son equivalentes para decir que A
1
existe:
42 CAP

ITULO 4.

ALGEBRA MATRICIAL
r(A) = n
Ax = 0 implica que x = 0.
Demostracion. A es no singular, si cada ecuacion Ax = I
j
, tiene una unica solucion. De
resultados de sistemas consistentes Ax = b tiene solucion unica si y solo si r(A) = n. De
resultados del sistema homogeneo Ax = 0 tiene solucion unica, x = 0, si r(A) = n.
Propiedades de la matriz inversa
Si A y B son matrices no singulares, entonces se cumple lo siguiente:
i) (A
1
)
1
= A
ii) El producto AB es no singular.
iii) (AB)
1
= B
1
A
1
.
iv) (A
1
)

= (A

)
1
Demostracion. i) Sigue inmediato de la denicion de inversa.
iii) Sea x = B
1
A
1
, entonces
(AB)x = ABB
1
A
1
= AA
1
= I. As, (AB)
1
= B
1
A
1
, y por consiguiente AB es no
singular, demostrando ii).
iv) Sea x = (A
1
)

, as A

x = A

(A
1
)

= (A
1
A)

= I. Por tanto (A

)
1
= (A
1
)

.
Teorema 4.4.3. Si A
1
, A
2
, , A
k
son matrices n n singulares, entonces el producto
A
1
A
2
A
k
es no singular y
(A
1
A
2
A
k
)
1
= A
1
k
A
2
k1
A
1
1
.
Demostracion. Utilizando iii) e induccion completa.
Ejemplo 4.4.1 (Teorema de Sherman-Morrison). Si A IR
nn
es no singular y si c y
d son columnas n 1 tal que 1 + d

A
1
c ,= 0, entonces la suma A + cd

es no sincgular, y su
inversa es:
(A+ cd

)
1
= A
1

A
1
cd

A
1
1 + d

A
1
c
ya que
(A+ cd

) (A+ cd

)
1
= (A+ cd

)
_
A
1

A
1
cd

A
1
1 + d

A
1
c
_
= I
cd

A
1
1 + d

A
1
c
+cd

A
1

cd

A
1
cd

A
1
1 + d

A
1
c
= I +
c
1 + d

A
1
c
__
1 + d

A
1
c
_
I I d

A
1
c

A
1
= I.
4.5. MATRICES ELEMENTALES Y EQUIVALENTES 43
Teorema 4.4.4 (Teorema de Sherman-Morrison-Woodbury). Si A IR
nn
es una
matriz no singular y si C IR
nk
y D IR
kn
son matrices tal que I + D

A
1
C es no
singular, entonces la suma A+ CD

es no singular y
(A+ CD

)
1
= A
1
A
1
C
_
I + D

A
1
C
_
1
D

A
1
.
Demostracion.
(A+ CD

)
_
A
1
A
1
C
_
I + D

A
1
C
_
1
D

A
1
_
= I C
_
I + D

A
1
C
_
1
D

A
1
+CD

A
1
CD

A
1
C
_
I + D

A
1
C
_
1
D

A
1
=
I + C
__
I + D

A
1
C
_
I D

A
1
C
_
I + D

A
1
C
_
1
D

A
1
= I
4.5 Matrices Elementales y Equivalentes
4.5.1 Matrices Elementales
Denicion 4.5.1 (Matrices elementales). Matrices de la forma I uv

, donde u y v son
columnas n 1 tal que v

v ,= 1 son llamadas matrices elementales. El teorema de Sherman-


Morrison garantiza que las matrices elementales son no singular y
(I uv

)
1
= I
uv

u 1
. (4.4)
Note que la inversa de una matriz elemntal es de nuevo una matriz elemental.
Estamos interesados en matrices elementales asociadas con las tres operaciones elementales de
renglones, por ejemplo las matrices
E
1
=
_
_
0 1 0
1 0 0
0 0 1
_
_
, E
2
=
_
_
1 0 0
0 0
0 0 1
_
_
, E
3
=
_
_
1 0 0
0 1 0
0 1
_
_
, (4.5)
son matrices elementales asociadas a las operaciones elementales de renglones Tipo I,Tipo II
y Tipo III, respectivamente.
Para ver que las matrices dadas en (4.5) son elementales observe que
E
1
= I uu

, donde u = e
1
-e
2
=
_
_
1
0
0
_
_

_
_
0
1
0
_
_
=
_
_
1
1
0
_
_
44 CAP

ITULO 4.

ALGEBRA MATRICIAL
E
2
= I (1 )e
2
e

2
,
E
3
= I + e
3
e

1
.
En general se tiene. Sea I la matriz identidad de orden n, y sean e
i
y e
j
la i-esima y la j-esima
columna unitaria. Las matrices elementales asociadas a las operaciones elementales de renglon
(o columnas) son:
Tipo I: I uu

Donde u =e
i
-e
j
Tipo II: I (1 )e
i
e

i
Donde ,= 0
Tipo III: I + e
j
e

i
Donde ,= 0
Teorema 4.5.1 (Propiedades de Matrices Elementales). Las matrices elementales tienen
las siguientes propiedades:
i) Cuando usamos como multiplo de lado izquierdo, una matriz elemental de tipo # ejecuta
una operacion de renglon de tipo #.
ii) Cuando usamos como multiplo de lado derecho, una matriz elemental de tipo # ejecuta una
operacion de columna de tipo #.
iii) La inversa de una matriz elemental de tipo # es de nuevo una matriz elemental de tipo #.
Mas especicamente:
(I uu

)
1
= I uu

Donde u=e
i
-e
j
(I (1 )e
i
e

i
)
1
= I (1 )e
i
e

i
Donde ,= 0
(I + e
j
e

i
)
1
= I + e
j
e

i
Para i ,= j.
Demostracion. Se probara las primeras dos propiedades, i) y ii), para el casa de operaciones
de Tipo III. Usamos I + e
j
e

i
como multiplo de lado izquierdo sobre A se tiene
(I + e
j
e

i
) A = A + e
j
e

i
A = A + e
j
A

i
= A+
_
_
_
_
_
_
_
_
0 0 0
.
.
.
.
.
.
.
.
.
a
i1
a
i2
a
in
.
.
.
.
.
.
.
.
.
0 0 0
_
_
_
_
_
_
_
_
Esta es exatamente la matriz producida por una operacion de renglon de tipo III en la cual el
i-esimo renglon de A es multiplicado por y el resultado es sumado al j-esimo renglon.
Cuando I + e
j
e

i
es usado como multiplo de lado derecho sobre A, se tiene
A(I + e
j
e

i
)= A+Ae
j
e

i
= A + A
j
e

i
= A+ =
_
_
_
_
_
0 a
1j
0
0 a
2j
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 a
mj
0
_
_
_
_
_
4.5. MATRICES ELEMENTALES Y EQUIVALENTES 45
Este es resultado de la operacion de columnas de Tipo III, en la cual la j-esima es multiplicada
por y despues es sumada a la i-esima columna.
Para mostrar iii) aplique (4.4).
Ejemplo 4.5.1. Las operaciones elementales por renglones para reducir a
A =
_
_
1 2 4
2 4 8
3 6 13
_
_
en E
A
son mostradas de la forma siguiente.
A =
_
_
1 2 4
2 4 8
3 6 13
_
_
R
2
2R
1
R
3
3R
1
_
_
1 2 4
0 0 0
0 0 1
_
_
R
2
por R
3
_
_
1 2 4
0 0 1
0 0 0
_
_
R
1
4R
2
_
_
1 2 0
0 0 1
0 0 0
_
_
= E
A
.
Las reduccion puede llevarse acabo por una secuencia de multiplicaciones de lado izquierdo de
matrices elementales.
_
_
1 4 0
0 1 0
0 0 1
_
_
_
_
1 0 0
0 0 1
0 1 0
_
_
_
_
1 0 0
0 1 0
3 0 1
_
_
_
_
1 0 0
2 1 0
0 0 1
_
_
A = E
A
.
El producto de estas matrices elementales es P =
_
_
13 0 4
3 0 1
2 1 0
_
_
, y se puede vericar que
PA = E
A
.
Teorema 4.5.2. Una matriz A es no singular si y solo si A es producto de matrices elementales
de Tipo I,II o III.
Demostracion. Si A es no singular, el metodo de Gauss-Jordan reduce a A en I por opera-
ciones de renglon, si G
1
,G
2
, G
k
, es la secuencia de matrices elementales correspondientes a
las operaciones de renglones empleadas, entonces
G
k
G
2
G
1
A = I, o equivalentemente A = G
1
1
G
1
2
G
1
k
.
Dado que la inversa de una matriz elemental es de nuevo una matriz elemental del mismo tipo,
esto pueba que Q

A es un producto de matrices elementales, inversamente, si A = E


1
E
2
E
k
es un producto de matrices elementales, entonces A debe ser no singular por que las E
i
s son
no singular, y un producto de matrices no singulares, es no singular.
46 CAP

ITULO 4.

ALGEBRA MATRICIAL
4.5.2 Matrices Equivalentes
Denicion 4.5.2 (Matrices equivalentes). Si B puede ser derivada de A por una com-
binacion de operaciones elementales de renglones y columnas, escribase AB, decimos que A
y B son matrices equivalentes. Dado que las operaciones elementales de renglones y columnas
son multiplicaciones por la izquierda y la derecha de matrices elementales, se puede escribir
A B matrices P y Q no singular tal que PAQ = B
Si B puede ser obtenida de A mediante una secuencia solo de operaciones de renglones,
escribase A
row
B, decimos que A y B son equivalentes por renglones.
A
row
B P no singular tal que PA = B.
Si B puede ser obtenida de A mediante operaciones elementales de columnas, solamente,
escribase A
col
B, decimos que A y B son equivalentes por columnas.
A
col
B Q no singular tal que AQ = B.
Si es posible ir de A a B mediante operaciones elementales de renglones y columnas, entonces
es claro que es posible comenzar con B y regresar a A porque las operaciones elementales son
reversibles, i.e. PAQ = B P
1
BQ
1
= A. Por tanto tiene sentido hablar acerca de la
equivalencia de un par de matrices sin considerar el orden. En otras palabras, A B B A.
Ademas, no es dicil ver que cada tipo de equivalencia es transitiva. Por ejemplo,
A
row
B y B
row
C A
row
C.
Teorema 4.5.3 (La forma normal de rango). Si A IR
mn
es una matriz tal que r(A) = r,
entonces
A N
r
=
_
I
r
0
0 0
_
.
La matriz N
r
es llamada la forma normal de rango de A. N
r
es el producto nal de una
reduccion completa de A pero usando operaciones de renglones y columnas.
Demostracion. Siempre es verdad que A
row
E
A
, as que hay una matriz no singular P tal
que PA = E
A
. Si r(A) = r, entonces las columnas base en E
A
son r columnas unitarias. Apli-
cando intercambio de columnas a E
A
para remover estas columnas unitarias al lado izquierdo
superior. Si Q
1
es el producto de estas matrices elementales que corresponden al intercambio
de columnas, entonces PAQ
1
tiene la forma
PAQ
1
= E
A
Q
1
=
_
I
r
J
0 0
_
.
4.5. MATRICES ELEMENTALES Y EQUIVALENTES 47
Posmultiplicando ambos lados de la ecuacion por la matriz no singular
Q
2
=
_
I
r
J
0 I
_
,
produce
PAQ
1
Q
2
=
_
I
r
J
0 0
__
I
r
J
0 I
_
=
_
I
r
0
0 0
_
.
Dado que el producto Q = Q
1
Q
2
es no singular, entonces A N
r
.
Ejemplo 4.5.2. Problema: Explicar porque el r
_
A 0
0 B
_
= r(A) + r(B).
Solucion: Si r(A) = r y r(B) = s, entonces A N
r
y B N
s
, por lo que
_
A 0
0 B
_

_
N
r
0
0 N
s
_
r
_
A 0
0 B
_
= r
_
N
r
0
0 N
s
_
= r + s.
Teorema 4.5.4. Para matrices A, B IR
mn
se cumple lo siguiente:
i) A B si y solo si r(A) = r(B).
ii) A
row
B si y solo si E
A
= E
B
.
iii) A
col
B si y solo si E
A
= E
B
.
Demostracion.
i) Si r(A) = r(B), entonces A N
r
y B N
r
. Por tanto A N
r
B, de donde A B.
Por otro lado si A B, donde r(A) = r y r(B) = s, entonces A N
r
y B N
s
, as
N
r
A B N
s
, de donde N
r
N
s
. Por tanto r = s.
ii) Suponga que A
row
B. Dado que B
row
E
B
, entonces A
row
E
B
. Pero la forma escalonada
reducida es unica, por tanto E
A
= E
B
. Inversamente, E
A
= E
B
, entonces
A
row
E
A
= E
B
row
B A
row
B.
iii) Sigue de ii) considerando la transpuesta, i.e.
A
col
B AQ = B Q

= B

row
B

.
Teorema 4.5.5. La transposicion no cambia el rango, i.e. para toda matriz mn se cumple
que r(A) = r(A

).
48 CAP

ITULO 4.

ALGEBRA MATRICIAL
Demostracion. Suponga que r(A) = r as que existen matrices no singulares P y Q tal que
PAQ = N
r
=
_
I
r
0
rnr
0
mrr
0
mrnr
_
.
Aplicando transpuesta se tiene
Q

= N

r
, por lo que A

r
,
y por lo tanto
r(A

) = r(N

r
) = r
_
I
r
0
rnr
0
mrr
0
mrnr
_
= r = r(A).
Ejemplo [Factorizacion de rango completo]. Sea A IR
mn
. Si r(A) = r, con r distinto de m
y n, mostrar que existe B IR
mr
y C IR
rn
tal que A = BC, donde r(B) = r(C) = r.
Solucion. Si r(A) = r, entonces A N
r
lo que implica que PAQ = N
r
, por lo que A =
P
1
_
I
r
0
_
_
I
r
0
_
Q
1
= BC.
4.6 Factorizaci on LU
Si Ax = b es un sistema no homogeneo, entonces el objeto de la eliminacion gaussiana es reducir
a A en una matriz triangular superior usando operaciones elementales de renglones. Si ning un
pivote es cero, entonces no es necesario intercambiar renglones y la reduccion puede hacerse
usando solamente operaciones elementales de renglones de tipo III. Por ejemplo, sonsidere
reducir la matriz
A =
_
_
2 2 2
4 7 7
6 18 22
_
_
a una forma triangular superior como se muestra abajo.
_
_
2 2 2
4 7 7
6 18 22
_
_
R
2
2R
1
R
3
3R
1

_
_
2 2 2
0 3 3
0 12 16
_
_
R
3
4R
2

_
_
2 2 2
0 3 3
0 0 4
_
_
= U.
Todas las operaciones son de tipo III, y el producto de matrices elementales es
G
3
G
2
G
1
=
_
_
1 0 0
0 1 0
0 4 1
_
_
_
_
1 0 0
0 1 0
3 0 1
_
_
_
_
1 0 0
2 1 0
0 0 1
_
_
=
_
_
1 0 0
2 1 0
3 4 1
_
_
.
4.6. FACTORIZACI

ON LU 49
Los resultados de las secciones previas garantizan que G
3
G
2
G
1
A = U, as que
A = G
1
1
G
1
2
G
1
3
U = LU,
donde L es una matriz triangular inferior
L = G
1
1
G
1
2
G
1
3
=
_
_
1 0 0
2 1 0
3 4 1
_
_
.
As, A = LU es el producto de una matriz triangular inferior L y una matriz triangular superior
U. Naturalmente, esto es llamado la factorizacion LU de A.
Observe que U es el producto nal de la eliminacion gaussiana y tiene los pivotes sobre su
diagonal principal, mientras que L tiene 1s en su diagonal. Mas a un cada entrada por debajo
de la diagonal de L, es el m ultiplo usado para ajustar la posicion (i, j) (considerando la entrada
l
ij
).
Para desarrollar la teora general, es conveniente introducir el concepto matriz triangular infe-
rior elemental, la cual es denida como una matriz triangular de la forma
T
k
= I c
k
e

k
donde c
k
es una columna con ceros en las primeras k posiciones. En particular si
c
k
=
_
_
_
_
_
_
_
_
_
_
0
0
.
.
.

k+1
.
.
.

n
_
_
_
_
_
_
_
_
_
_
, entonces T
k
=
_
_
_
_
_
_
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 0 0
0 0
k+1
1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0
n
0 1
_
_
_
_
_
_
_
_
_
_
_
_
.
Note que e

k
c
k
= 0, por lo que
T
1
k
= I + c
k
e

k
=
_
_
_
_
_
_
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 0 0
0 0
k+1
1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0
n
0 1
_
_
_
_
_
_
_
_
_
_
_
_
.
Observe que T
1
k
es tambien una matriz triangular inferior elemental.
50 CAP

ITULO 4.

ALGEBRA MATRICIAL
La utilidad de las matrices triangulares inferiores elementales radica en el hecho de que todas
las operaciones de tipo III necesarias para eliminar las entradas de bajo del k-esimo pivote
pueden realizarse con una multiplicacion con T
k
. Si
A
k1
=
_
_
_
_
_
_
_
_
_
_
_
_

1

0
2

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0
k

0 0
k+1

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0
n

_
_
_
_
_
_
_
_
_
_
_
_
es el resultado triangular parcial despues de k 1 pasos de eliminacion, entonces T
k
A
k1
=
(I c
k
e

k
)A
k1
= A
k1
c
k
e

k
A
k1
=
_
_
_
_
_
_
_
_
_
_
_
_

1

0
2

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0
k

0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0
_
_
_
_
_
_
_
_
_
_
_
_
, donde c
k
=
_
_
_
_
_
_
_
_
_
_
_
_
0
0
.
.
.
0

k+1
/
k
.
.
.

n
/
k
_
_
_
_
_
_
_
_
_
_
_
_
contiene los m ultiplos usados para eliminar aquellas entradas de bajo de
k
. Note que T
k
no
altera las primeras k 1 columnas de A
k1
porque
e

k
[A
k1
]
j
= 0 si j k 1.
Por tant, si no se requiere intercambiar renglones, entonces reducir A a una matriz triangular
superior usando eliminacion gaussiana es equivalente a ejecutar una sucesion de n 1 multi-
plicaciones de lado izquierdo con matrices triangulares inferiores elementales. Esto es,
T
n1
T
2
T
1
A = U.
de donde
A = T
1
1
T
1
2
T
1
n1
U.
Dado que T
1
k
= I + c
k
e

k
, entonces T
1
1
T
1
2
T
1
n1
= (I + c
1
e

1
)(I + c
2
e

2
) (I + c
n1
e

n1
)
= I + c
1
e

1
+ c
2
e

2
+ + c
n1
e

n1
.
4.6. FACTORIZACI

ON LU 51
Pero observe que
c
k
e

k
=
_
_
_
_
_
_
_
_
_
_
_
_
0 0 0 0 0
0 0 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 0
0 0 l
k+1,k
0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 l
n,k
0 0
_
_
_
_
_
_
_
_
_
_
_
_
,
donde las l

i,k
s son los m ultiplos usados en la k-esima etapa para eliminar las entradas de bajo
del k-esimo pivote. As,
A = LU
donde
L = I + c
1
e

1
+ c
2
e

2
+ + c
n1
e

n1
=
_
_
_
_
_
_
_
1 0 0 0
l
2,1
1 0 0
l
3,1
l
3,2
1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
l
n,1
l
n,2
l
n,3
1
_
_
_
_
_
_
_
.
52 CAP

ITULO 4.

ALGEBRA MATRICIAL
Captulo 5
Espacios vectoriales
5.1 Introduccion
Los espacios vectoriales involucran 4 cosas. Un conjunto 1 cuyos elementos son llamados
vectores, un conjunto T denominado campo y dos operaciones (+, adicion) y (, producto
escalar).
1 es un conjunto no vacio de elementos llamados vectores. El termino vector puede ser usado
de forma general. Aqui lo utilizamos para referirnos a las n-tuplas.
T es un campo escalar, para nosotros T sera IR.
+ Es la operacion de adicion entre los elementos de 1.
Es el producto escalar entre los elementos de 1 Y T.
Denicion 5.1.1 (Espacio vectorial). Sean 1, T, +, denidos anteriormente. El conjunto
1 es llamado espacio vectorial sobre T cuando + y satisfacen las siguientes propiedades.
A1. Cerradura: X + Y 1 para X, Y 1.
A2. Asociativa: (X + Y ) + Z = X + (Y + Z); para X, Y, Z 1.
A3. Conmutativa: X + Y = Y + X para X, Y 1.
A4. Neutro aditivo: X + 0 = X para cada X 1 con 0 1.
A5. Inverso aditivo: X + (X) = 0 para cada X 1 con (X) 1.
M1. Cerradura: X 1, donde X 1 Y T.
M2. Asociativa: () X = (X), para todo , T y cada X 1.
M3. Distributiva: (X + Y ) = X + Y , para cada T y para todo X, Y 1.
M4. Distributiva: ( + ) X = X + X, para todo , T y cada X 1.
M5. Neutro m ultiplicativo: 1X = X, para cada X 1.
53
54 CAP

ITULO 5. ESPACIOS VECTORIALES


Algunos ejemplos de espacios vectoriales son:
1. El conjunto de matrices IR
mn
es un espacio vectorial.
2. Deniendo la adicion y la m ultiplicacion escalar de funciones como:
(f + g) = f(X) + g(X)
(f)X = f(X)
los siguientes conjuntos son espacios vectoriales sobre IR.
i) El conjunto de funciones gracadas en el intervalo [0, 1] en IR.
ii) El conjunto de funciones continuas reales denidas en [0, 1].
iii) El conjunto de funciones diferenciables en [0, 1].
Ejemplo 5.1.1. Considere el espacio vectorial IR
2
donde IR
2
= (X, Y ) [ X, Y R y sea
L = (X, Y ) [ Y = X una linea que pasa por el origen. L es un subconjunto de IR
2
, pero
L es un tipo especial de subconjunto porque L tambien satisface las propiedades (A1)-(A5) y
(M1)-(M5) las cuales denen un espacio vectorial. Esto muestra que es posible que un espacio
vectorial puede contener otro espacio vectorial.
Denicion 5.1.2 (Subespacio vectorial). Sea 1 un espacio vectorial sobre T y supongamos
que o es un subconjunto no vacio de 1. Si o es en si mismo un espacio vectorial, entonces se
dice que o es un subespacio vectorial de 1.
Teorema 5.1.1. Un subconjunto o de un espacio vectorial 1 , es un subespacio vectorial de
1 si y solo si:
A1. X + Y 1 para X, Y 1.
M1. X 1, donde X 1 y T.
Demostracion. Note que S, por ser un subconjunto de 1, satisface todas las propiedades de
un espacio vectorial excepto (A4) y (A5). Para probar que cumple (A5), observe que (M1)
implica (X) = (1)X S si X S. Para vericar que cumple (A4), note que si X S y
(X) S entonces, por (A1), 0 = X + (X) S. As, S es un subespacio vectorial de 1 si y
solo si cumple (A1) y (M1).
Ejemplo 5.1.2. Dado un subespacio vectorial 1, el conjunto Z = 0 cuyo elemento es el
vector cero, es un subespacio vectorial de 1. As, este es llamado el subespacio trivial de 1.
Ejemplo 5.1.3. Sea 1 un espacio vectorial y o = V
1
, V
2
, ..., V
n
tal que V
i
1. El conjunto
o) =
1
V
1
+ ... +
r
V
r
[
i
T y V
i
1
5.1. INTRODUCCI

ON 55
el conjunto de todas las posibles combinaciones lineales de los V
i
s es un subespacio de 1 por
que las dos propiedades de cerradura (A1) y (M1) son satisfechas. Esto es claro pues si
X =
1
V
1
+ ... +
r
V
r
y Y =
1
V
1
+ ... +
r
V
r
son dos combinaciones lineales de o), entonces la suma
X + Y = (
1
+
1
)V
1
+ ... + (
r
+
r
)V
r
=
1
V
1
+ ... +
r
V
r
tambien es una combinacion lineal de o). Similarmente, si IR, entonces
X = (
1
)V
1
+ ... + (
r
)V
r
es de nuevo una combinacion lineal de o).
Denicion 5.1.3 (Conjunto generador). Sea 1 un espacio vectorial sobre T y sea o =
V
1
, V
2
, ..., V
r
un conjunto de vectores de 1.
El subespacio
o) =
1
V
1
+ ... +
r
V
r
[
i
T
generado por todas las combinaciones lineales de los vectores de S es llamado el espacio
generado por S.
Si 1 = o), entonces S es el conjunto generador de 1.
o genera a 1 s y solo s cada V 1 es una combinacion lineal de los elementos de o.
Ejemplo 5.1.4. Los siguientes son ejemplos de conjuntos generadores:
(i) o =
__
1
1
_
,
_
2
2
__
genera a y = x en IR
2
.
(ii) o =
__
1
0
_
,
_
0
1
__
genera a IR
2
.
(iii) o = e
n
1
...e
n
n
donde e
n
i
= [00...010...0]

IR
n
genera a IR
n
.
(iv) El conjunto nito o =
_
1, X, X
2
, ..., X
n
_
genera a los polinomios cuyo grado es menor
o igual a n. El conjunto innito S =
_
1, X, X
2
, ..., X
n
, X
n+1
, ...
_
genera al conjunto de todos
los polinomios.
56 CAP

ITULO 5. ESPACIOS VECTORIALES


Ejemplo 5.1.5. Un conjunto de columnas o = a
1
, a
2
, ..., a
n
genera un subespacio V IR
m
s y solo s b 1 es una combinacion lineal de los elementos de o.
b = x
1
a
1
+ x
2
a
2
+ ... + x
n
a
n
. (5.1)
Observe que (5.1) es simplemente la ecuacion Ax = b donde
A = (a
1
[a
2
[...[a
n
) y x =
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
.
As, o genera a 1 si existe x tal que Ax = b para cada b 1, es decir si el sistema es
consistente. Por ejemplo, el conjunto
o =
_
_
1 1 1
_

,
_
1 1 1
_

,
_
3 1 1
_

_
no genera a IR
3
porque el sistema
_
_
1 1 3
1 1 1
1 1 1
_
_
_
_
x
1
x
2
x
3
_
_
=
_
_
b
1
b
2
b
3
_
_
no es consistente. Recuerde que un sistema es consistente s y solo s r(A[b) = r(A). En
este caso, r(A) = 2 y r(A[b) = 3 vericandose la inconsistencia del sistema. Por otro lado el
sistema
o =
_
_
1 1 1
_

,
_
1 1 1
_

,
_
3 1 2
_

_
es un conjunto generador de IR
3
por que
A =
_
_
1 1 3
1 1 1
1 1 2
_
_
es no singular, y as el sistema Ax = b es consistente.
Denicion 5.1.4 (Suma de subespacios vectoriales). Si A e son subespacios vectoriales
de un espacio vectorial 1, entonces la suma de A e se dene como
A + = x + y [ x A e y .
Teorema 5.1.2. Sea A + la suma de dos subespacios vectoriales.
i) A + es un subespacio vectorial.
ii) Si o
X
genera a A y o
Y
genera a , entonces o
X

o
Y
genera a A +.
5.2. LOS CUATRO SUBESPACIOS FUNDAMENTALES 57
Demostracion. i) Sean u, w A + entonces u = x
1
+ y
1
y w = x
2
+ y
2
con x
1
, x
2
A y
y
1
, y
2
. Luego
u + w = (x
1
+ y
1
) + (x
2
+ y
2
) = (x
1
+ x
2
) + (y
1
+ y
2
) A +
dado que (x
1
+ x
2
) A y (y
1
+ y
2
) . Por otro lado si x
1
A y y
1
para todo
IR, entonces
u = (x
1
+ y
1
) = x
1
+ y
1
A +.
ii) Denase o
X
= x
1
, x
2
, ..., x
r
y o
Y
= y
1
, y
2
, ..., y
r
de tal forma que A = o
X
) y Y = o
Y
).
Note que
o
X
_
o
Y
= x
1
, x
2
, ..., x
r
, y
1
, y
2
, ..., y
r

entonces
_
o
X
_
o
Y
_
=
1
x
1
+, ..., +
r
x
r
+
1
y
1
+, ... +
r
y
r
[
i
,
i
T .
As Z o
X

o
Y
) s y solo s Z =
r

i=1

i
X
i
+
t

i=1

i
Y
i
, pero
r

i=1

i
X
i
X y
t

i=1

i
Y
i
Y , por
tanto Z A +.
5.2 Los Cuatro Subespacios Fundamentales
Para una matriz A IR
mn
de n umeros reales, hay cuatro subespacios importantes, dos en
IR
m
y dos en IR
n
, los cuales estan asociados con A. El proposito de esta seccion es introducir
estos cuatro subespacios. Dos de ellos son denidos por los renglones y las columnas de A.
Denicion 5.2.1 (Espacio renglon y espacio columna). Si A IR
mn
, entonces el
espacio

A
=

A

1
, ..., A

m
_
IR
n
generado por los renglones de A, se llama espacio renglon de A. Similarmente, el espacio
(
A
= A
1
, ..., A
n
) IR
m
generado por las columnas de A, se llama espacio columna de A.
Teorema 5.2.1. Sean a

IR
n
, b IR
m
y A IR
mn
.
i) a


A
existe y

tal que y

A = a

.
ii) b (
A
existe x tal que Ax = b.
Demostracion. i) Si a


A
= A

1
, ..., A

m
), entonces
a

=
m

i=1

i
A

i
=
_

1

2

m
_
_
_
_
_
_
A

1
A

2
.
.
.
A

m
_
_
_
_
_
= y

A
58 CAP

ITULO 5. ESPACIOS VECTORIALES


donde y

=
_

1

2

m
_
. Similarmente, note que si b (
A
entonces
b =
n

i=1

i
A
i
=
_
A
1
A
2
A
n
_
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
= Ax
donde x =
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
.
Observe que una matriz A IR
mn
, dene una funcion lineal de IR
n
a IR
m
, mediante la
expresion f(x) = Ax : IR
n
IR
m
para f(x) = Ax. El dominio de f(x) es D = x [ x IR
n

y la imagen de f(x) es Im(A) = Ax =


_
n

i=1

i
A
i
[
i
IR
_
. Entonces, se puede decir que el
espacio columna es igual al conjunto imagen o rango de la funcion f(x) = Ax, as (
A
= Im(A).
Por otro lado Im(A

) es el espacio columna de A

, pero las columnas de A

son los reglones de


A, entonces Im(A

) =
A
.
Ejemplo 5.2.1. Problema: Describir la Im(A) y la Im(A

) para la matriz A =
_
1 2 3
2 4 6
_
Solucion: Recuerde que Im(A) = (
A
, entonces
Im(A) = A
1
, A
2
, A
3
) =
1
A
1
+
2
A
2
+
3
A
3
[
1
,
2
,
3
IR .
Sin embargo, por simple inspeccion note que A
2
= 2A
1
y A
3
= 3A
1
, entonces debe ser claro
que

1
A
1
+
2
A
2
+
3
A
3
[
1
,
2
,
3
IR = A
1
[ IR ,
y as Im(A) = A
1
). Geometricamente, esta es la linea en IR
2
que pasa por el origen y el punto
(1, 2). Similarmente, Im(A

) =
A
, por tanto
Im(A

) = A

1
, A

2
) =
1
A

1
+
2
A

2
[
1
,
2
IR.
Pero A
2
= 2A
1
lo cual implica que

1
A

1
+
2
A

2
[
1
,
2
IR = A

1
[ IR,
as Im(A

) = A

1
). Esto es la linea en IR
3
que pasa por el origen y el punto (1, 2, 3).
En ocasiones es de interes conocer si dos matrices tienen el mismo espacio columna o el mismo
espacio renglon. El siguiente teorema resuelve este problema.
5.2. LOS CUATRO SUBESPACIOS FUNDAMENTALES 59
Teorema 5.2.2. [Igualdad de espacio renglon o columna] Para dos matrices A y B de la misma
forma:
i) Im(A) = Im(B) si y solo si A
col
B
ii) Im(A

) = Im(B

) si y solo si A
row
B
Por denicion, los renglones de A generan Im(A

), y las columnas de A generan Im(A). Sin


embargo, el siguiente resultado explica como se pueden generar estos espacios utilizando unos
cuantos vectores en cada caso.
Teorema 5.2.3. Sea A IR
mn
, y sea U cualquier forma escalonada derivada de A. Los
conjuntos de vectores que generan a los espacios renglon y columna son los siguientes:
i) Los renglones no cero de U generan a Im(A

).
ii) Las columnas basicas en A generan Im(A).
Ejemplo 5.2.2. Problema: Determine los conjuntos generadores para Im(A) y Im(A

) donde
A =
_
_
1 2 2 3
2 4 1 3
3 6 1 4
_
_
.
Solucion: Reduciendo a A a cualquier forma escalonada U se obtendra la solucion, ya que las
columnas basicas en A corresponden a las posiciones pivotales en U, y los renglones no cero
de U generan el espacio vector de A. Usando E
A
=
_
_
1 2 0 1
0 0 1 1
0 0 0 0
_
_
se tiene que Im(A) =
_
_
_
1
2
3
_
_
,
_
_
2
1
1
_
_
_
y
Im(A

) =
_
_
_
_
_
1
2
0
1
_
_
_
_
,
_
_
_
_
0
0
1
1
_
_
_
_
_
.
Se comento que hay cuatro subespacios asociados con una matriz, pero unicamente hemos
discutido dos de ellos, los espacios renglon y columna. Ahora se introducen los otros dos.
Denicion 5.2.2 (Espacios nulos). Para una matriz A IR
mn
, el conjunto
^(/) = x IR
n
[ Ax = 0 IR
n
60 CAP

ITULO 5. ESPACIOS VECTORIALES


es llamado espacio nulo de A. En otras palabras ^(/) es el conjunto de todas las soluciones
del sistema homogeneo Ax = 0. Por otro lado, el conjunto
^(/

) = y IR
m
[ y

A = 0

IR
m
es llamado espacio nulo izquierdo de A porque ^(/

) es el conjunto de todas las soluciones del


sistema homogeneo izquierdo y

A = 0

.
Cada espacio nulo es ademas un subespacio vectorial porque las propiedades de cerradura de
la adicion vectorial y de la m ultiplicacion escalar son satisfechas. Por ejemplo, si x, y ^(/),
entonces A(x + y) = Ax + Ay = 0 + 0 = 0, as (x + y) ^(/). Por otro lado para IR se
tiene A(x) = Ax = 0 = 0, y as x ^(/) si x ^(/).
Para determinar un conjunto generador para ^(/) donde r(A) = r, con A IR
mn
, se tiene
que reducir a A a una forma escalonada U, y resolver Ux = 0 para las variables basicas en
terminos de las variables libres para producir la solucion general de Ax = 0 en la forma
x = x
f
1
h
1
+ x
f
2
h
2
+ + x
f
nr
h
nr
.
El conjunto
o = h
1
, h
2
, , hn r
es el unico conjunto generador para ^(/). Se puede probar que o es unico en el sentido de
que o es independiente de la forma escalonada U.
Ejemplo 5.2.3. Problema: Determine el conjunto generador para ^(/) donde A =
_
1 2 3
2 4 6
_
.
Solucion: Usemos la forma escalonada reducida E
A
=
_
1 2 3
0 0 0
_
, de donde se tiene que
x
1
= 2x
2
3x
3
, as x
2
y x
3
son las variables libres. Aqu, la solucion general de Ax = 0 es
_
_
x
1
x
2
x
3
_
_
=
_
_
2x
2
3x
3
x
2
x
3
_
_
= x
2
_
_
2
1
0
_
_
+ x
3
_
_
3
0
1
_
_
.
As, el conjunto o =
_
_
_
_
_
2
1
0
_
_
,
_
_
3
0
1
_
_
_
_
_
, es un conjunto que genera a ^(/).
Teorema 5.2.4. Si A IR
mn
, entonces:
i) ^(/) = 0 si y solo si r(A) = n.
ii) ^(/

) = 0 si y solo si r(A) = m.
5.2. LOS CUATRO SUBESPACIOS FUNDAMENTALES 61
Demostracion. Recuerde que la solucion trivial x = 0 es la unica solucion para Ax = 0 si y
solo si r(A) = n. Analogamente, la solucion trivial y = 0 es la unica solucion para A

y = 0 si
y solo si r(A

) = m, pero r(A

) = r(A).
Para obtener un conjunto generador para ^(/

) se procede de la misma forma, reducir a A

a
una forma escalonada U y extraer la solucion general para A

y = 0. Pero existe otra forma de


obtener un conjunto generador para ^(/

), la cual es mostrada en el siguiente teorema


Teorema 5.2.5. Sea A IR
mn
. Si r(A) = r, y si PA = U donde P IR
mm
es no singular
y U es una forma escalonada, entonces los ultimos mr renglones en P generaran a ^(/

).
En otras palabras, si P =
_
P
1
P
2
_
donde P
2
IR
mrm
, entonces
^(/

) = Im(P

2
).
Ejemplo 5.2.4. Problema: Determinar un conjunto generador para ^(/

) donde A =
_
_
1 2 2 3
2 4 1 3
3 6 1 4
_
_
.
Solucion: Utilizando el metodo de Gauss-Jordan se obtiene la forma escalonada reducida de A
(A[I) =
_
_
1 2 2 3
2 4 1 3
3 6 1 4

1 0 0
0 1 0
0 0 1
_
_

_
_
1 2 0 1
0 0 1 1
0 0 0 0

1/3 2/3 0
2/3 1/3 0
1/3 5/3 1
_
_
.
Por tanto, r(A) = 2 y P =
_
_
1/3 2/3 0
2/3 1/3 0
1/3 5/3 1
_
_
, de donde se tiene que ^(/

) =
_
_
_
1/3
5/3
1
_
_
_
.
Teorema 5.2.6. Para dos matrices A y B de la misma forma:
i) ^(/) = N(B) si y solo si A
row
B.
ii) ^(/

) = N(B

) si y solo si A
col
B.
Todos los resultados obtenidos en esta seccion son presentados en el siguiente resumen.
Resumen
Los cuatro subespacios fundamentales asociados a una matriz A IR
mn
son los siguientes
La imagen o espacio columna: Im(A) = (
A
= Ax IR
m
.
La imagen izquierda o espacio reglon: Im(A

) =
A
= A

y IR
n
.
62 CAP

ITULO 5. ESPACIOS VECTORIALES


Espacio nulo: ^(/) = x [ Ax = 0 IR
n
.
Espacio nulo izquierdo: ^(/

) = y [ A

y = 0 IR
m
.
Si A y B tienen la misma forma, entonces:
A
row
B ^(/) = ^(B) Im(A

) = Im(B

).
A
col
B Im(A) = Im(B) ^(/

) = ^(B

).
Si r(A) = r y P es una matriz no singular tal que PA = U donde U es una forma escalonada,
entonces
Las columnas basicas de A generan a Im(A).
Los renglones distintos de cero generan a Im(A

).
Resolver Ux = 0 para las variables basicas en terminos de las variables libres, y escribir
la solucion como x =
nr

i=1
x
f
i
h
i
. Las h
i
s generan a ^(/).
Los ultimos mr renglones de P generan a ^(/

).
5.3 Independencia Lineal
Para un conjunto de vectores S = v
1
, v
2
, , v
n
puede o no haber dependencia entre los
vectores, en el sentido de que ning un vector v
i
S puede ser expresado como una combinacion
lineal de los v
j
restantes de S. Por ejemplo para el conjunto
/ =
_
_
_
_
_
1
1
2
_
_
,
_
_
3
0
1
_
_
,
_
_
9
3
4
_
_
_
_
_
,
es obvio que v
3
= 3v
1
+ 2v
2
, es decir existe una dependencia del vector v
3
con v
1
y v
2
. Tal
dependencia siempre puede expresarse en terminos de un sistema homogeneo escribiendo
3v
1
+ 2v
2
v
3
= 0.
Por otro lado el conjunto
B =
_
_
_
_
_
1
0
0
_
_
,
_
_
0
1
0
_
_
,
_
_
0
0
1
_
_
_
_
_
,
representa un conjunto cuyos vectores no presentan una relacion de dependencia, ya que ni
uno de los vectores puede expresarse como una combinacion de los otros. Otra forma de decir
esto es que no hay soluciones
1
,
2
y
3
para el sistema homogeneo

1
v
1
+
2
v
2
+
3
v
3
= 0
distintas a la solucion trivial
1
=
2
=
3
= 0. Estas observaciones nos dan la base para la
siguiente denicion.
5.3. INDEPENDENCIA LINEAL 63
Teorema 5.3.1. [Independencia Lineal] Un conjunto de vectores o = v
1
, v
2
, , v
n
se dice
que es un conjunto linealmente independiente si la unica solucion para el sistema homogeneo

1
v
1
+
2
v
2
+ +
n
v
n
= 0
es la solucion trivial
1
=
2
= =
n
= 0. Si existe al menos una solucion distinta a la
trivial, para el sistema homogeneo, se dice que el conjunto es linealmente dependiente.
Ejemplo 5.3.1. Problema: Determine si el conjunto
S =
_
_
_
_
_
1
2
1
_
_
,
_
_
1
0
2
_
_
,
_
_
5
6
7
_
_
_
_
_
es linealmente independiente.
Solucion: Lo anterior equivale a encontrar las soluciones, si las hay, del sistema homogeneo,
Ax = 0 donde: A =
_
_
1 1 5
2 0 6
1 2 7
_
_
, as, aplicando el metodo de Gauss-Jordan se tiene
_
_
1 1 5
2 0 6
1 2 7
_
_

_
_
1 1 5
0 2 4
0 1 2
_
_

_
_
1 1 5
0 1 2
0 1 2
_
_

_
_
1 1 5
0 1 2
0 0 0
_
_

_
_
1 0 3
0 1 2
0 0 0
_
_
de donde se tiene que si A =
_
_
1 1 5
2 0 6
1 2 7
_
_
, entonces E
A
=
_
_
1 0 3
0 1 2
0 0 0
_
_
y por tanto existen
soluciones distintas a la trivial. Mas a un, E
A
revela la relacion de dependencia de S ya que se
observa que A
3
= 3A
1
+2A
2
. Este ejemplo indica por que la cuestion de que sin un subconjuto
de IR
m
es o no linealmente independiente es realmente una pregunta acerca de que si o no el
espacio nulo asociado con una matriz es el trivial. El siguiente teorema establece formalmente
este hecho.
Teorema 5.3.2. Para una matriz A IR
mn
:
Se tiene que los siguientes enunciados son equivalentes a decir que las columnas de A
forman un conjunto linealmente independiente.
i) ^(/) = 0
ii) r(A) = n
Los siguientes enunciados son equivalentes a decir que los reglones de A forman un
conjunto linealmente independiente.
iii) N(A
T
) = 0
iv) r(A) = m
64 CAP

ITULO 5. ESPACIOS VECTORIALES


Cuando A es una matriz cuadrada, cada uno de los siguientes enunciados es equivalente
a decir que A es no singular.
v) Las columnas de A forman un conjunto linealmente independiente.
vi) Los renglones de A forman un conjunto linealmente independiente.
Demostracion. Por denicion, las columnas de A son un conjunto linealmente independiente
cuando el sistema homogeneo
0 =
1
A
1
+
2
A
2
+ +
n
A
n
=
_
A
1
A
2
A
n
_
_
_
_
_

n
_
_
_
_
tiene unicamente la solucion trivial
1
=
2
= =
n
= 0, lo cual es equivalente a decir
que ^(/) = 0. El hecho de que el ^(/) = 0 implica que r(A) = n, as i) y ii) son
demostradas. Ahora, para demostrar iii) y iv) sustituya A

por A y proceda como antes.


Recuerde que r(A) = r(A

). Las proposiciones v) y vi) son casos especiales de ii) y iv).


Ejemplo 5.3.2. Cualquier conjunto e
i
1
, e
i
2
, , e
in
de vectores unitarios es un conjunto
linealmente independiente por que
r(e
i
1
, e
i
2
, , e
in
) = n.
Por ejemplo, el conjunto de vectores unitarios e
1
, e
2
, e
4
IR
4
es linealmente independiente
porque
r
_
_
_
_
1 0 0
0 1 0
0 0 0
0 0 1
_
_
_
_
= 3.
Ahora sabemos que si r(A) < n donde A IR
mn
, entonces las columnas de A deben ser
un conjunto linealmente dependiente. Para tales matrices, a menudo se decea extraer un
subconjunto maximal linealmente independiente de columnas, es decir un conjunto linealmente
independiente que contenga la mayor cantidad de columnas de A como sea posible. Aunque
hay varias formas de hacer tal seleccion, las columnas basicas de A siempre constituyen un
subconjunto maximal linealmente independiente de las columnas de A.
Si A IR
mn
y r(A) = r, entonces las siguientes proposiciones se cumplen:
Cualquier subconjunto maximal linealmente independiente de las columnas de A contiene
exactamente r columnas.
Cualquier subconjunto maximal linealmente independiente de los renglones de A contiene
exactamente r renglones.
En particular, las r columnas basicas de A constituyen un subconjunto maximal lineal-
mente independiente de las columnas de A.
5.4. BASE Y DIMENSI

ON 65
Para un conjunto no vacio de vectores o = u
1
, u
2
, , u
n
de un espacio vectorial 1, las
siguientes propisiciones son verdaderas
Si o contiene un subconjunto linealmente independiente, entoces o debe ser en si mismo
linealmente dependiente.
Si o es linealmente independiente, entonces cada subconjunto de o es tambien linealmente
independiente.
Si o es linealmente independiente y si v 1, entonces el conjunto extension o
ext
= o

v
es linealmente independiente si v / o).
Si o IR
m
y si n > m, entonces o debe ser linealmente dependiente.
5.4 Base y dimension
Recuerde que S es un conjunto generador de un espacio vectorial 1 si y solo si cada vector en 1
es una combinacion lineal de los vectores de S. Sin embargo los conjuntos generadores pueden
tener vectores redundantes. Por ejemplo, un subespacio L denido por una recta que pasa por
el origen en IR
2
puede ser generador para cualquier numero de vectores no ceros v
1
, v
2
, , v
k

en L, pero cualquier de los vectores v


i
puede ser en si mismo suciente. Similarmente, un
plano T que pasa por el origen en IR
3
puede ser generado de diferentes formas, pero la ley
del paralelogramo indica que un conjunto generador mnimo necesita unicamente un conjunto
independiente de dos vectores de T. Estas consideraciones motivan la siguiente denicion.
Denicion 5.4.1 (Base). Si B es un conjunto generador linealmente independiente para un
espacio vectorial 1, entonces B es llamado una base para 1.
Ejemplo 5.4.1. Los siguientes son ejemplos de conjuntos que forman una base para un espa-
cio vectorial:
Los vectores unitarios S = e
1
, e
2
, , e
n
en IR
n
forman una base para IR
n
. Esta es
llamada la base estandar.
Si A IR
nn
es una matriz no singular, entonces el conjunto de renglones y el conjunto
de columnas de A forman algunas bases de IR
n
.
Para el espacio vectorial trivial Z = 0, no hay un conjunto generador linealmente
independiente. Por lo sonsiguiente, el conjunto vacio es considerado como una base de
Z.
El conjunto 1, x, x
2
, , x
n
es una base para el espacio vectorial de los polinomios de
grado n o menor.
El conjunto innito 1, x, x
2
, es una base para el espacio de vectorial de todos los
polinomios.
66 CAP

ITULO 5. ESPACIOS VECTORIALES


Hay diferentes formas de caraterizar a una base. Si 1 un espacio vectorial y sea
B = b
1
, b
2
, . . . , b
n
V.
entonces las siguientes proposiciones son equivalentes.
1. B es una base para 1.
2. B es un conjunto generador minimal para 1.
3. B es un conjunto maximal independiente para 1.
Estas tres proposiciones son utiles para caracterizar una base.
Note que un espacio vectorial, distinto al espacio vectorial trivial, tiene una gran cantidad
de bases. Por tal motivo la base no es unica, pero es unica en el sentido que tiene el mismo
n umero de elementos. Este n umero es de suma impotancia.
Denicion 5.4.2 (Dimension de un espacio vectorial). La dimension de un espacio
vectorial 1 es denido de la siguiente forma:
dim1 = n umero de vectores en cualquier base de 1
= n umero de vectores en cualquier conjunto generador minimal de 1
= n umero de vectores en cualquier subconjunto maximal independiente de 1
Ejemplo 5.4.2. 1) Sea Z = 0 entonces dim(Z) = 0.
2) Si T es un plano que pasa por el origen en IR
3
, entonces dim(T) = 2.
3) dim(IR
3
) = 3, porque el conjunto
_
_
_
_
_
1
0
0
_
_
,
_
_
0
1
0
_
_
,
_
_
0
0
1
_
_
_
_
_
constituye una base de IR
3
.
Ejemplo 5.4.3. Problema: Si 1 es un espacio vectorial n-dimensional , explicar porque cada
subconjunto independiente o = v
1
, v
2
, , v
n
1 que contiene n vectores debe ser una base
de 1.
Solucion: La dim1 = n signica que cada subconjunto de 1 que contiene a lo mas n vectores
debe ser linealmente independiente. Por tanto, o es un subconjunto maximal independiente
de 1, y as o es una base de 1.
Es importante no confundir la dimension de un espacio vectorial 1 con el n umero de compo-
nentes que tiene cada vector individual de 1. Por ejemplo si T es un plano que pasa por el
origen en IR
3
, entonces dimT = 2, pero cada uno de los vectores en T tiene 3 componentes.
Aunque la dimension de un espacio vectorial 1 y el n umero de componentes que tiene cada
vector individual en 1 no son necesariamente el mismo, sin embargo estan relacionados. Por
ejemplo, si 1 es un subespacio de IR
n
, entonces ni uno de los subconjuntos linealmente inde-
pendientes de 1 puede contener mas de n vectores, por lo que dim1 n. Esta observacion se
generaliza para producir el siguiente teorema.
5.4. BASE Y DIMENSI

ON 67
Teorema 5.4.1. Si / y ^ son espacios vectoriales tal que / ^ entonces:
i) dim/ ^.
ii) Si dim/ = dim^, entonces /= ^.
Demostracion. Sea dim/ = m y dim^ = n, y usando argumentos indirectos se demostara
i). Si m > n, entonces existe un subconjunto linealmente independiente de ^ (una base de
/) que contiene mas de n vectores. Pero esto es imposible porque dim^ es el tama no de un
subconjunto maximal independiente de ^. As m n. Ahora se probara ii). Si m = n pero
/,= ^, entonces existe un vector x tal que
x ^ pero x / /.
Si B es una base para /, entonces x / B), y el conjunto extension = B

x es un
subconjunto linealmente independiente de ^. Pero contiene m+ 1 = n + 1 vectores, lo cual
es imposible por que dim^ = n es el tama no de un subconjunto maximal independiente de
^. As /= ^.
Ahora, es facil determinar la dimesion de cada uno de los cuatro subespacios fundamentales
asociados a una matriz A.
Teorema 5.4.2. [Dimensiones de los cuatros subespacios fundamentales] Sea A IR
mn
tal
que r(A) = r, entonces
i) dimIm(A) = r
ii) dim^(/) = n r
iii) dimIm(A

) = r
iv) dim^(/

) = mr
Demostracion. i) El conjunto B que contiene las r columnas basicas de A es una base de
Im(A) porque B es un conjunto generador independiente para el conjunto Im(A). Por tanto
dimIm(A) = r.
iii) Recuerde que dimIm(A

) = r(A

), pero r(A

) = r(A) = r. Por tanto dimIm(A

) = r.
iv) Recuerde que si P es una matriz no singular tal que PA = U es una forma escalonada,
entonces los ultimo mr renglones de P generan a ^(/

). Pero los renglones de P forman un


conjunto linealmente independiente y todo subconjunto de un conjunto linealmente indepen-
diente es linealmente independiente, por tanto los ultimos m r renglones de P constituyen
una base de ^(/

). Por tanto, dim^(/

) = mr.
ii) Note que en palabras iv) dice que dim^(/

) es el n umero de renglones en A menos el r(A).


Si remplazamos A por A

en iv), entonces tenemos que la dimN(A

) es el n umero de renglones
en A

menos el r(A

). Pero A

= A y r(A

) = r(A) = r, entonces dim^(/) = n r.


Las proposiciones i) y ii) del teorema anterior producen el siguiente teorema.
68 CAP

ITULO 5. ESPACIOS VECTORIALES


Teorema 5.4.3. [Teorema de adicion del rango y la nulida] Para toda matriz A IR
mn
,
dimIm(A) + dim^(/) = n.
El titulo teorema de adicion del rango y la nulida es derivado del hecho de que dimIm(A) =
r(A) y dim^(/) fue tradicionalmente conocida como la nulidad de A.
Ejemplo 5.4.4. Problema: Determine la dimension como tambien una base para el conjunto
generado por
o =
_
_
_
_
_
1
2
1
_
_
,
_
_
1
0
2
_
_
,
_
_
5
6
7
_
_
_
_
_
.
Solucion 1. Coloque los vectores como columnas en una matriz A, y reducir
A =
_
_
1 1 5
2 0 6
1 2 7
_
_
E
A
=
_
_
1 0 3
0 1 2
0 0 0
_
_
.
Dado que o) = Im(A), entonces tenemos
dimo) = dimIm(A) = r(A) = 2,
y una base para o) = Im(A) es el conjunto de columnas basicas de A, B =
_
_
_
_
_
1
2
1
_
_
,
_
_
1
0
2
_
_
_
_
_
.
Otras bases tambien son posibles. Examinando E
A
revela que cualquier par de vectores en o
forma un conjunto independiente, y por lo tanto cualquier par de vectores de o constituye una
base para o.
Solucion 2. Coloque los vectores de o como renglones de una matriz B, y reducir B a una
forma escalonada.
B =
_
_
1 2 1
1 0 2
5 6 7
_
_
U =
_
_
1 2 1
0 2 1
0 0 0
_
_
.
Esta vez tenemos que o = Im(B

), as que
dimo) = dimIm(B

) = r(B) = r(U) = 2,
y una base de o) = Im(B

) es dada por los renglones distintos de cero en U.


La dimension de una suma de subespacios vectoriales es dada por el siguiente resultado.
Teorema 5.4.4. Si A y son subespacios de un espacio vectorial 1, entonces
dim(A +) = dimA + dim dim(A

).

Вам также может понравиться