Вы находитесь на странице: 1из 29

INTRODUCCIN

En este informe hablaremos sobre

el ESPACIO VECTORIAL MATRICIAL y

podemos encontrar distintos puntos de tema como los siguientes:


o ESPACIOS VECTORIALES
o COMBINACIONES DE INDEPENDENCIA
LINEAL
o BASE
o RANGO
o DIMENSIONES

DEPENDENCIA

La idea de vector est tomada de la Fsica, donde sirven para representar


magnitudes vectoriales como fuerzas, velocidades o aceleraciones. Para ello se
emplean vectores de dos componentes en el plano, de tres componentes en el
espacio...
Se supone conocida la representacin grfica y manejo de los vectores de 2 y de
3.
En Matemticas, tratamos de abstraer las propiedades que caracterizan a los
vectores para extenderlas tambin a otro tipo de objetos diferentes de los
vectores de la Fsica utilizando por ejemplo a las matrices y apoyndonos
mediante la resolucin de sistemas lineales.
Esencialmente, el comportamiento que caracteriza a los vectores es el siguiente:
o Podemos sumar dos vectores y obtenemos otro vector;
o Podemos multiplicar un vector por un nmero (escalar) y
obtenemos otro vector.
En lo sucesivo, utilizaremos habitualmente la siguiente notacin: (u,v,w), (u otras
letras latinas) para vectores, mientras que las letras griegas designarn escalares.

1. ESPACIO VECTORIAL :
DEFINICION:
Sea V un conjunto dotado de una operacin interna +: V VV; que llamaremos
suma, y sea K un cuerpo conmutativo que define sobre V una operacin externa:
" : K V V; que llamaremos producto por escalares.
Diremos que (V; +; ; K) es un espacio vectorial (e.v.) sobre K, respecto de las
operaciones suma y producto por escalares si se verifican las siguientes
condiciones:
1.- (V; +) es un grupo conmutativo (es decir, satisface las propiedades
conmutativa, asociativa, existencia de elemento neutro, y simtrico de cualquier
elemento dado).

2.- El producto por escalares cumple:

2.1.

2.2. ( ) () , K, V
2.3. (a b) ( ) (b) K, , V
2.4. ( ) ( ) ( ) , K, V
Los elementos de V se denominan vectores. Si K = R; el espacio vectorial se dice
real, y cuando K = C; el espacio vectorial se llama complejo.
Se pueden obtener fcilmente las siguientes propiedades:
1. 0 0 V,

2. 0 0
3. ( ) () ( ) V, K
Cualquier conjunto que posea unas operaciones suma y producto por escalares,
cumpliendo todas las propiedades anteriores, diremos que es un espacio vectorial.
Los elementos de tal conjunto se llamarn vectores (aunque pueda tratarse de objetos
diferentes a los vectores de la Fsica.)
Diremos que el espacio vectorial es real o complejo, segn sean los escalares.

Otras propiedades de los espacios vectoriales pueden deducirse de las


anteriores propiedades bsicas. Por ejemplo: Si v = ( escalar, v vector)
entonces o bien es = 0 bien es v = .

EJEMPLOS DE ESPACIOS VECTORIALES:


1. El espacio n, formado por los vectores de n componentes (x1,...,xn) es un
espacio vectorial real, en el que se pueden sumar vectores y multiplicar
por un escalar (real) de la forma habitual.
Se puede comprobar que se cumplen las propiedades requeridas para ambas
operaciones. El vector cero es (0,...,0).
No es un espacio vectorial complejo, pues no podemos multiplicar por escalares
complejos (si lo hacemos, el resultado no se mantendr dentro de n).
2. Consideremos el conjunto P2 de los polinomios de grado 2 con
coeficientes reales:

Es un espacio vectorial real, pues podemos sumar dos elementos de P2 y


obtenemos otro elemento de P2; tambin podemos multiplicar un elemento de P2
por un escalar real y obtenemos otro elemento de P2. Vemoslo:
Suma:(
que pertenece a P2.
Producto por un escalar real:
que pertenece a P2.

Se puede comprobar que se cumplen las propiedades requeridas. El vector 0 es el


polinomio cero: 0x2 + 0x + 0
No es un espacio vectorial complejo, pues al multiplicar por un escalar complejo el
resultado podr ser un polinomio complejo que no pertenece a P 2.
3. Consideremos el conjunto G de los polinomios de grado 3= (exactamente 3)
con coeficientes reales.
No es un espacio vectorial (real ni complejo), pues al sumar dos elementos de
G, no est garantizado que el resultado est en G. En efecto, consideremos los
polinomios

Pertenecen a G, pues su grado es 3. Pero su suma es


no pertenece a G (su grado no es 3).

que

4. Consideremos el conjunto M
(tambin denotado por M ) de las
matrices 2x2 con trminos reales:

{(

Es un espacio vectorial real, pues podemos sumar dos matrices de M2x2


obteniendo otra matriz de M2x2, y multiplicar una matriz de M2x2 por un escalar real
obteniendo otra matriz de M2x2. Se puede comprobar que se cumplen las
propiedades. El vector 0 es, en este caso, la matriz con todos sus trminos nulos.
No es un espacio vectorial complejo.
5. Consideremos el conjunto MC de las matrices 2x3 con trminos
complejos.
Es un espacio vectorial real, pues podemos sumar dos matrices de MC
obteniendo otra matriz de MC, y multiplicar un elemento de MC por un escalar real
obteniendo otra matriz de MC.
Tambin es un espacio vectorial complejo, pues podemos multiplicar una
matriz de MC por un escalar complejo obteniendo otra matriz de MC.
(Comprubese con elementos genricos).
6. Consideremos el conjunto ME de las matrices 3x2 con trminos enteros.
Podemos sumar dos matrices de ME y obtenemos otro elemento de ME:
En efecto, si tomamos, (

)(

) con a, b, c, d, a, b, c', d' enteros,


)

Tambin tiene trminos enteros, luego

pertenece a ME.
Sin embargo ME no es un espacio vectorial real, pues al multiplicar un elemento
de ME por un escalar real no est garantizado que el resultado permanezca dentro
de ME. Si el escalar es por ejemplo el nmero real 1.25, el resultado ya no es una
matriz con trminos enteros.
Por similar razn tampoco es un espacio vectorial complejo.
7. El conjunto C de los nmeros complejos se puede considerar como un
espacio vectorial real. En efecto, se pueden sumar dos nmeros complejos
obtenindose otro nmero complejo; y se puede multiplicar un complejo por
un escalar real, obtenindose otro complejo. Es decir,
Suma:
, que es otro nmero
complejo.

Producto por un escalar real:


nmero complejo.

que es otro

La suma y el producto por un escalar cumplen todas las propiedades requeridas.


En este caso el vector 0 es el nmero complejo cero, 0+0i.
Ntese que aqu los complejos funcionan como vectores (elementos del espacio
vectorial C) y los reales como escalares.
Observar adems que, en este contexto, el conjunto de los nmeros complejos se
comporta igual que el espacio vectorial 2, identificando el nmero complejo a+bi
con el vector (a,b).
Este es el motivo por el cual se suele representar el plano complejo como si fuera
2, con la parte real en el eje de abscisas y la parte imaginaria en el eje de
ordenadas.
8. El conjunto de las funciones continuas definidas en : Se pueden sumar
dos funciones, y se puede multiplicar una funcin por un escalar real.
Por ejemplo, las funciones
pueden sumarse y
resulta otra funcin
La funcin
puede multiplicarse por el escalar y resulta la
funcin
Si sumamos dos funciones continuas, el resultado es otra funcin continua.
Si multiplicamos una funcin continua por un escalar, el resultado es otra funcin
continua. Las operaciones cumplen las propiedades requeridas. El vector es la
funcin constante 0.
Por tanto se trata de un espacio vectorial real.

Hay muchos otros espacios vectoriales. Gracias a esto, las


propiedades que encontremos para espacios vectoriales en general,
las podemos aplicar a matrices, polinomios, funciones.

2. SUBESPACIOS VECTORIALES :
Dado un espacio vectorial V, podemos considerar una parte S de l que funcione como un
espacio vectorial ms pequeo, incluido en V.
Como V es un espacio vectorial, posee unas operaciones (suma, producto por un escalar)
que en particular se pueden efectuar en S. Slo necesitaremos que, al efectuarlas, su
resultado quede dentro de S.
SUBESPACIO.
DEFINICIN:

Dado un espacio vectorial V, se dice que un subconjunto S de V es un subespacio


vectorial si contiene al vector , y si al efectuar las operaciones de suma y producto por
escalar entre vectores de S, el resultado permanece en S.
(Se puede decir que S es cerrado para las operaciones suma y producto por escalar.)
Es decir:
S
Si v, w S entonces v + w S.
Si v S y es un escalar, entonces v

S.

Ya no hace falta comprobar que se cumplen las propiedades asociativa, conmutativa, etc.
puesto que sabemos que se cumplen en V, y por tanto tambin en S (se dice que S
hereda las propiedades de las operaciones en V).
Por supuesto si para V utilizamos escalares reales, tambin para S; si para V utilizamos
complejos, tambin para S.
EJEMPLOS DE SUBESPACIOS.
1) La recta x=y es un subespacio de 2. Est formado por los vectores de la forma
(a,a). Contiene al vector (0,0).
Adems, es cerrado para la suma y producto por escalar:
Suma
Producto por un escalar
recta.

que tambin es un elemento de la recta.


que tambin es un elemento de la

2) El plano XY es un subespacio de 3. Est formado por los vectores de la forma (x, y,


0). Contiene al vector (0, 0,0).
Adems, es cerrado para la suma y producto por escalar:
Suma:
Producto por un escalar:
plano.

que tambin es un elemento del plano.


que tambin es un elemento del

Podemos decir que este plano es como 2 pero incluido en 3.


3) Es un subespacio de 2 el conjunto de los vectores de la forma (a, 1)?
No, puesto que no contiene al (0,0). O tambin: porque no se puede sumar dentro de este
conjunto, por ejemplo
que no pertenece al conjunto.
4) En el espacio P2 = {polinomios de grado 2}, el conjunto de los polinomios de grado 1
forma un subespacio. En efecto, contiene al polinomio cero, y podemos sumar y
multiplicar por un escalar sin salir del conjunto:
Suma
grado 1.
Producto por escalar
grado 1.

que tambin es un polinomio de

que tambin es un polinomio de

5) En M2= {matrices 2x2}, el conjunto de matrices simtricas(

) es un subespacio

que contiene a la matris nula, y es cerrado para las operaciones:

que tambien es una matriz

simtrica.

Producto escalar

. (

)=(

)que tambien es una matriz

simtrica
6) Geomtricamente, los subespacios vectoriales de 2 y 3 son rectas, planos, y slo
uno de ellos es un punto, el { }.
Las curvas o las superficies curvas no son subespacios; tampoco las figuras geomtricas
finitas, como crculos o polgonos en el plano, esferas o poliedros en el espacio.
(Comprobar grficamente que no pueden sumarse vectores dentro de este tipo de
conjuntos)
7) En todo espacio vectorial existen el subespacio cero, formado solamente por el vector
}, y el subespacio total, formado por todos los vectores del espacio.
2.1 DESCRIPCIN DE LOS SUBESPACIOS DE
Los subespacios de

pueden describirse de dos formas: implcita y paramtrica.

Forma implcita: Mediante ecuaciones. Los vectores que verifiquen las


ecuaciones son los que pertenecen al subespacio.
Forma paramtrica: Mediante una expresin con parmetros, los cuales al
tomar distintos valores producen todos los vectores del subespacio.

Para pasar de una a otra forma:

De la forma implcita a la paramtrica: Basta considerar las ecuaciones implcitas


como un sistema, y resolverlo. La solucin general del sistema (que podr
depender de parmetros) es la expresin paramtrica.
De la forma paramtrica a la implcita: Podemos decir, aunque no es un mtodo
riguroso, que se trata de describir mediante ecuaciones cmo es el vector
genrico del subespacio.

Ayudar el conocer qu nmero de ecuaciones es necesario (lo que se ver ms


adelante).
EJEMPLOS:
1) En 2, la recta bisectriz del primer cuadrante puede describirse en implcitas como {
y=x }, y en paramtricas como

2) En 3, dado el subespacio en paramtricas


es la ecuacin
.

, su forma implcita

3) En 3, dado el subespacio en paramtricas

para describirlo en

forma implcita necesitamos dos ecuaciones: {


4) Consideremos el subespacio de 3 dado en implcitas por {

Cul es su forma paramtrica? Para ello resolvemos el sistema, que es compatible


indeterminado. La solucin depende de un parmetro y es

5) El subespacio cero y el subespacio total constituyen un caso especial. Por ejemplo en


3:
- El subespacio {(0, 0,0)} tiene como ecuaciones implcitas {
Su forma paramtrica es (0, 0,0): no hay parmetros, pues como se trata de un solo
punto, no se puede variar nada.
- Por el contrario el subespacio total 3 tiene como forma paramtrica { (,,) : ,, }
(tres parmetros variando libremente, pues no hay ninguna limitacin). Ecuaciones
implcitas no tiene ninguna, pues no hay restriccin alguna que imponer.

2.2 OPERACIONES CON SUBESPACIOS:


A partir de dos subespacios podemos construir otro efectuando las operaciones de
suma o interseccin de subespacios.
1. INTERSECCIN DE SUBESPACIOS:
La interseccin, indicada por el smbolo , puede aplicarse a conjuntos
cualesquiera, no slo a espacios vectoriales. Consiste en encontrar los elementos
comunes a dos conjuntos.
Por ejemplo, la interseccin de dos planos en R3 podr ser una recta.
Notar que dados dos subespacios cualesquiera, siempre hay vectores comunes a
ambos (al menos el , que est en todos los subespacios.)
TEOREMA
La interseccin de subespacios es un subespacio.
En efecto, es posible sumar vectores dentro de ST, pues por
ser S y T subespacios, la suma debe permanecer dentro de S
y dentro de T, y por tanto dentro de ST. Lo mismo para el
producto por escalares.

CLCULO DE LA INTERSECCIN.
La forma ms sencilla (aunque no la nica) de calcular ST es utilizar la expresin
implcita de S y de T.
Como buscamos los vectores que verifiquen a la vez ambas condiciones,
podremos describir ST considerando conjuntamente las ecuaciones implcitas de
S y las de T (formando un sistema con todas ellas).
Este sistema, si es sencillo, puede considerarse ya como la forma implcita de
ST.
En todo caso, resolviendo este sistema obtenemos la forma paramtrica de ST.
SUMA DE SUBESPACIOS.
Dados dos subespacios S, T se define el subespacio suma como:
Es decir, aquellos vectores que podamos construir sumando un vector de S y uno
de T.
TEOREMA
La suma de subespacios es un subespacio.
CLCULO DEL SUBESPACIO SUMA.
Al contrario que la interseccin, la suma S+T se calcula ms fcilmente usando la
forma paramtrica de S y de T. Esto nos permite tomar un vector genrico de cada
uno de los subespacios y sumarlos, obtenindose una expresin paramtrica de
S+T.
No obstante la forma paramtrica as obtenida puede tener parmetros no
independientes.
Ms adelante, en el punto Sistemas generadores se dar otro mtodo para
calcular el subespacio suma.
3 .DEPENDENCIA E INDEPENDENCIA LINEAL
3.1 COMBINACIN LINEAL:
Definicin: Combinacin lineal.
Una combinacin lineal de dos o ms vectores es el vector que se obtiene al
sumar esos vectores multiplicados por sendos escalares.

Cualquier vector se puede poner como combinacin lineal de otros que tengan
distinta direccin.

Esta combinacin lineal es nica.

Vectores linealmente dependientes:

Varios vectores libres del plano se dice que son linealmente dependientes si
hay una combinacin lineal de ellos que es igual al vector cero, sin que sean
cero todos los coeficientes de la combinacin lineal.

Teorema.
Para probar que un conjunto S es subespacio, basta probar que:
La combinacin lineal de elementos de S est en S. (Ello es debido a que
calcular una combinacin lineal de vectores involucra tanto la suma como el
producto por escalares, as que equivale a probar ambas cosas por separado).
Esto se suele expresar diciendo que un subespacio es un conjunto cerrado para
las combinaciones lineales.
Ejemplo.
Veamos si es subespacio de 2 el conjunto U= {(, ): }.
Tomamos dos elementos genricos de U, (, ) y (, ). Una combinacin lineal de
ellos es:
(, ) + (, ) = (+, +) que tambin es un elemento de U.
Por tanto U es subespacio.

PROPIEDADES:

1. Si varios vectores son linealmente dependientes, entonces al menos uno de


ellos se puede expresar como combinacin lineal de los dems.

2. Tambin se cumple el reciproco: si un vector es combinacin lineal de otros,


entonces todos los vectores son linealmente dependientes.
3. Dos vectores del plano son linealmente dependientes si, y slo si, son
paralelos.
4. Dos vectores libres del plano
= (u1, u2) y = (v1, v2) son linealmente
dependientes si sus componentes son proporcionales.

EJEMPLO:
Determinar los valores de k para que sean linealmente dependientes los
vectores
,
combinacin lineal de y

y
, siendo k el valor calculado.

. Escribir

como

Los vectores son linealmente dependientes si el determinante de la matriz que


forman es nulo, es decir que el rango de la matriz es menor que 3.

Vectores linealmente independientes

Varios vectores libres son linealmente independientes si ninguno de ellos puede


ser escrito con una combinacin lineal de los restantes.

a1 = a2 = = an = 0
Los vectores linealmente independientes tienen distinta direccin y sus
componentes no son proporcionales.

EJEMPLOS:
1. Estudiar si son linealmente dependientes o independientes los vectores:

r = 2, n = 3

Sistema compatible indeterminado: El sistema tiene infinitas soluciones, por


tanto los vectores son linealmente dependientes.

3.2 DEPENDENCIA LINEAL:


Definicin: Dependencia lineal.
Se dice que un conjunto de vectores es linealmente dependiente (o ligado) si:
(a) Al menos uno de ellos es combinacin lineal de los dems.
Esto se puede expresar tambin as:
(b) El vector 0 es combinacin lineal de ellos (con coeficientes no todos nulos).
EJEMPLO:
Sean 2 en los vectores u=(1,1), v=(0,3), w=(2,5) .

Observamos que son linealmente dependientes por (a):


w es combinacin lineal de u y v , puesto que w = v+2u. (Pueden
encontrarse tambin otras combinaciones, como u = 12w 12v, etc).
Tambin podemos verlo por (b): 0 es combinacin lineal de u, v, w puesto
que 0 = v+2uw, (y los coeficientes de esta combinacin lineal son 1, 2, 1
que no son todos nulos).
OBSERVACIN :

Si un conjunto es linealmente dependiente, entonces por (a) sabremos que existe


algn vector entre ellos que es combinacin lineal de los dems. Pero esto no
quiere decir que cualquier vector de ellos sea combinacin lineal de los dems.
Por ejemplo, el siguiente conjunto en 3 podemos comprobar que es ligado:
u=(1,0,0), v=(0,1,0), w=(1,1,0), k=(0,0,1),
ya que, por (a), tenemos que w = u + v (es decir, w=1u +
1v + 0k ), hay un vector que es combinacin lineal de los
dems. Pero no cualquier vector lo es, puesto que k no

es combinacin lineal de los dems. Esto se puede ver poniendo


(0, 0,1) = (1, 0,0) + (0, 1,0) + (1, 1,0)
Y viendo que se obtiene un sistema incompatible.
3.3 INDEPENDENCIA LINEAL:
Definicin: Independencia lineal.
En caso de que un conjunto de vectores no sea linealmente dependiente, se dice
que es linealmente independiente (o libre).
Por tanto, escribiendo la negacin de la definicin de dependencia lineal,
tendremos que un conjunto de vectores es linealmente independiente cuando:
(a) Ninguno de ellos es combinacin lineal de los dems. O equivalentemente:
(b) El vector 0 no es combinacin lineal de ellos, a no ser que la combinacin
tenga coeficientes todos nulos. Expresando (b) de otra manera,
(b) La nica forma de poner 0 como combinacin lineal de los vectores, es
con todos los coeficientes nulos.
OBSERVACIN.
La definicin de dependencia lineal no es: v, w son independientes
si 0v + 0w = 0
Esa afirmacin no aporta nada, puesto que se cumple para todos los vectores,
dependientes o no.
De lo que se trata, es de ver si esa es la nica manera de poner 0 como
combinacin lineal de ellas.
EJEMPLOS.
1) Veamos que u=(3,1) y v=(4,5) en son linealmente independientes. 2
Para ello intentaremos poner (0,0) como combinacin lineal de ellos, y
encontraremos que slo es posible con coeficientes nulos.
(0,0) = (3,1) + (4,5)

}
Este sistema es compatible
determinado,

Por tanto slo tiene la solucin =0, =0.


As pues, la nica forma de poner (0,0) como combinacin lineal de u, v es con
coeficientes , nulos. Esto significa que son linealmente independientes.
2) Veamos si son independientes w=(3,1) y k=(6,2): con el mismo
planteamiento,

(0,0) = (3,1) + (6,2)


}
Este sistema es compatible indeterminado.
Esto quiere decir (an sin resolver el sistema) que existen coeficientes , no
nulos que permiten poner (0,0) como combinacin lineal de w, k. Por tanto w, k
son linealmente dependientes.
3) Veamos si son independientes u=(1,0,2), v=(4,3,1) y w=(5,3,3) en 3:
(0,0,0) = (1,0,2) + (4,3,1) + (5,3,3)

Este sistema es compatible indeterminado, puesto que su matriz es(

) con

rango 2.
Esto quiere decir (an sin resolver el sistema) que existen coeficientes , , no
nulos que permiten poner (0,0,0) como combinacin lineal de u, v, w. Por tanto
son linealmente dependientes.
4) Veamos si son independientes u=(3,2,1), y v=(2,2,0) en 3 :
(0,0,0) = (3,2,1) + (2,2,0)

Este sistema es compatible determinado, puesto que su matriz es:


(

) Que tiene rango 2 y hay 2 incgnitas.

Esto quiere decir que la nica solucin es =0 , =0 y por tanto que la nica forma
de poner (0,0,0) como combinacin lineal de u, v, es con coeficientes nulos. Por
tanto son linealmente independientes.
OBSERVACIN.
Si observamos los dos ltimos ejemplos, veremos que la matriz del sistema est
formada por los vectores dados, en columnas.
Hallando el rango de esa matriz vemos si el sistema es compatible determinado o
indeterminado, y por tanto si los vectores son independientes o dependientes,
respectivamente.
Volveremos sobre esto ms tarde (en el punto Rango de un conjunto de
vectores.)
3.4 PROPIEDADES DE LA DEPENDENCIA / INDEPENDENCIA LINEAL.
1) El conjunto formado por un solo vector v no nulo, es libre.
(En efecto, una combinacin lineal de v es solamente v, y v=0 slo puede
conseguirse con =0).

2) Dos vectores v, w son linealmente dependientes cuando uno es mltiplo


del otro , v=w
(ya que esto equivale a decir que uno es combinacin lineal del otro).
3) Todo conjunto que contenga al 0 es ligado.
Vemoslo para 3 vectores: si tenemos { v, w, 0} podemos formar 0como
combinacin de ellos:
0 v+0 w+1 0=0
y los coeficientes de esta combinacin lineal son 0, 0, 1 y por tanto no todos nulos.
4) Si un conjunto es ligado, aadindole vectores sigue siendo ligado.
(En efecto, si un vector es combinacin de otros, aunque aadamos ms vectores
seguir sindolo.)
5) Si un conjunto es libre, quitndole vectores sigue siendo libre.
(En efecto, si no se puede formar como combinacin de ellos, al quitar vectores
tampoco se podr)

4. RANGO DE UN CONJUNTO DE VECTORES


Ejemplo.
Consideremos en 2el conjunto de vectores (2,0), (0,1), (4,3), (2,5); vamos a
aplicar la propiedad 6) anterior.
Este conjunto es linealmente dependiente puesto que observamos que algn
vector es combinacin de los dems; concretamente
(4,3) = 2 (2,0) + 3 (0,1)
Suprimimos por tanto el vector (4,3) ; el conjunto restante (2,0), (0,1), (2,5) sigue
siendo ligado puesto que
(2,5) = 1 (2,0) + 5 (0,1)
Suprimimos el vector (2,5), el conjunto restante (2,0), (0,1) ya es independiente
(son dos vectores y uno no es mltiplo del otro).
Tambin podramos haber seguido otro camino, por ejemplo viendo que (2,0) es
combinacin lineal de los dems (comprubese) y suprimindolo. El conjunto
restante (0,1), (4,3), (2,5) sigue siendo ligado; vemos que (0,1) es combinacin

lineal de los dems y lo suprimimos. Llegamos entonces al conjunto (4,3), (2,5)


que ya es independiente.
Por los dos caminos llegamos a distintos conjuntos independientes. Pero ambos
constan del mismo nmero de vectores (dos en este caso).
Teorema: Rango de un conjunto de vectores.
Dado un conjunto de vectores, si quitamos aquellos que sean combinacin lineal
de los dems, queda finalmente un cierto nmero de vectores, que ya son
independientes.
Este nmero no depende del camino seguido, y se llama rango del conjunto de
vectores.
El rango es, por tanto, el nmero de vectores independientes que contiene el
conjunto.
Propiedades del rango:
1)

2)
3)

4)

En n, el rango de un conjunto de vectores es igual al rango de la matriz


que forman colocndolos en filas o en columnas (habitualmente se hace
por columnas).
Dados m vectores, si su rango es m significa que son linealmente
independientes.
En particular, si tenemos n vectores en n, la matriz que forman es
cuadrada, por lo que se puede calcular su determinante:
-

Sern independientes si el rango de la matriz es n, es decir, si el


determinante es no nulo.

Sern dependientes si el determinante es nulo.

Dado un conjunto de vectores, si al eliminar uno de ellos se conserva el


rango del conjunto, entonces dicho vector depende linealmente de los
dems.

Si por el contrario al eliminarlo disminuye el rango, entonces es independiente de


los dems.
5)

Dado un conjunto de vectores, si al aadir un nuevo vector se conserva el


rango del conjunto, entonces el nuevo vector depende linealmente de los
anteriores.

Si por el contrario al aadirlo aumenta el rango, entonces el nuevo vector es


independiente de los anteriores.
Ejemplos.
1. En 4 determinar el rango de los vectores (1,2,3,4), (0,1,6,1), (3,3,1,0) :

La matriz que forman por columnas es (

) cuyo rango es 3

(Lo que puede comprobarse escalonando la matriz).


Esto significa que los 3 vectores son linealmente independientes.
2. En determinar el rango de los vectores (1,3), (5,8). Como la matriz que forman es
cuadrada (

)se puede calcular su determinante. Como ste es no nulo, los

vectores son linealmente independientes.


3. En 3 determinar el rango de los vectores u=(1,0,0), v=(0,1,0), w=(1,1,0), k=(0,0,1).
La matriz que forman por columnas es(

) en la cual (ya est escalonada)

se aprecia que el rango es 3. Esto quiere decir que de los 4 vectores, slo 3 son
independientes, y el otro es combinacin lineal de los dems.

Observacin.
En un caso como el 3 anterior, el clculo del rango nos dice cuntos vectores son
independientes, pero no cules. Aunque el rango sea 3, no est garantizado que 3
vectores cualesquiera vayan a ser independientes. Por ejemplo en este caso, u,v,w
no lo son.
Para saber cules lo son, se pueden tomar los correspondientes a las columnas
pivotales despus de escalonar la matriz (en este caso u, w, k). Tambin podemos
verlo usando la propiedad del rango, quitando el vector que no haga disminuir el
rango: en este caso podemos quitar v. Otra posibilidad es quitar u, o tambin w. Pero
no podemos quitar k, pues entonces disminuira el rango.

5. BASE Y DIMENSIO N:
DEFINICION:
Un subconjunto B = {v1, v2,..., vn} de un espacio vectorial V es una base de V si

v1 , v2 , ..., vn es una coleccin de vectores linealmente independientes

gen {v1 , v2,..., vn} = V.


En este caso se dice que V es un espacio de dimensio n n y se denota dim(V ) = n. A
estos espacios se les llama espacios de dimensio n finita. Un espacio vectorial que no
tenga una base de dimension finita se les llama espacio de dimensio n infinita. La dimensio
n del espacio vectorial cero es cero (a pesar de que el espacio vectorial cero no tiene
base).
EJEMPLO:

1. El conjunto B = {(1, 0), (0, 1)} es una base para el espacio R 2 y se llama la
base estndar de IR2 . Lo que significa que dim(IR2 ) = 2.
2. El conjunto B = {(1, 0, 0), (0, 1, 0), (0, 0,1)} es una base para el espacio R 2 y se
llama la base estandar de IR3 . Lo que significa que dim(IR3 ) = 3.

3. El conjunto B = {e1, e2,..., en} es la base estandar de Pn . De modo que dim(Pn ) = n


+ 1. En particular el espacio P3 es
generado por {1, x , x 2 , x 3 } de modo que dim(P3 ) = 4, el
espacio P2 es generado por {1, x , x 2 } de modo que
dim(P2 ) = 3.
4. El espacio de los polinomios de cualquier grado es un espacio de dimension infinita
5. El espacio de las funciones continuas es un espacio de dimension infinita.
6. El espacio de las funciones continuas con derivadas continuas de primer orden es un
espacio de dimension infinita.

7.

SISTEMA DE ECUACIONES LINEALES

En matemticas y lgebra lineal, un sistema de ecuaciones lineales, tambin


conocido como sistema lineal de ecuaciones o simplemente sistema lineal, es un
conjunto de ecuaciones lineales (es decir, un sistema de ecuaciones en donde
cada ecuacin es de primer grado), definidas sobre un cuerpo o un anillo
conmutativo.
Ejemplo:

El problema consiste en encontrar los valores desconocidos de las variables x1, x2


y x3 que satisfacen las tres ecuaciones.
El problema de los sistemas lineales de ecuaciones es uno de los ms antiguos de
la matemtica y tiene una infinidad de aplicaciones, como en procesamiento digital
de seales, anlisis estructural, estimacin, prediccin y ms generalmente en
programacin lineal as como en la aproximacin de problemas no lineales de
anlisis numrico.
En general, un sistema con m ecuaciones lineales y n incgnitas puede ser escrito
en forma normal como:

Donde
son las incgnitas y los nmeros
son los coeficientes
del sistema sobre el cuerpo
. Es posible reescribir el sistema
separando con coeficientes con notacin matricial:

Si representamos cada matriz con una nica letra obtenemos:

Donde A es una matriz m por n, x es un vector columna de longitud n y b es otro


vector columna de longitud m. El sistema de eliminacin de Gauss-Jordn se
aplica a este tipo de sistemas, sea cual sea el cuerpo del que provengan los
coeficientes.

Tipos de sistemas
Los sistemas de ecuaciones se pueden clasificar segn el nmero de soluciones
que pueden presentar. De acuerdo con ese caso se pueden presentar los
siguientes casos:

Sistema incompatible: si no tiene solucin.

Sistema compatible: si tiene solucin, en este caso adems puede


distinguirse entre:
o Sistema compatible determinado: cuando tiene una nica
solucin.
o Sistema compatible indeterminado: cuando admite un conjunto
infinito de soluciones.

Los sistemas incompatibles geomtricamente se caracterizan por (hiper)planos o


rectas que se cruzan sin cortarse. Los sistemas compatibles determinados se
caracterizan por un conjunto de (hiper)planos o rectas que se cortan en un nico
punto. Los sistemas compatibles indeterminados se caracterizan por (hiper)planos
que se cortan a lo largo de una recta [o ms generalmente un hiperplano de
dimensin menor]. Desde un punto de vista algebraico los sistemas compatibles
determinados se caracterizan porque el determinante de la matriz es diferente de
cero:

SISTEMAS COMPATIBLES INDETERMINADOS:

Un sistema sobre un cuerpo K es compatible indeterminado cuando posee un


nmero infinito de soluciones. Por ejemplo, el siguiente sistema:

Tanto la primera como la segunda ecuacin se corresponden con la recta cuya


pendiente es
y que pasa por el punto
, por lo que ambas intersecan
en todos los puntos de dicha recta. El sistema es compatible por haber solucin o
interseccin entre las rectas, pero es indeterminado al ocurrir esto en infinitos
puntos.

En este tipo de sistemas, la solucin genrica consiste en expresar una o


ms variables como funcin matemtica del resto. En los sistemas lineales
compatibles indeterminados, al menos una de sus ecuaciones se puede
hallar como combinacin lineal del resto, es decir, es linealmente
dependiente.

Una condicin necesaria para que un sistema sea compatible


indeterminado es que el determinante de la matriz del sistema sea cero (y
por tanto uno de sus auto valores ser 0):

De hecho, de las dos condiciones anteriores se desprende, que el conjunto


de soluciones de un sistema compatible indeterminado es un subespacio
vectorial. Y la dimensin de ese espacio vectorial coincidir con la
multiplicidad geomtrica del auto valor cero.

SISTEMAS INCOMPATIBLES:
De un sistema se dice que es incompatible cuando no presenta ninguna solucin.
Por ejemplo, supongamos el siguiente sistema:

Las ecuaciones se corresponden grficamente con dos rectas, ambas con la


misma pendiente, Al ser paralelas, no se cortan en ningn punto, es decir, no
existe ningn valor que satisfaga a la vez ambas ecuaciones.
Matemticamente un sistema de estos es incompatible cuando el rango de la
matriz del sistema es inferior al rango de la matriz ampliada. Una condicin
necesaria para que esto suceda es que el determinante de la matriz del sistema
sea cero:

MTODOS DE SOLUCIN A SISTEMAS DE ECUACIONES LINEALES


1. SUSTITUCIN:
El mtodo de sustitucin consiste en despejar en una de las ecuaciones cualquier
incgnita, preferiblemente la que tenga menor coeficiente, para, a continuacin,
sustituirla en otra ecuacin por su valor.
En caso de sistemas con ms de dos incgnitas, la seleccionada debe ser
sustituida por su valor equivalente en todas las ecuaciones excepto en la que la
hemos despejado. En ese instante, tendremos un sistema con una ecuacin y una
incgnita menos que el inicial, en el que podemos seguir aplicando este mtodo
reiteradamente. Por ejemplo, supongamos que queremos resolver por sustitucin este
sistema:

En la primera ecuacin, seleccionamos la incgnita por ser la de menor coeficiente y que


posiblemente nos facilite ms las operaciones, y la despejamos, obteniendo la siguiente
ecuacin.

El siguiente paso ser sustituir cada ocurrencia de la incgnita en la otra ecuacin, para
as obtener una ecuacin donde la nica incgnita sea la .

Al resolver la ecuacin obtenemos el resultado


, y si ahora sustituimos esta incgnita
por su valor en alguna de las ecuaciones originales obtendremos
, con lo que el
sistema queda ya resuelto.
2.

IGUALACIN

El mtodo de igualacin se puede entender como un caso particular del mtodo de


sustitucin en el que se despeja la misma incgnita en dos ecuaciones y a continuacin se
igualan entre s la parte derecha de ambas ecuaciones.
Tomando el mismo sistema utilizado como ejemplo para el mtodo de sustitucin, si
despejamos la incgnita en ambas ecuaciones nos queda de la siguiente manera:

Como se puede observar, ambas ecuaciones comparten la misma parte izquierda, por lo que
podemos afirmar que las partes derechas tambin son iguales entre s.

Una vez obtenido el valor de la incgnita , se substituye su valor en una de las ecuaciones
originales, y se obtiene el valor de la .
La forma ms fcil de tener el mtodo de sustitucin es realizando un cambio para despejar
x despus de averiguar el valor de la y.

3.

REDUCCIN:

Este mtodo suele emplearse mayoritariamente en los sistemas lineales, siendo pocos los
casos en que se utiliza para resolver sistemas no lineales. El procedimiento, diseado para
sistemas con dos ecuaciones e incgnitas, consiste en transformar una de las ecuaciones
(generalmente, mediante productos), de manera que obtengamos dos ecuaciones en la que
una misma incgnita aparezca con el mismo coeficiente y distinto signo. A continuacin, se
suman ambas ecuaciones producindose as la reduccin o cancelacin de dicha incgnita,
obteniendo as una ecuacin con una sola incgnita, donde el mtodo de resolucin es
simple.
Por ejemplo, en el sistema:

no tenemos ms que multiplicar la primera ecuacin por


incgnita . Al multiplicar, dicha ecuacin nos queda as:

para poder cancelar la

Si sumamos esta ecuacin a la segunda del sistema original, obtenemos una nueva ecuacin
donde la incgnita ha sido reducida y que, en este caso, nos da directamente el valor de la
incgnita :

El siguiente paso consiste nicamente en sustituir el valor de la incgnita en cualquiera de


las ecuaciones donde aparecan ambas incgnitas, y obtener as que el valor de es igual a:

4. MTODO GRFICO

Consiste en construir la grfica de cada una de las ecuaciones del sistema. El


mtodo (manualmente aplicado) solo resulta eficiente en el plano cartesiano, es
decir para un espacio de dimensin 2.
El proceso de resolucin de un sistema de ecuaciones mediante el mtodo grfico
se resuelve en los siguientes pasos:

1. Se despeja la incgnita (y) en ambas ecuaciones.


2. Se construye para cada una de las dos ecuaciones de primer grado
obteniendo la tabla de valores correspondientes.
3. Se representan grficamente ambas rectas en los ejes coordenados.
4. En este ltimo paso hay tres posibilidades:
1. Si ambas rectas se cortan, las coordenadas del punto de corte son
los nicos valores de las incgnitas (x,y). "Sistema compatible
determinado".
2. Si ambas rectas son coincidentes, el sistema tiene infinitas
soluciones que son las respectivas coordenadas de todos los puntos
de esa recta en la que coinciden ambas. Sistema compatible
indeterminado.
3. Si ambas rectas son paralelas, el sistema no tiene solucin.
5.

MTODO DE GAUSS

La eliminacin de Gauss-Jordan, ms conocida como mtodo de Gauss, es un mtodo


aplicable nicamente a los sistemas lineales de ecuaciones, y consistente en triangular la
matriz aumentada del sistema mediante transformaciones elementales, hasta obtener
ecuaciones de una sola incgnita, cuyo valor ser igual al coeficiente situado en la misma
fila de la matriz. Este procedimiento es similar al anterior de reduccin, pero ejecutado de
manera reiterada y siguiendo un cierto orden algortmico.
El Mtodo de Gauss consiste en convertir un sistema normal de 3 ecuaciones con 3
incgnitas en uno escalonado, en la que la primera ecuacin tiene 3 incgnitas, la segunda
ecuacin tiene 2 incgnitas, y la tercera ecuacin tiene 1 incgnita. De esta forma ser fcil
a partir de la ltima ecuacin y subiendo, calcular el valor de las tres incgnitas.
En primer lugar, reducimos la incgnita

, sumando a la segunda fila, la primera

multiplicada por , y a la tercera, la primera fila. La matriz queda as:

El siguiente paso consiste en eliminar la incgnita en la primera y tercera fila, para lo cual
les sumamos la segunda multiplicada por
y por
, respectivamente.

Por ltimo, eliminamos la , tanto de la primera como de la segunda fila, sumndoles la


tercera multiplicada por

y por , respectivamente:

Llegados a este punto podemos resolver directamente las ecuaciones que se nos plantean:

O, si lo preferimos, podemos multiplicar las tres filas de la matriz por: , y


respectivamente, y obtener as automticamente los valores de las incgnitas en la ltima
columna.

Pongamos un ejemplo del clculo de un sistema de ecuaciones por el mtodo de Gauss:


Se renen 30 personas entre hombres, mujeres y nios. Se sabe que entre
los hombres y el triple de mujeres exceden en 20 el doble de los nios.
Tambin se sabe que entre hombres y mujeres se duplican al nmero de
nios. Plantear y resolver el sistema de ecuaciones.

Se renen 30 personas entre hombres, mujeres y nios:

Se sabe que entre los hombres y el triple de mujeres exceden en 20 el


doble de los nios:

Tambin se sabe que entre hombres y mujeres se duplican al nmero de


nios:

Agrupando las tres ecuaciones tenemos el sistema, que ordenado resulta:

Aplicamos Gauss, restando la primera ecuacin a las dos siguientes:

En este caso en la tercera ecuacin se ha eliminado la y, por lo que no es


necesario hacer ms operaciones. Por lo tanto obtenemos que z = 10 de la tercera
ecuacin:

Sustituyendo z en la segunda ecuacin obtenemos que y = 10:

Sustituyendo z y en la primera ecuacin obtenemos x = 10.

Con lo que hemos obtenido el resultado del sistema:

6. REGLA DE CRAMER
La regla de Cramer da una solucin para sistemas compatibles determinados en
trminos de determinantes y adjuntos dada por:

Donde Aj es la matriz resultante de remplazar la j-sima columna de A por el


vector columna b. Para un sistema de dos ecuaciones y dos incgnitas:

La regla de Cramer da la siguiente solucin:

Nota: Cuando en la determinante original det(A) el resultado es 0, el sistema indica


mltiples o sin coincidencia.
7. ALGORITMOS NUMRICOS:

La eliminacin de Gauss-Jordan es un algoritmo numrico usado para una gran


cantidad de casos especficos, aunque posterioremnte se han desarrollado
algoritmos alternativos mucho ms eficientes. La mayora de estos algoritmos
mejorados tienen una complejidad computacional de O(n) (donde n es el nmero
de ecuaciones del sistema). Algunos de los mtodos ms usados son:

Para los problemas de la forma Ax = b, donde A es una matriz de Toeplitz


simtrica, se puede utilizar la recursin de Levinson o alguno de los mtodos
derivados de este. Un mtodo derivado de la recursin de Levinson es la recursin
de Schur, que es ampliamente usado en el campo del procesamiento digital de
seales.

Para los problemas de la forma Ax = b, donde A es una matriz singular o casi


singular, la matriz A se descompone en el producto de tres matrices en un proceso
llamado descomposicin de valores singulares.

Cuando consideramos ecuaciones lineales cuyas soluciones son nmeros


racionales, reales o complejos o ms generalmente un cuerpo
, la solucin
puede encontrarse mediante Regla de Cramer. Para sistemas de muchas
ecuaciones la regla de Cramer puede ser computacionalmente ms costosa y
suelen usarse otros mtodos ms "econmicos" en nmero de operaciones como
la eliminacin de Gauss-Jordan y la descomposicin de Cholesky. Existen tambin
mtodos indirectos (basados en iteraciones) como el mtodo de Gauss-Seidel.
Si el cuerpo es infinito (como es el caso de los nmeros reales o complejos),
entonces solo puede darse una de las tres siguientes situaciones:

el sistema no tiene solucin (en dicho caso decimos que el sistema est
sobredeterminado o que es incompatible)
el sistema tiene una nica solucin (el sistema es compatible determinado)
el sistema tiene un nmero infinito de soluciones (el sistema es compatible
indeterminado).

Вам также может понравиться