Вы находитесь на странице: 1из 17

Espacios Vectoriales. Definicin Comenzaremos con el estudio de un ente matemtico como son los espacios vectoriales.

Su definicin puede parecer un poco extraa al no entendido, sin embargo, una idea ha de quedar clara: es una estructura que nos asegura que al componer dos elementos pertenecientes al espacio (elementos a los que llamaremos vectores) de acuerdo a una cierta operacin, el resultado sigue siendo un elemento del espacio. En otras palabras, la suma de vectores ser un vector y no cualquier otra cosa, como podra ser un punto. Definicin de espacio vectorial

Sea un cuerpo. Diremos que un conjunto dotado de una operacin interna y otra externa sobre el cuerpo tiene estructura de espacio vectorial si cumple las siguientes propiedades: 1.

es un grupo abeliano 2.

es una operacin que va del producto cartesiano en el conjunto :

verificando las siguientes propiedades: 2.1. Distributiva respecto de la suma de vectores:

2.2.

Distributiva respecto de la suma de escalares: 2.3.

Asociativa mixta: 2.4. Producto por el elemento unidad del cuerpo: Siguiendo esta definicin de lo que es un espacio vectorial, a partir de las propiedades que todos sabemos de la suma y producto de nmeros reales (sabemos que es un cuerpo, lo que implica, en particular, que y son grupos), se demuestra muy fcilmente que, por ejemplo, el espacio de los vectores del plano con las operaciones de suma de vectores y producto de un escalar con un vector definidas como conocemos de cursos anteriores (esto es,

, ), se tiene que es un espacio vectorial sobre . Sin embargo, si ahora consideramos estando definidas estas operaciones como sigue:

, , se tiene que no es un espacio vectorial sobre

, pues falla la propiedad de producto por el elemento de unidad del cuerpo, ya que

Dependencia e independencia lineal Hemos visto la definicin de espacio vectorial, vamos ahora a concretar algunas propiedades que tiene la operacin externa. Propiedades de la operacin

Sea un espacio vectorial. Entonces, se verifica: 1.

2.

3.

4.

5.

6. Simplificacin de escalares:

7. Simplificacin de vectores:

De la estructura de espacio vectorial sabemos que si sumamos dos vectores el resultado va a ser un vector. Tambin sabemos que si multiplicamos un escalar por un vector, el resultado ser un vector. Uniendo estos resultados, llegamos a las siguientes definiciones: Combinaciones lineales. Dependencia e independencia de vectores Decimos que un vector es combinacin lineal de los vectores si existen unos escalares de forma que

Por ejemplo, el vector es combinacin lineal de los vectores , pues existen los escalares , , verificndose

Diremos que los vectores son linealmente independientes si la igualdad es nicamente cierta cuando los escalares son todos iguales a cero. Entonces se dice que forman un sistema libre. En caso contrario se dir que los vectores son linealmente dependientes, o que forman un sistema ligado.

Por ejemplo, en

(con las operaciones usuales y ), se tiene que los vectores y son linealmente independientes, ya que si buscamos los escalares , tales que , haciendo operaciones, llegamos a que tiene que ser . Como sabemos, dos vectores son iguales si lo son componente a componente, lo que implica, automticamente, que y luego, segn la definicin, son linealmente independientes.

Sin embargo, tambin en , los vectores y no son linealmente independientes, pues al buscar los escalares , tales que , haciendo operaciones, llegamos a que tiene que ser . Aplicando de nuevo que dos vectores son iguales si lo son componente a componente,

obtenemos , es decir, nos hemos trasladado al mundo de la resolucin de sistemas de ecuaciones.

Ahora, con lo que sabemos sobre sistemas lineales, resolviendo se tiene que y . Qu me dice esto sobre los vectores? Que son linealmente dependientes. Es claro que si decimos , entonces, automticamente , , lo que podra conducirnos a concluir (errneamente) que los vectores son linealmente independientes. Sin embargo, la definicin nos dice que

Lo importante de aqu es darse cuenta de que el concepto de dependencia e independencia lineal se ha trasladado al estudio de las soluciones de un cierto sistema de ecuaciones homogneo. La existencia de una nica solucin (que, por ser homogneo el sistema, ser la nula) me dice que los vectores son linealmente independientes, y la existencia de ms de una solucin, que los vectores son linealmente dependientes. Mencionamos unas propiedades referentes a dependencia/independencia lineal de un conjunto de vectores, y despus introduciremos tres conceptos importantes: sistema generador de un espacio vectorial, envoltura lineal de un conjunto de vectores y base de un espacio vectorial. Un conjunto de vectores es linealmente dependiente si y solamente si alguno de los vectores es combinacin lineal de los dems. Si un conjunto de vectores es linealmente independiente cualquier subconjunto suyo tambin lo es. Obviamente, si tenemos un conjunto de vectores tales que ninguno de ellos es combinacin de los dems, escogiendo slo unos cuantos, no podrn ser combinacin de los otros. Si un conjunto de vectores es linealmente dependiente tambin lo es todo conjunto que lo contenga. Ya que un conjunto de vectores es linealmente dependiente si y slo si tiene algn vector que es combinacin lineal de los dems, si metemos este conjunto de vectores en otro ms grande, seguimos teniendo el vector que es combinacin lineal de otros, por tanto, el conjunto ms grande sigue siendo linealmente dependiente. Sistema generador y base del espacio Sistema generador de un espacio vectorial

Decimos que un conjunto de vectores es un sistema generador del espacio vectorial al cual pertenece si cualquier vector de dicho espacio se puede poner como combinacin lineal de ellos.

Por ejemplo, los vectores , forman un sistema generador de ( , las operaciones usuales), ya que si cogemos cualquier , de igualar , se tiene enseguida que ha de ser y . Por ejemplo, si , tendremos y . No todos los conjuntos de vectores forman un sistema generador de un espacio vectorial. Por ejemplo, los vectores y no forman un sistema generador de .

Si lo fueran, tales que . Pero esto implica, escribindolo como un sistema, que:

Es decir, tenemos que , por tanto, sustituyendo en la primera ecuacin, . Como debe verficarse cada ecuacin, sustituyendo y en la ltima tenemos que, para que sea sistema generador de se ha de cumplir la relacin . Evidentemente, esto no es cierto para todos los vectores del espacio. Si tomamos, en particular, el , vemos que la coordenada no verifica la relacin. Por tanto, el sistema dado no es un sistema generador de . Envoltura lineal Al conjunto de todos los vectores que son combinacin lineal de los vectores

se le llama envoltura lineal de los vectores , y se representa . Base de un espacio vectorial

Decimos que los vectores son base del espacio vectorial al cual pertenecen si cumplen dos condiciones:

Han de ser linealmente independientes.

Han de formar un sistema generador del espacio vectorial .

Todas las bases de un espacio vectorial tienen el mismo nmero de elementos, al que se le llama dimensin del espacio vectorial. La siguiente base del espacio vectorial es la conocida como base cannica:

Hay que notar que un sistema generador de un espacio vectorial de dimensin debe tener al menos vectores, pero si tiene no tiene por qu ser un sistema generador.

Un ejemplo simple e inmeadiato lo vemos con el espacio , siendo y las operaciones usuales, y escogiendo los vectores . Estos dos vectores, al ser proporcionales, generaran nicamente una recta, pero no todo el plano. CAMBIO DE BASE. Ya aparecieron ejemplos de bases en los que se us ms de una base simultneamente; el ejemplo 5.36, se escribieron polinomios en trminos tanto de { 1; t ; t } como de{1; 1+ t ; 1 + t } ese ejemplo fue esencialmente un ejercicio para encontrar las coordenadas con respecto a una base ordenada partiendo de aqullas con respecto a la otra. Por lo pronto se desarrollara este tpico. Suponga que B = {v1; v2 ;............;v p } y qu B = {v1 ; v2;;v p} Son dos bases de ordenadas para el mismo espacio vectorial real o complejo de dimensin , v. Para entender como se traduce entre las coordenadas en B y las coordenadas en B , primero se escribir cada vector v i de la base ordenada B como una combinacin de los vectores v ; de la base ordenada B como sigue Vi = m1i v1 + m2i v2 + + m t Ivi

CB = ( v I ) = mi = [ m 1i m 2i : """ m pi ]-->[Author:BF] Suponga que tiene las coordenadas , CB (v) y se requiere conocer las coordenadas B, CB (v) esto es, se tiene " 1," tales que v = "1v1 = +- " v y se desea encontrar "1, " tales que v = "1v1 + - teorema 5.38 sobre el isomorfismo CB y de ( 5.4 ) se sabe que ( usando rotacin de matrices separadas CB(v) = CB ( " 1 v 1+ +" ) = " 1 CB ( v 1) ++" ) = " 1m1 + " 2m2 + +" = [ m1 m2 m ] [ = McB (v), en donde M es la matriz p x p , M = [ m1 m2"""""""mi ] Lo anterior dice como obtener las coordenadas en B partiendo de las coordenadas en B ; solamente hay que multiplicar la matriz p x p M, cuyos elementos < M > i j son iguales a m i j de 5.41. A la inversa, es posible obtener las coordenadas en B' partiendo de las coordenadas en B y multiplicando M porque es no singular. Para comprobar que M es no singular, suponga que M = 0; si puede demostrar que x = 0: entonces el teorema clave 4.18 dir que M es no singular. Sea v el vector en V cuyas coordenadas en B', " 1 son los elementos de alguna x para la cual Mx = 0: " 1 = < x > por (5.42), las coordenadas en B de v son justamente Mx , que es = 0; entonces, V = 0v1 + 0v2 + +0vp = 0 en V Pero si v = 0 V, entonces sus coordenadas en B' son todas 0 y que B' es linealmente independiente; como v se defini para que esas coordenadas fueran los < x > se tiene que x = 0 como x = 0 s Mx = 0, M es no singular. Esto demuestra el siguiente resultado que es extremadamente importante: 3 Ejemplo considere el espacio polinomial ordenadas B = {1;t ; t'} y B'= y las dos bases m CB (v v

1 ]

3 {1 ;1 + t;1+ t + t'} de del ejemplo 5.36 para moverse entre ellas, es necesario que la matriz M: cada v'1 se debe escribir en trminos de la vj como en (5.41) lo cual es fcil: v'1 = 1 = 1(1) + 0(t) + 0(t') para la primera columna de M v'2 = 1 + t = 1(1) + 1(t) + 1(t') para la segunda columna v'3 = 1 + t + t' = 1(1) + 1(t) + 1(t') para la tercera columna por lo tanto.

1 1 1 -1 0

0 1 1 - 1 0 1 -1 0 0 1 y se encuentra M 0 0 1 -1 Es posible usar en M y en M para traducir coordenadas. Para escribir 7 - 3t + 4t' en trminos de B' se tomaran sus coordenadas en B, [ 10 - 7 4] t y se multiplicara por M-1 obteniendo [10 - 7 4 ] t como coordenadas en B'; como comprobacin , observe que 10(1) + (-7) ( 1 + t ) + (4) (1 + t + t') = (10 - 7 4 ) + ( -7 + 4)t + (4)t'= 7- 3t + 4t' como se necesitaba. Ms generalmente , las coordenadas en B' de -1 t a + bt + ct' son M [a b c ] = [ a - b b - c c ] que precisamente fue lo que encontr el ejercicio. 5.36. Ortogonalizacin de Gram-Schmidt Con este mtodo se consiguen directamente los factores Q y R imponiendo las condiciones que deben cumplir. Sean A = [ a1, a2, ........, an ], Q = [ q1, q2, ......, qn ], los ai , qi representan los vectores columna de A y Q, y R(i,j) los elementos de R. Identificamos elemento a elemento las matrices A = QR. a1 = R(1,1) q1 q1 = a1 / R(1,1); Q ortogonal q1' q1 =|| q1 ||22 = 1 R(1,1) = ||a1||2 a2 = R(1,2) q1 + R(2,2) q2 q2 = (a2 - R(1,2) q1) / R(2,2) ;

q1' q2 = 0 R(1,2) = q1' a2 || q1 ||22 = 1 R(2,2) = || a2 - R(1,2) q1 ||2 ............................................................................................

La implementacin directa de este algoritmo tiene malas propiedades numricas que se traducen frecuentemente en una prdida de ortogonalidad entre los qi computados. Una astuta organizacin de los clculos puede disminuir tales riesgos, es el llamado algoritmo modificado de Gram-Schmidt ( ref. BND p. 338 ). El coste operativo es de O(2n3) Comparando los mtodos anteriores, la eliminacin gaussiana, o factorizacin LU, es ms econmica y los QR ms estables. Transformaciones Lineales. Definicin.- Se llama lgebra sobre un campo a un espacio vectorial al cual esta asociado una aplicacin bilineal: M= * (La cual se denomina producto) Dados x e y que pertenecen al conjunto (no vaco), el vector m(x,y) que tambin pertenece a , llamamos producto de "x por y" y se representa por xy. Si encontramos que se cumple: x(yz)=(xy)z, x,y,z Se dice que es una lgebra asociativa. Elemento Unidad.- Si existe en un elemento, por ejemplo "e", de manera que se satisface: xe=ex=x, para todo x que pertenezca a , entonces "e" es el elemento unidad. Dados los espacios vectoriales U y V sobre un cierto campo , una aplicacin T:U V es una transformacin lineal u homomorfismo de U en V si se cumplen las siguientes condiciones: T(U1+U2)=T(U1)+T(U2); U1,U2 U

b) T( U1)= T(U1); ,U1 U T( 1U1+ 2U2)= 1T(U1)+ 2T(U2); 1, 2,U1,U2 U Nota.- El conjunto de todas las transformaciones lineales de U en V es un espacio vectorial respecto de las operaciones de adicin y de producto por un escalar definidas por: a) (T1+T2)(x)=T1(x)+T2(x) b) ( T)(x)= T(x) ,para todo x U y . Este espacio se puede designar mediante L(U,V) o bien Hom(U,V) Nota.- Las transformaciones lineales inyectivas se llaman transformaciones regulares; las biyectivas se llaman isomorfismos. Si existe un isomorfismo de U sobre V se dice que dichos espacios son isomorfos. Las transformaciones lineales de un espacio U en s mismos se llaman "endomorfismos", y el espacio vectorial de los endomorfismos de U se designa por L (U). Las transformaciones lineales biyectivas sobre U se llaman automorfismos. Nota.- Las transformaciones lineales de U en se llaman funciones o formas lineales y el espacio de las funciones lineales definidas en U se designa por: L (U). Ncleo e Imagen de una Transformacin Lineal. A continuacin daremos al lector solo una explicacin sencilla y directa, adems de algunos teoremas que mas adelante se necesitaran, pero esto es mas que suficiente ya que no se necesita profundizar demasiado en esta parte. Se llama ncleo de una transformacin lineal T:U V y se designa por Ker T al subespacio de U: Ker T={u U/ T(u)=0} Teorema.- Una transformacin lineal es regular si y solo si Ker T={0}, es decir si su ncleo se reduce al vector nulo. Teorema.- Cada transformacin lineal regular T:U V aplica a los vectores de un sistema linealmente independiente en vectores de un sistema linealmente. Se llama imagen de la transformacin T:U V, y se designa mediante Im T al subespacio de V: Im V=T(u)={v V/ u U, T(u)=v}

El cual constituye un subespacio como puede ser fcilmente comprobado. Nota.- Cuando Im T=V entonces es una transformacin lineal de U sobre V o sea una sobreyeccion, se dice tambin epiyeccion o suryeccion). Composicin de Transformaciones Lineales. Transformaciones Lineales Inversas. Si S :U V y T: V W son dos transformaciones lineales, se comprueba inmediatamente que la transformacin compuesta T? S: U W, definida por : (T? S)(u)=T[S(u)], u U En adelante la transformacin lineal T? S se representar simplemente por TS. Obs.- Se podrn definir las potencias de una transformacin lineal T: T2 =TT, T3 =TTT , etc. Nota.- La transformacin Iu:U U /T(u)=u; u U se llama transformacin idntica de U, y es evidentemente lineal. Transformacin Inversa.- Se dice que la transformacin lineal T-1 :V U es inversa de T si se cumplen las relaciones: TT-1 =Iv y T-1T=Iu Segn vimos el conjunto L(U,V) de las transformaciones lineales de U en V admite una estructura de espacio vectorial. En E(V) es posible introducir una nueva ley de composicin interna, a saber el producto de endomorfismos. Sean U,V,W tres espacios vectoriales y T1 :U V, T2 :V W ambas transformaciones lineales, entonces T2T1 es la transformacin lineal de U en W/ (T2T1)x=T2(T1x), x U Obs.- Sean T1 :U V, T2 :V W , T3:W Z entonces: T3(T2T1)=(T3T2)T1 ( T1+ T2)T3= T1 T3 + T2 T3 Teorema.- Una transformacin lineal T: U V es continua en un punto de U, entonces es uniformemente continua.

Teorema.- Una transformacin lineal T: U V es continua si y solo si existe un nmero real M>0 tal que para todo u U se cumple T(U) M U . Teorema.- Una transformacin lineal T: U V es continua si y solo si para todo conjunto acotado A de U, T(A) es acotado. Teorema.- Si T: U V es una transformacin lineal sobreyectiva ( no necesariamente continua ), entonces T es no singular y T-1 es continua si y solo si existe un nmero m>0 tal que para todo u U / m u T (U) . Ahora haremos una pequea introduccin a una nueva teora que explicaremos mas adelante. Consideremos dos espacios normados U y V y formemos el producto cartesiano U*V de ambos conjuntos. Definimos U*V como un espacio normado que depende de las estructuras de U y V. Las funciones f1 : U*V U, f2: U*V V, que reciben nombre de proyecciones cannicas, se definen de la siguiente manera, para todo (x,y) U*V / f1 (x,y)= x, f2 (x,y)=y. Obs.- Ambas son transformaciones lineales sobreyectivas, aunque no inyectivas en general. Por otra parte: fi(x,y) (x,y) ; I=1,2 Lo cual implica la continuidad de las dos proyecciones cannicas en virtud de: u U / T u M U Teorema.- Dos espacios normados U y Vson istopos si y solo si existe una transformacin lineal sobreyectiva T:U V y nmeros reales m,M>0 tales que: u U / m u T (x) M U Nota: Topologicamente isomorfos es equivalente a decir que son istopos. Lema.- Sean (E,d) un espacio mtrico y U normado. Si f: A E U es continua en A, entonces la funcin f : A E / a A: f (x)= f(x) Teorema.- Dos espacios normados de una misma dimensin finita son istopos. Teorema.- Todo espacio normado de dimensin finita es de Banach (completo).

Teorema.- Si T: U V es una transformacin lineal y U es de dimensin finita, entonces T es continua. Teorema.- Todo conjunto acotado de un espacio normado de dimensin finita es precompacto. --> TEOREMA CLAVE. ( cambio de base) sean B = {v1; ............;v p } y B = {v1 ; ;v p} dos bases ordenadas para el mismo espacio vectorial V de dimensin p. Para cualquier vector v en V, las coordenadas en B, vB de v y las coordenadas en B', vB de v relacionado por: vB = MvB y vB' = M-1B' En donde m es la matriz no singular p x p con los elementos < M > u = mu En donde v'i = m1i vi + + mpi vp.

Вам также может понравиться