Вы находитесь на странице: 1из 26

Definicin de espacio vectorial

Para un conjunto de escalares (o un grupo de escalares K) y un conjunto de vectores (llamados por lo general, elementos, vectores o puntos en un espacio de n dimensiones), se dice que V es un espacio vectorial sobre K si se logran cumplir las siguientes condiciones: Propiedades elementales de los vectores SUMA Asociativa de la suma u + (v + w) = (u + v) + w u, v, w Conmutativa de la suma v + w = w + v v, w V 0 V, llamado vector cero o nulo, | v + 0 = v v V. Existencia de elemento opuesto o simtrico de la suma v V, -v V, llamado opuesto de v, | v + (-v) = 0. MULTIPLICACIN Y SUMA Propiedad distributiva a (v + w) = a v + a w u, v, w

Propiedad distributiva del producto por un vector respecto a la suma de escalares (a + b) v = a v + b v Propiedad asociativa mixta del producto por un escalar a (b v) = (ab) elemento unidad 1 v = v, Donde 1 es la identidad multiplicativa en K Podemos decir por lo anterior que en un espacio vectorial intervienen dos conjuntos, vectores y escalares, los segundos como coeficientes de los primeros. Los vectores forman un grupo abeliano con respecto a la adicin (la suma es cerrada, asociativa, conmutativa, existe el elemento 0 y los negativos) y los escalares forman un campo con la inclusin del Tal como lo define la siguiente referencia: Algebra Lineal

elemental con aplicaciones. Editorial Prentice Hall, 1996. Un espacio vectorial V sobre un cuerpo K es un conjunto que incluye dos operaciones: suma entre elementos de V y producto de elementos de K por elementos de V y cuyo resultado es otro elemento de V. A los elementos de V los denominamos vectores y los elementos de K, escalares. Ejemplo Podemos tomar V como el conjunto de los polinomios, y K el de los nmeros reales. As, tendramos la suma de polinomios, elementos de V; y el producto de un nmero real por un polinomio, cuyo resultado es otro polinomio. Sin embargo es necesario que se cumplan una serie de propiedades para ambas operaciones. 1. Para la suma de elementos de V,y dados u, v, w elementos de V : 1. la operacin es interna, es decir, u+v pertenece a V 2. la suma es asociativa, as, u+(v+w)=(u+v)+w 3. existe elemento neutro para la operacin suma, es decir, un elemento 0 de V tal que u+0=0+u=u 4. existe elemento opuesto, esto es, para todo u, existe otro elemento -u tal que u+(-u)=0 5. la operacin es conmutativa, y as u+v=v+u En realidad esta operacin dota a V de estructura de grupo abeliano.

4.2Definicion de subespacio de un espacio vectorial y sus propiedades


Subespacio vectorial Definicin Sean (V,+,K,*) un espacio vectorial y S un subconjunto de V. S es subespacio vectorial de V si (S,+,K,*) es espacio vectorial en s mismo, siendo + y * las mismas operaciones definidas en V. Criterio de subespacio El criterio para la verificacin de que S es subespacio de V, es que ambas operaciones (+ entre elementos del conjunto S y * con escalares del cuerpo K)

sean cerradas, es decir, den como resultado elementos que tambin pertenezcan a S. Un espacio vectorial es un conjunto no vaco que cumple con estas tres condiciones: 1) El Punto Origen pertenece al conjunto. Ej: (0,0,0) 2) Sea K un nmero real y {v} un vector que pertenece al conjunto entonces K.v tambin pertenece al conjunto. 3) Sean {u} y {v} dos vectores que pertenecen al conjunto entonces u+v tambin pertenece al conjunto. Si estos tres axiomas se cumplen entonces el conjunto es un subespacio

Una combinacin

lineal de

dos

ms

vectores

es

el vector que se obtiene al sumar esos vectores multiplicados por sendos escalares.

Combinacion lineal. Independencia lineal


Vectores linealmente dependientes Varios vectores libres del plano se dice que son linealmente dependientes si hay una combinacin lineal de ellos que es igual al vector cero, sin que sean cero todos los coeficientes de

la combinacin lineal.

Propiedades 1. Si varios vectores son linealmente dependientes, entonces al menos uno de ellos se puede expresar como combinacin

lineal de los dems.

Tambin se cumple el reciproco: si un vector es combinacin lineal de otros, entonces todos los vectores son linealmente

dependientes. 2.Dos vectores del plano son linealmente dependientes si, y slo si, son paralelos. 3.Dos vectores libres del plano son linealmente proporcionales. dependientes si = (u 1 , u 2 ) y sus = (v 1 , v 2 ) son

componentes

Ejemplo Determinar dependientes los y los valores de k para que , y , sean linealmente

vectores . escribir

como combinacin lineal de

siendo k el valor calculado. Los vectores son linealmente dependientes si

el determinante de la matriz que forman es nulo, es decir que el rango de la matriz es menor que 3.

Varios

vectores

libres

son linealmente

independientes si

ninguno de ellos puede ser escrito con una combinacin lineal de los restantes.

a 1 = a 2 = = a n = 0 Los vectores linealmente independientes tienen distinta

direccin y sus componentes no son proporcionales.

Ejemplos 1.Estudiar si son linealmente dependientes o

independientes los vectores: = (2, 3, 1), = (1, 0, 1), = (0, 3, 1)

a (2, 3, 1) + b(1, 0, 1) + c (0, 3, 1) = (0, 0, 0)

r = 2 n = 3 Sistema compatible indeterminado. El sistema tiene infinitas soluciones, por tanto los vectores son linealmente dependientes.

Base y direccin de un espacio vectorial


Base Tres vectores , y con distinta direccin forman

una base, porque cualquier vector del espacio se puede poner comocombinacin lineal de ellos.

Las coordenadas del vector respecto a la base son:

Base ortogonal Una base es ortogonal si son perpendiculares entre s. Base ortonormal Una base es ortonormal si los vectores de la base los vectores de la base

son perpendiculares entre s, y adems tienen mdulo 1.

Esta

base

formada

por

los

vectores

se

denomina base cannica. Ejemplo 2. Para , y qu valores de a los vectores

forman una base?

Para a 1, los vectores forman una base. 3.4.- Bases en el Espacio Vectorial. Vectores linealmente dependientes: Un conjunto de vectores ser linealmente dependiente si alguno de ellos se puede expresar como combinacin lineal del resto. Otra definicin equivalente ser que el vector cero se podr expresar como combinacin lineal de este conjunto de vectores en el que al menos algn coeficiente ser distinto de cero. Vectores linealmente independientes: Un conjunto de vectores ser linealmente independiente si ninguno de ellos se puede expresar como combinacin lineal del resto de los vectores. Otra forma de definirlo ser si el vector cero slo se puede expresar como combinacin lineal de estos vectores cuando los coeficientes que multiplican a cada vector son nulos. Pues bien, en el estudio del plano, siempre que tengamos un conjunto de dos vectores linealmente independientes, PODREMOS EXPRESAR CUALQUIER VECTOR DEL PLANO COMO COMBINACIN LINEAL DE ESTOS DOS VECTORES. La idea es sencilla: en el plano nos encontramos con dos dimensiones, el largo y el ancho. Cada vector dar una direccin del plano. Si tenemos dos direcciones, a

partir de stas podremos obtener el resto de direcciones simplemente con buscar combinaciones lineales de estos vectores. Esta idea se recoge en la siguiente definicin: BASE DE UN ESPACIO VECTORIAL: Una base es un conjunto de vectores linealmente independientes y que son capaces de generar cualquier vector de dicho espacio. En nuestro estudio del plano, una base estar formada por dos vectores linealmente independientes. COORDENADAS DE UN VECTOR RESPECTO DE UNA BASE: Las coordenadas de un vector respecto de una base son los escalares por los que hay que multiplicar los vectores de la base de forma que representen al vector dado mediante una combinacin lineal de dichos vectores de la base. Espacio euclidiano o Espacio vectorial: Un espacio euclidiano es el conjunto de n-adas ordenadas, tambien conocido por espacio n-dimencional y de denota por Rn este es una sucesin de n nmeros reales ejemplo (a1,a2,...,an) donde los vectores Rn se clasifican as: R1 = espacio unidimensional, lnea recta real. R2 = espacio bidimensional, pares ordenados. R3 = espacio tridimensional, terna ordenadas. ....... Rn = espacio n-dimencional, n-adas ordenadas. Operaciones Basicas con Vectores en R2: Suma de vectores y multiplicacin por un escalar: Siendo X y Y dos vectores y H un escalar se dice que: X + Y = (x1 , x2) + (y1 , y2) = (y1 , y2) + (x1 , x2) y la multiplicacin por un escalar se define H(x1 , x2)=(Hx1 , Hx2). Las propiedades que cumple la suma de vectores son las misma que cumplan las estructuras algebraica de una operacin que son: la de cierre, la conmutativa, la asociativa, elemento neutro e identidad y la distributiva. Las leyes que cumple la multiplicacin por un escalar son: La de cierre bajo la multiplicacin Hx, La distributiva (H+I)x = Hx + Ix ; H(x + y) = Hx + Hy, La asociativa (HI)x = H(Ix), y el elemento neutro de la multiplicacin 1x = x.

Operaciones Bsicas con Vectores en Rn: Las operaciones bsicas con vectores en Rn son las mismas que las operaciones bsicas que vimos anteriormente, o sea, la suma de vectores y la multiplicacin por un escalar la diferencia seria que en estos serian n-esimos elementos y nesimos vectores ejemplo: Para suma de vectores X + Y = (x1 , x2, ... , xn) + (y1 , y2, ... , yn). Para multiplicacin de un vector por un escalar H(x1 , x2, ... , xn) = (Hx1 , Hx2, ... , Hxn). Las propiedades que cumplen son las mismas que vimos en operaciones bsicas con vectores en R2. El vector cero 0 es el vector neutro o identidad de la suma de vectores en Rn: 0 = (0, 0, 0, ..., 0n), este vector tiene como propiedad de que es nico, es decir, U + 0 = 0, 0U = 0, a0 = 0, aU = 0 si a = 0 o U = 0, donde U es un vector y a un escalar. Espacios Vectoriales: Un espacio vectorial es aquel conjunto de vectores que cumple las propiedades o axiomas de la suma de vectores y la multiplicacin por un escalar dichas propiedades vistas en espacios n-dimensinales Rn o R2. Un espacio vectorial es un espacio no vaco. Podramos decir que un espacio vectorial es la abstraccin de las propiedades de un espacio n-dimencional , debe tomarse en cuenta que en el espacio vectorial no se especifica operaciones ni vectores entonces se puede usar cualquier vector y cualquier operacin se puede sustituir la suma de vectores y la multiplicacin por un escalar, pero siempre cumpliendo todos las propiedades, siempre seria un espacio vectorial. Un espacio vectorial cumple con cuatro partes que son: un conjunto de vectores, un conjunto de escalares, y dos operaciones. Estos forman un cuerpo que es igual a las estructuras algebraicas de dos operaciones <conjunto, operacin ,operacin> (un cuerpo). Para comprobar que determinado conjunto es un espacio vectorial es preciso definir o especificar las propiedades de suma multiplicacin por un escalar como vimos anteriormente tenemos que definir el elemento que acta como cero (0) y el negado de cada elemento. Cuerpo: Es el conjunto de nmeros y operaciones cualquiera que deben obedecer las diez propiedades algebraicas que mencionamos en operaciones bsicas de espacios vectoriales. Sub cuerpo:

Si se operan escalares en forma de sub cuerpo C y se operan bajo la suma y la multiplicacin por un escalar estos escalares no deben salirse del sub espacio determinado y las operaciones de prueba son las mismas que se han mencionado con anterioridad. Sub espacio vectorial: Esto dice que si W es un sub conjunto del espacio vectorial V entonces este es un sub espacio de V. Si W es un espacio vectorial bajo las operaciones de suma y multiplicacin por un escalar definidas en V. Para que W sea un sub espacio de V debe cumplir las propiedades de cierre de la suma y la multiplicacin por un escalar tambin debe cumplir la ley del elemento neutro bajo la suma, el inverso bajo la suma y el neutro bajo la multiplicacin por un escalar. Combinacin Lineal: Se denomina combinacin lineal a u vector V en un espacio vectorial U u un cuerpo h. Si los vectores v1, v2, v3, ..., vn en u si V puede expresarse como: V = c1v1 + c2v2 + c3v3 +... + cnvn donde c son escalares del cuerpo h. Envolvente Lineal: Este es el conjunto de todas las combinaciones lineales semejantes denotado por Lin(v1, v2, ..., vn) y se denomina envolvente lineal de u1, u2, ...,un. Siendo S un sub conjunto de un espacio vectorial V entonces Lin S es un sub conjunto de un espacio vectorial V y si W es un subconjunto de V que contiene a S, necesariamente Lin S es complemento de W. Conjuntos Generadores: Si todo vector es un espacio vectorial puede ser expresado como combinacin lineal como lo vimos anteriormente entonces se dice que la combinacin lineal es un conjunto generador de un espacio vectorial.. En otras palabras si u1, u2, ..., un generan u entonces u pertenecen a V si existen escalares c tal que: V = c1u1 + c2v2 + ... + cnun entonces V es una combinacin lineal de u1, u2, ..., u3 . Espacio fila y Espacio Columna de una Matriz: Si A es una matriz m x n en un cuerpo K cualquiera, las filas de A pueden ser vistas como vectores de Kn llamado espacio fila de U denotado por f - Lin A. As haciendo la matriz transpuesta esto quiere decir que si las columnas las hacemos vectores de Km estos generan un sub espacio de Km llamado espacio columna de A denotado c-Lin A. Si hacemos operaciones elementales entre fila a A y obtenemos una matriz B podemos decir que B es que cada fila de B es una combinacin lineal de cada fila

de A por lo que el espacio fila de B esta contenido al espacio fila de A y as viceversa, o sea, si efectuamos operaciones entre fila a B obtenemos A y esto seria convencin lineal de cada fila de B, esto cumple ciertos teoremas y propiedades:

tienen las mismas filas no nulas. ma cannica por filas. Conjuntos Generadores e Independencia Lineal: Si todo vector puede expresarse como combinacin lineal de vectores en un conjunto S entonces el conjunto S es un conjunto de un espacio vectorial. Dependencia e Independencia Lineal: Para que un vector tenga dependencia lineal este debe tener una solucin no trivial esto quiere decir que la combinacin lineal denotado as: c1v1 + c2v2 + c3v3 = 0 , sea que tiene una solucin nica. Para comprobar la independencia Lineal. Sea S = {v1, v2, ..., vn } un conjunto de vectores en un espacio vectorial V entonces partiremos de la ecuacin vectorial c1v1 + c2v2 + c3v3 = 0 (que es la misma que combinacin lineal don de c son escalares) se escribe un sistema homogneo de ecuaciones lineales en variable c1, c2, ..., ck . despus se hace Gauss-Jordn a la matriz aumentada para diagonal izarla si la solucin de la diagonalizacion tiene solamente solucin trivial c1, c2, c3 entonces S es linealmente independiente. Si un conjunto S={v1, v2, ..., v3}, k>=2 es linealmente dependiente si solo si por lo menos uno de los vectores vj puede expresarse como una combinacin lineal de los dems vectores S. Base y Dimension: En un conjunto S={v1 ,v2, ..., vk} es un espacio vectorial V este se denomina Base si cumple que si es espacio vectorial tiene una base con un numero finito de vectores entonces V es de dimensin finita y en caso contrario es de dimensin infinita. Base y Dependencia Lineal: Si un conjunto finito S={ v1 , v2, ..., vn } es una base de un espacio vectorial V si todo conjunto que contiene mas de n vectores de V es linealmente dependiente. Numero de Vectores de una Base: Si un espacio vectorial V tiene una base con n vectores entonces toda base V tiene n vectores. Dimensin de un Espacio Vectorial:

Si un espacio vectorial V tiene una base con n vectores entonces esa n es la dimensin de esa base y se denota dim(V) = n. Tericamente la dimensin se determina al hallar el conjunto de vectores linealmente independientes que genera el sub espacio, este conjunto es una base del sub-espacio y la dimensin del mismo es el numero de vectores que hay en la base. Para ver que una base en un espacio n-dimensional: Siendo V su espacio vectorial y n = n entonces S = { v1, v2,... ,vn } en un conjunto de vectores linealmente independientes en V, entonces S es una base de V. Ejemplo: si S = { v1, v2, ..., vn } genera a V, entonces S es una base de V Rango de una matriz y sistema de ecuaciones lineales: Sea una matriz Am x n = entonces sus n-adas corresponden a las Filas de la matriz, ejemplo: (a11, a12, ..., a1n), (a21, a22, ..., a2n), ..., (am1,am2, ..., amn) estas series son los vectores fila de A y los vectores columnas de A corresponden a las columnas de la matriz ejemplo: (a11, a21, ..., am1), (a12, a22, ..., am2), ..., (a1n, a2n, ..., amn). El espacio fila y el espacio columna son sub-espacios de Rn generado por los vectores fila y espacio columna de A. Veremos a continuacin que los espacios fila y espacio columna comparten muchas propiedades veremos primero el espacio fila, considerando que dos matrices son equivalentes por fila si la segunda matriz se obtiene por operaciones elementales entre fila esta tienen el mismo espacio fila, tambin hay que considerar que la matriz no se modifica sus columnas por las operaciones elementales entre filas, pero si pueden modificar sus filas. Si la matriz equivalente B esta en forma escalonada entonces esta constituye un conjunto independiente. Y la base para el espacio fila de una matriz: si la matriz A es igual en fila a la matriz B entonces en esta ultima los vectores fila B son diferentes de cero esta forma una base para el espacio fila. Si A es una matriz m x n entonces el espacio rengln y el espacio columna son iguales. Para poder resolver la ecuacin lineal utilizaremos la notacin matricial Ax = B que se utiliza para representar ecuaciones lineales. = la solucin de ste sistema nos permite ver el conjunto solucin, esta solucin se escribe como n-adas y se denomina: vectores solucin para un sistema homogneo se utiliza la notacin matricial Ax = 0 es un espacio Rn esta solucin se denomina espacio solucin del sistema tambin se llama espacio nulo de a. La dimensin de este sistema se denomina nulidad de A.

Para la dimensin de un sistema homogneo (Ax = 0) en una matriz A m x n y su rango r entonces la dimensin seria n-r (nulidad - rango) = n. Un sistema homogneo Ax = 0 es un sub-espacio y un sistema no homogneo Ax = 0 es un sub-espacio y un sistema no homogneo Ax = B donde B " 0 este no es sub-espacio ya que el vector cero no es solucion. Si Xp es una solucin particular del sistema homogneo entonces todo el sistema se expresa como X = Xp + Xn donde Xh seria la solucin del sistema homogneo Ax = 0. Para ver el numero de soluciones de las ecuaciones lineales se tomara en cuenta tres reglas: quiere decir si el rango de la solucin de la matriz A es igual al del rango de la matriz aumentada en B es igual a n entonces tiene una nica solucin.

Para las ecuaciones lineales con matrices cuadradas: Si A es una matriz n x n cumple las siguientes condiciones:

(A) = n

Coordenadas y cambio de base: Siendo B={ v1, v2, ..., vn} una base de un espacio vectorial y x un vector en V que representndose como combinacin lineal ( x = c1v1 + c2v2 + ... + cnvn ) siendo los escalares c. Se denomina como coordenadas x con respecto B en el vector Rn denotado as xB = ( c1, c2, ..., cn ). Cambio de base. Partiendo de una base B a una base B' se tiene que hacer una multiplicacin por una matriz p-1 y esta la obtenemos sacando la inversa de la base B esto seria P-1 y multiplicando P-1 por B obtenemos B' y viserversa. Aplicacin de los espacios vectoriales: Secciones cnicas y rotacin de ejes:

Toda cnica esta dada por ax2 + by2 + cxy + dx + cy + f = 0 donde c de xy = 0 cuando sus ejes son paralelos al plano. Si la ecuacin tiene c en xy " 0 se necesita sacar x' y y'. El ngulo de rotaciones debe sacar con la formula Cot 2 = (a-c)/b rotando los polos en sentido antihorario en esta forma la base standard ya vista en temas anteriores exhortada formando un nueva base que es B'= { (Cos , ), , Sen (-Sen Cos

)} esto para hallar coordenadas en el plano P(x, y) respecto en a'x'2 + b'y'2 + c'x'y' + d'x' + c'y' + f' = 0 rotando los ejes en sentido antihorario utilizando la formula anterior de angulos rotados y sabiendo que x = x'Cos y + . Ecuaciones diferenciales Lineales: Una ecuacin diferencial de orden n se denota yn + gn-1 (x) yn-1 + ... + g1 (x) y' + g0 (x) y = f(x) donde g1, g2, ..., gn dominios comunes. Si f(x) = 0 esta funcin se le denomina como funcin homognea en caso contraria es una funcin no homognea. Se denomina solucin de la ecuacin diferencial lineal si la solucin satisface cuando y y sus n primeras derivadas se sustituyen en la ecuacin. Toda ecuacin diferencial lineal homognea de orden n tienen solucion linealmente independiente si {y1, y2, ..., yn } tienen solucion linealmente independiente entonces la solucin seria : y = c1y1 + c2y2 + ... + cnyn esta es la solucion general donde c es un numero real. Sea {y1, y2, ..., yn } un conjunto de funciones estas poseen n-1 derivadas en el intervalo I. El determinante w es el llamado wroskiano del conjunto de funciones dadas. Para probar el que una ecuacin diferencial es linealmente independiente se puede hacer por wroskiano. Este se hace si el wroskiano es diferente de cero (w " 0). que y = y'Sen x'Sen y'Cos

ESPACIO CON PRODUCTO INTERNO:


La longitud (norma) de un vector de Rn es V = (v1, v2, ..., vn ) esta dada por:

________________ ||V|| =" v12 + v22 + ... + vn2 esta no puede ser negativa si el vector v = 1 este se llama vector unitario dos vectores U y V en Rn son paralelos si al vector V es mltiplo del vector U, es decir, si U = cV si c > 0 los vectores van a la misma direccin y si c < 0 van en direccin opuesta, la longitud de un mltiplo escalar se ve por la formula || cV || = | c | || V || donde | c | es el valor absoluto de c y c es un escalar. El vector unitario de V es si V " 0 entonces U = V / ||V|| es de longitud uno y tiene la misma direccin de U+V se llama vector unitario en direccin de V este proceso se llama normalizacin del vector V. La distancia entre dos puntos se llama normalizacin del vector V. ___________________ d =" (u1 - v1 )2+ (u2 - v2 )2 y la distancia entre dos vectores en R2 se encuentra . ___________________ d(U,V) = || U - V || =" (u1 - v1 )2+ (u2 - v2 )2 donde U = (u1 - u2 ) y V = (v1 - v2 ). Las propiedades que cumple la distancia son: " 0.

Para encontrar el ngulo entre dos vectores distintos de cero usamos la formula: Cos = (u1v1 + u2v2) / ||U|| ||V|| donde U = ( u1, u2 ) y V = ( v1 , v2 ) y donde u1v1 + u2v2 se denota como producto punto de dos vectores. El producto punto para Rn se denota U % V = u1v1 + u2v2 + ... + unvn las propiedades que cumple son :

V = 0 si solo si V = 0 Donde c es un escalar y que U, V, W son vectores cualesquiera en Rn. Desigualdad de gauchy - schawarz: La desigualdad de Gauchy - Schwarz dice que | U % V | " || U || || V || don de | U % V | es valor absoluto de U % V donde U y V son vectores viendo esta desigualdad podemos definir el ngulo entre dos vectores en Rn as : Cos

= (U % V ) / (||U|| ||V||) esta formula no define ngulos entre dos vectores, si U % V = 0 se dice que los ngulos son ortogonales. La desigualdad del triangulo: Dice si U y V son vectores entonces || U + V || " || U || + || V ||. El teorema de Pitgoras: Este dice si U y V son vectores entonces || U + V ||2 = || U || 2 + || V || 2 solo para vectores ortogonales. Un producto punto es un producto interno Euclidiano esto es un producto interno que se puede definir en R2. para poder diferenciar el producto interior de otros posibles productos internos lo escribiremos esto ser el producto general para el espacio vectorial V. Para solucionar un producto interno se procede igual que al definir un espacio vectorial en el acho de que debe cumplir con varios axiomas para poder calificar como producto interno estos axiomas son: Siendo U, V, W vectores en V y c cualquier escalar:

Para definir la norma, distancia, ngulo de dos vectores que tenga producto interno: siendo U, V vectores en V: ______ norma = ||U|| = " distancia entre U, V = d= || U - V || ngulo = " / entre ( vectores ||U|| . U, ||V|| V diferentes ) donde de 0 0 cos "

Dos vectores con producto interno son ortogonales si = 0. El vector unitario de un vector con producto interno || U || = 1 el vector unitario en direccin de V donde U = V / || V || donde V " 0. Para ver si U y V son vectores en el espacio con producto interno deben cumplir con las propiedades de norma:

Y las propiedades de la distancia antes ya mencionadas. Adems cumplen con la desigualdad de Gauchy - Schawarz, desigualdad del triangulo y el teorema de Pitgoras antes yya explicadas. Proyecciones ortogonales en espacios con producto interno: Si U y V son vectores en el plano y V es diferente de 0 entonces este se puede proyectar ortogonalmente a U y se denota como ProyV U = [ ( U%V ) / ( V%V ) ]V proyU V = [ ( U%V ) / ( U%U ) ]U donde U%V y V%V son el producto punto o producto interno Euclidiano. Para en el espacio la proyeccin se denota como proyv U = [ / ]V , proyv U = [ / ]U. La proyeccin ortogonal y distancia: Siendo U y V dos vectores en el espacio V con producto interno y V " 0. Entonces la distancia d ( U, proyv ) < d ( U, cV ) donde c " / . Definicin de conjuntos ortonormales y conjuntos ortogonales: En un conjunto de vectores S de el espacio vectorial V es producto interno es ortogonal si cada vector de y seria espacio ortonormal si cada vector S es unitario. Es ortonormal si < vi, vj > = 0 i " j y || vj || = 1 donde i = 1, 2, 3, ..., n y es ortonormal si < vi, vj > = 0 i " j donde vi, vj pertenecen al conjunto s = { v1, v2, ..., vn } Un conjunto ortogonal es linealmente independiente si s es un conjunto de vectores diferentes de cero y que pertenecen al espacio v con producto interno. Proceso para ortonormalizar de Gram - Schmidt:

Sea B = { v1, v2, ..., vn } w1 = v1 w2 = v2 - proyw1 v2 wn = vn - proyw1 v3 - - proyw(n-1) vn B' = { w1, w2, ..., wn } Donde B'' = { u1, u2, ..., un } es un abase ortonormal. Aplicacin de los espacios con producto interno: Producto cruz de dos vectores en el espacio: Donde U = (u1, u2, ..., un ) V = (v1, v2, ..., vn )

UxV= por el mtodo de cofactores = i + j + k . las propiedades del producto cruz: UxV=VxU c(UxV)=cUxV=UxcV UxU=0 Ux(V+W)=(UxV)+(UxW) Ux0=0xU U(VxW)=(UxV)W U x V son paralelos si U x V = 0. Aproximacin por mnimos cuadrados: Siendo f y g dos funciones en x y funciones continuas en un intervalo finito [ a, b ] entonces. I = 2 dx siendo I = 0 si ( f - g ) ! 0 esto se puede representar como : = 2 dx siendo I = 2 dx = = || f - g || 2 esto significa que es equivalente minimizar || f - g || 2 y || f - g ||. La aproximacin de minimos cuadrados esta dada por: g = w1 +w2 + ... + wn siendo w1 = w1 donde b = {w1, w2, w3,} Cambio de base en espacios vectoriales y sus duales Sea un espacio vectorial de dimensin finita y una ``nueva base'' . Consideremos en una

``antigua base'' relaciones:

. Rigen unas

(1)

La

matriz:

de tipo

se llama la MATRIZ DE TRANSICIN DE LA ANTIGUA LA NUEVA BASE . Puesto es

BASE #MATH2676# DE A que

es una familia linealmente independiente en

, la matriz de

una matriz inversible. Introducimos tambin las bases de sendas bases endomorfismo lineal de de tal que: . Sea

duales el nico

(2)

es de hecho un automorfismo lineal de

. Ya que por (1) y (2):

la matriz de transicin antigua base Aplicando el operador

es la matriz del automorfismo de E.

con respecto a la

a ambos miembros de (1), obtenemos:

o sea, teniendo en cuenta (2):

(3)

Estas frmulas muestran que la matriz de transicin automorfismo con respecto a la nueva base de

es tambin la matriz del de .

Pasemos al automorfismo dual equivalen a:

. Por el teorema 2.2.6 las frmulas (3)

(4)

Por otra parte,

en virtud de (2)

de donde: (5)

Comparando con (4), obtenemos la frmula ``dual'' de (1):

(6)

Al pasar de (1) y (6) notamos un ``doble fenmeno de inversin'', a saber: 1. Las frmulas (1) expresan los elementos de la nueva base de en funcin de la antigua base. Pero las frmulas (6) expresan los elementos de la antigua base dual de en funcin de la nueva. 2. En cada frmula (1) se fija el ndice inferior (ndice de columna) de (ndice de fila) de . ;

Pero en cada frmula (6) es fijo el ndice superior o, si se quiere: La frmula nmero La frmula nmero Base ortonormal

en (1) pone en obra la columna nmero en (6) pone en obra la fila nmero de

de .

En lgebra lineal, una base ortonormal de un espacio prehilbertiano V (es decir, un espacio vectorial con producto interno) o, en particular, de un espacio de Hilbert H, es un conjunto de elementos cuyo span es denso en el espacio, en el que los elementos son mutuamente ortogonales y normales, es decir, de magnitud unitaria. Una base ortogonalsatisface las mismas condiciones, salvo la de magnitud unitaria; es muy sencillo transformar una base ortogonal en una base ortonormal mediante el producto por un escalarapropiado y de hecho, esta es la forma habitual en la que se obtiene una base ortonormal: por medio de una base ortogonal. As, una base ortonormal es una base ortogonal, en la cual la norma de cada elemento que la compone es unitaria. Estos conceptos son importantes tanto para espacios de dimensin finita como de dimensin infinita. Para espacios de dimensin finita, la condicin de span denso es la misma que la de 'span', como se usa en lgebra lineal.

Una base ortonormal por lo general no es una "base", es decir, en general no es posible escribir a cada elemento del espacio como una combinacin lineal de un nmero finito de elementos de la base ortonormal. En el caso de dimensin infinita, esta distincin cobra importancia: la definicin dada requiere solo que el span de una base ortonormal seadensa en el espacio vectorial, y no que iguale al espacio entero. Una base ortonormal de un espacio vectorial V no tiene sentido si el espacio no posee un producto interno. Un Espacio de Banach no tendr una base ortonormal a no ser que sea un espacio de Hilbert.

El conjunto {e1=(1,0,0), e2=(0,1,0), e3=(0,0,1)} (la base cannica) forma una base ortonormal de R3. Demostracin: Mediante un clculo directo se verifica que e1, e2 = e1, e3 = e2, e3 = 0 y que ||e1|| = ||e2|| = ||e3|| = 1. As, {e1, e2, e3} es un conjunto ortonormal. Para un (x,y,z) cualquiera en R3 tenemos entonces, {e1,e2,e3} reconstruye R3 y por lo tanto tiene que ser una base. Tambin puede demostrarse que la base estndar rotada alrededor de un eje que pasa por el origen o reflejada en un plano que pasa por el origen forma tambin una base ortonormal de R3.

El conjunto {fn : n Z} con fn(x) = exp(2inx) forma una base ortogonal del espacio complejo L2([0,1]). Este es un resultado fundamental para el estudio de series de Fourier.

El conjunto {eb : b B} con eb(c) = 1 si b=c y 0 en caso contrario forma una base ortonormal de l2(B). Eigenfunciones de un Eigenproblema de Sturm-Liouville.

4.6.2 (Metodo de ortonormalizacion de Gram-Schmidt)


Sea (V; h; i) un espacio vectorial con producto interno y sea fv1; : : : ; vng una base de V . Existe un base ortonormal B = fw1; : : : ;wng de V tal que < v1; : : : ; vk > = < w1; : : : ;wk > 8 1 k n: Demostracion. Se construira una base ortogonal fz1; : : : ; zng de V que cumpla: < z1; : : : ; zk > = < v1; : : : ; vk > 8 1 k n:

Normalizando los vectores de esta base se obtendra la base ortonormal buscada. Construiremos los vectores de la base recursivamente: Tomamos z1 = v1, que satisface < z1 > = < v1 >. Buscamos z2 2 V con hz2; z1i = 0 y tal que < z1; z2 > = < v1; v2 >. Esta segunda condicion vale si y solo si z2 es de la forma z2 = a:v1+b:v2 con b 6= 0. Podemos suponer entonces que b = 1, es decir, z2 = v2 + a:v1 y buscar a de manera que se cumpla la primera condicion: 0 = hz2; z1i = hv2 + av1; v1i = hv2; v1i + a:hv1; v1i; lo que implica que a= hv2; v1i kv1k2 : 8.2 Ortogonalidad 199 Luego, el vector z2 = v2 hv2; v1i kv1k2 :v1 = v2 hv2; z1i kz1k2 :z1 satisface las condiciones requeridas. Supongamos construidos z1; : : : ; zr 2 V tales que (i) hzi; zji = 0 si i 6= j. (ii) < z1; : : : ; zk > = < v1; : : : ; vk > 8 1 k r. Consideramos el vector zr+1 = vr+1 Xr i=1 hvr+1; zii kzik2 :zi: (8.2) Se tiene que: a) < z1; : : : ; zr; zr+1 > = < z1; : : : ; zr; vr+1 > = < v1; : : : ; vr; vr+1 >, b) para cada j r hzr+1; zji = D vr+1 Xr i=1 hvr+1; zii kzik2 :zi; zj E = hvr+1; zji Xr i=1 hvr+1; zii kzik2 : hzi; zji

= hvr+1; zji hvr+1; zji kzjk2 : hzj ; zji = 0: Luego, zr+1 satisface las condiciones requeridas. De esta manera, al concluir el n-esimo paso se obtiene una base ortogonal fz1; : : : ; zng de V que ademas satisface < z1; : : : ; zk > = < v1; : : : ; vk > para cada 1 k n. Finalmente, para cada 1 i n consideramos el vector wi = zi kzik . Luego el conjunto B = fw1; : : : ;wng resulta una base ortonormal de V que cumple lo pedido. Corolario 8.21 Sea (V; h; i) un espacio vectorial de dimension nita con producto interno, y sea S un subespacio de V , S 6= f0g. Entonces existe una base ortonormal de V que contiene una base ortonormal de S. Demostracion. Sea fs1; : : : ; srg una base de S. Existen vr+1; : : : ; vn 2 V tales que B = fs1; : : : ; sr; vr+1; : : : ; vng es una base de V . Aplicando el proceso de GramSchmidt a B se obtiene una base ortonormal B0 = fw1; : : : ;wr;wr+1; : : : ;wng de V que satisface < w1; : : : ;wr > = < s1; : : : ; sr > = S: 200 Espacios vectoriales con producto interno En consecuencia, fw1; : : : ;wrg es una base ortonormal de S incluida en la base ortonormal B0 de V . Al igual que con una base ortogonal, se puede crear un arreglo de bases ortonormales para formar una matriz ortonormal. Para poder construir una base ortonormal de una base cualquiera es necesario primero ortogonalizar a la base para luego ortonormalizarla. Existe el mtodo de ortonormalizacin de Gram-Schmidt con el cual es posible realizar lo anterior. http://www.google.com.mx/# recursostic.educacion.es/descartes/.../bases_espacio_vectorial.htm mate.dm.uba.ar/~jeronimo/algebra_lineal/Capitulo8.pdf http://mate.dm.uba.ar/~jeronimo/algebra_lineal/Capitulo8.pdf

Bibliografa propuesta Libro: introduccin al lgebra lineal Autor: Howard Anton Editorial: Limaza Wiley Libro: Algebra lineal Autor: David Pool Editorial: Thomson

Вам также может понравиться