Вы находитесь на странице: 1из 13

TEMA 12

ESPACIOS VECTORALES. VARIEDADES LINEALES.


APLICACIONES ENTRE ESPACIOS VECTORIALES. TEOREMAS
DE ISOMORFÍA
Luis Felipe Prieto Martı́nez
15 de agosto de 2016

Índice
1. Introducción 3
1.1. Introducción histórica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2. Conceptos básicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

2. Espacios vectoriales 5

3. Subespacios vectoriales 6
3.1. Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.2. Unión e intersección de subespacios vectoriales. Sumas de espacios vectoriales . . . . . . . . . . . . . . 6

4. Aplicaciones lineales 7

5. Espacios vectoriales cociente. Teoremas de isomorfı́a 8


5.1. Espacios vectoriales cociente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
5.2. Teoremas de isomorfı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

6. Independencia Lineal, Bases y Dimensión 9


6.1. Dependencia e independencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
6.2. Bases y Dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
6.3. Bases y aplicaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

7. Variedades Lineales 12

8. Espacios Vectoriales con Estructura Extra 13

1
2
1. Introducción

1.1. Introducción histórica

Los espacios vectoriales, surgen de manera natural de la geometrı́a afı́n, cuando se introducen coordenadas en el
plano o el espacio.

En torno a 1636, Descartes y Fermat, fundan la geometrı́a analı́tica vinculando las soluciones de una ecuación en
dos variables con una curva plana.

Para obtener soluciones geométricas sin utilizar coordenadas, Bolzano introduce en 1804 ciertas operaciones sobre
puntos, rectas y planos, precursores de los vectores.

La fundación del término “vector” (para distinguirlo de la definición posterior, nosotos lo llamaremos“vector
flecha”) es la definición de Bellavitis:

Definición 1.1 Un vector flecha es un segmento orientado (en el plano o en el espacio), donde uno de los
extremos es el origen y el otro el objetivo.

La definición fue retocada cuando unos años después Argand y Hamilton (siglo XIX) presentaron los números
complejos.

También en el siglo XIX Laguerre ya trabaja utilizando combinaciones lineales y define sistemas de ecuaciones
lineales y Cayley introduce la notación matricial, que permite la armonización y simplifición de las aplicaciones
lineales. Grassmann, basándose en el trabajo previo de Möbius, estudia objetos abstractos dotados de operaciones,
y presenta los conceptos de independencia lineal, dimensión y producto escalar, dejando la puerta abierta a lo que
hoy llamamos álgebras.

Pero fue Peano fue el primero en dar la definición moderna (que es la que veremos aquı́) de espacio vectorial en
1888. Esta definición moderna, permite trabajar con objetos más generales que los vectores flecha de Bellavitis. Desde
entonces, un desarrollo importante de los espacios vectoriales se debe a los trabajos de Lebesgue en la construcción
de espacios de funciones, formalizado más tarde por Banach y Hilbert en torno al año 1920. En aquel momento, el
álgebra y el nuevo campo del análisis funcional empezaron a interactuar, notablemente con conceptos clave como los
espacios de Hilbert.

Desde ese momento, los espacios vectoriales se convierten en una notación firmemente establecida y su uso se
extiende a muchas ramas de las matemáticas.

3
1.2. Conceptos básicos

Definición 1.2 Decimos que un conjunto G con una operación interna:

+ : G × G −→ G

es un grupo si se cumplen las 3 siguientes propiedades:


(1) La operación + cumple la propiedad asociativa, esto es:

∀a, b, c ∈ G (a + b) + c = a + (b + c) = a + b + c

(2) Existe un elemento neutro, esto es, ∃0 ∈ G tal que ∀a ∈ G:

a+0=0+a=a

(3) Todo elemento tiene un inverso, esto es, ∀a ∈ G, ∃(−x) ∈ G tal que:

x + (−x) = (−x) + x = 0

Si además:

(4) La operación + cumple la propiedad commutativa, esto es, ∀a, b ∈ G:

a+b=b+a

decimos que el grupo es abeliano o commutativo.

Definición 1.3 Decimos que un conjunto K con dos operaciones internas:

+, · : K × K −→ K

que llamaremos “suma” y “producto” respectivamente, es un cuerpo si:

(a) K con la operación + es un grupo abeliano cuyo neutro se denotará como 0, y el inverso de x respecto a
esta operación se denotará −x.
(b) K \ {0} con la operación · es un grupo abeliano, cuyo neutro se denotará por 1 y el el inverso de x respecto
de esta operación se dentará por x−1 ó x1 .

(c) + y · cumplen la propiedad distributiva siguiente:

a · (b + c) = (a · b) + (a · c)

Los ejemplos que nos son más conocidos son Q, R y C. Pero existen muchos más, algunos incluso de cardinal
finito de elementos, como por ejemplo los cuerpos finitos Fq con q una potencia de un número primo.

4
2. Espacios vectoriales

Definición 2.1 Sea K un cuerpo con las operaciones internas +, ·. Decimos que un conjunto V , dotado de
dos operaciones que también denotaremos:

+ : V × V −→ V

· : K × V −→ V
que llamaremos “suma” y “producto por escalares”, es un espacio vectorial sobre el cuerpo K si se
cumple:

(i) (V, +) es un grupo abeliano


(ii) Compatibilidad entre el producto del cuerpo y el producto por escalares:

∀a, b ∈ K, v ∈ V, a(bv) = (ab)v

(iii) El neutro del producto del cuerpo es el neutro del producto por escalares en el sentido siguiente:

∀v ∈ V, 1·v =v

(iv) Se cumple la propiedad distribuitiva siguiente:

∀a, b ∈ K, ∀v ∈ V, (a + b) · v = (a · v) + (b · v)

(v) Se cumple la propiedad distributiva siguiente:

∀a ∈ K, ∀v, w ∈ V, a · (v + w) = (a · v) + (a · w)

A los elementos de un espacio vectorial, se les suele llamar vectores, aunque sean objetos que no estén en
absoluto relacionados con los vectores flecha definidos por Bellavitis.

Aquı́ cometemos un pequeño abuso de notación (que es estándar entre los libros de referencia básica como
[1, 2, 3, 4]) al denotar de la misma manera a las operaciones en el cuerpo y a las del espacio vectorial, aunque esto
no deberı́a conllevar confusión en la discusión subsiguiente.
Como dijimos en la introducción histórica, este concepto es una estructura común a muchos espacios importantes
y variopintos en matemáticas. Veamos por ejemplo los dos siguientes casos:

Ejemplo 2.2 El plano euclı́deo R2 , esto es, el conjunto de puntos (x, y) donde x, y ∈ R con las operaciones:

(x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 )

λ · (x, y) = (λx, λy) (con λ ∈ R)


Es un espacio vectorial sobre R, que tiene una interpretación bien conocida en los cursos de educación secun-
daria: es el conjunto de “vectores flecha” que empiezan en el (0, 0) con las operaciones naturales de suma de
vectores y multiplicación de un escalar por un vector.

Ejemplo 2.3 Un ejemplo de espacio vectorial menos sencillo es el siguiente: el conjunto de funciones del
plano complejo al plano complejo
{f : C −→ C}
junto con las operaciones suma punto a punto de funciones y multiplicación de funciones por escalares punto
a punto, dadas por:
(f (x), g(x)) 7−→ f (x) + g(x)
(λ, f (x)) 7−→ λ · f (x)
para f (x), g(x) en el conjunto anterior y λ ∈ C es un espacio vectorial sobre C

5
3. Subespacios vectoriales
3.1. Definición

Definición 3.1 Sea (V, +, .) un espacio vectorial sobre un cuerpo K. Sea S un subconjunto de V . Decimos
que S es un subespacio vectorial de V si (S, +, .) es un espacio vectorial (las operaciones son las corres-
pondientes restricciones).

Veamos algunos ejemplos:

Ejemplo 3.2 Sea V un espacio vectorial cualquier. El conjunto que tiene como único elemento el elemento
neutro respecto de la suma, esto es, el conjunto {0}, siempre es un espacio vectorial.

Ejemplo 3.3 El conjunto de todos los polinomios es un subconjunto del espacio vectorial del ejemplo 2.3, ya
que la suma de polinomios es un polinomio, y lo mismo la multiplicación de polinomios por un escalar.

En la subsección siguiente veremos más ejemplos. Se tiene la siguiente caracterización útil de los subespacios
vectoriales:

Proposición 3.4 Sea V un espacio vectorial sobre un cuerpo K. Sea S un subconjunto de V . S es un subes-
pacio vectorial de V si y sólo si:
(i) S es cerrado con la suma, esto es, ∀u, v ∈ S, u + v ∈ S
(ii) S es cerrado respecto a la multiplicación por escalares, esto es, ∀λ ∈ R, ∀u ∈ S, λ · u ∈ S.

Demostración: Si S es un espacio vectorial se cumplen (i) y (ii) por definición. Para convencerse del recı́proco
basta ver que (S, +, ·) cumplen todas las propiedades porque + y · las cumplen en todo V .

3.2. Unión e intersección de subespacios vectoriales. Sumas de espacios vectoriales


La intersección de subespacios vectoriales, es de nuevo un subespacio vectorial:

Proposición 3.5 Sea V un espacio vectorial sobre un cuerpo K. Sea {Si }i∈I una familia (no necesariamente
finita) de subespacios vectoriales de V . La intersección de todos esos subespacios
\
S= Si
i∈I

es de nuevo un subespacio vectorial.

Demostración: Utilizamos la caracterización de los subespacios vectoriales dada en el resultado anterior.


T
(i) Sean u, v ∈ i∈I Si . Por definición eso quiere decir que ∀i ∈ I, u, v ∈ Si . Pero T como cada uno de los Si son
subespacios vectoriales, se tiene que ∀i ∈ I, u + v ∈ Si , y por lo tanto u + v ∈ i∈I Si .
T
(ii) Sean u ∈ i∈I Si , λ ∈ K. Por definición, eso quiere decir que ∀i ∈ I, u ∈ T Si . Pero como cada uno de los Si es
un subespacio vectorial, entonces ∀i ∈ I, λu ∈ Si y por lo tanto λ · u ∈ i∈I Si

No ocurre ası́ con la unión de subespacios. En general, si S1 y S2 son subespacios vectoriales de un mismo espacio
vectorial V sobre un cuerpo K, S1 ∪ S2 no tiene estructura de subespacio vectorial, como podemos ver en el siguiente
ejemplo:

Ejemplo 3.6 La unión de dos rectas en R2 que pasan por el origen (que puede verse que son subespacios
vectoriales de R2 ) no son un subespacio vectorial de R2 pues este conjunto no es cerrado con la suma.

En su lugar tenemos la noción de suma de subespacios vectoriales, que se formaliza del modo siguiente:

6
Definición 3.7 Sea V un espacio vectorial sobre un cuerpo K.

Sea {vi }i∈I ⊂ V , un conjunto (no necesariamente finito) de vectores o elementos de V . Se define el
espacio generado por dichos vectores como el conjunto de combinaciones lineales finitas de dichos
vectores, esto es: ( n )
X
Span({vi }i∈I ) = λn vin : n ∈ N, λn ∈ K, vin ∈ {vi }i∈I
k=1

Sea {Si }i∈I una colección (finita o infinita) de subespacios vectoriales de V . Se define el espacio suma
como: !
X [
Si = Span Si
i∈I i∈I

La suma de una cantidad finita de subespacios vectoriales S1 , . . . , Sn se suele denotar S1 + . . . + Sn

Si se cumple que los Si son disjuntos dos a dos hablamos de espacio suma directa y lo denotamos
por: !
M [
Si = Span Si
i∈I i∈I

o si estamos sumando una cantidad finita de subespacios S1 , . . . , Sn por S1 ⊕ . . . ⊕ Sn .

Puede verse que:

Proposición 3.8 El subespacio suma es un espacio vectorial. De hecho el subespacio suma de una familia
{Si }i∈I es el subespacio más pequeño de todos los subespacios vectoriales de V que contienen a todos los Si

Demostración: Sólo hay que ver que si C = ∪i∈I Si , entonces el subespacio suma es el subespacio vectorial:
\
C
C⊂S,S subespacio de V

4. Aplicaciones lineales
En Matemáticas, cuando se estudia una familia de objetos, es importante estudiar también las aplicaciones entre
ellos que se comportan bien “respetando” su estructura. Las aplicaciones naturales entre espacios vectoriales son las
aplicaciones lineales.

Definición 4.1 Sean (V, +, ·), (W, +, ·) (aunque las denotemos igual, como es tradicional en la bibliografı́a,
la suma y la multiplicación por escalares pueden ser operaciones muy diferentes en V y en W ) dos espacios
vectoriales sobre el mismo cuerpo K. Una aplicación:

f : V −→ W

decimos que es lineal si:


(i) Es un homomorfismo entre los grupos (V, +), (W, +):

∀v1 , v2 ∈ V, f (v1 + v2 ) = f (v1 ) + f (v2 )

(ii) Preserva el producto escalar:


∀α ∈ K ∀v ∈ V, f (αv) = αf (v)

7
Ejemplo 4.2 La aplicación f : R2 −→ R2 dada por:

f ((x, y)) = (−x, y)

que es la reflexión respecto del eje vertical en el plano euclı́deo es una aplicación lineal.

Si la aplicación lineal entre dos espacios vectoriales sobre el mismo cuerpo f : V −→ W es biyectiva, entonces su
inversa tambien es una aplicación lineal. En este caso, decimos que f es un isomorfismo y diremos que los espacios
V y W son isomorfos. Decir que dos espacios vectoriales son “indistinguible” como espacios vectoriales.
Nos será necesaria la siguiente propiedad:

Proposición 4.3 Sea una aplicación lineal entre dos espacios vectoriales sobre el mismo cuerpo f : V −→ W .
Entonces:

(i) Si S es un subespacio vectorial de V , f (S) lo es de W .


(ii) Si S 0 es un subespacio vectorial de W , f −1 (S 0 ) lo es de V .

En particular, los conjuntos:

ker(f ) = {v ∈ V : f (v) = 0} im(f ) = {w ∈ W : ∃v ∈ V tal que f (v) = w}

son siempre subespacios vectoriales de V y W respectivamente

La prueba es una consecuencia inmediata de la definición.

5. Espacios vectoriales cociente. Teoremas de isomorfı́a


No hay tiempo de repasar ahora los conceptos de relación de equivalencia, clase de equivalencia y conjunto
cociente. De manera que los asumiremos conocidos.

5.1. Espacios vectoriales cociente

Definición 5.1 Sea S un subespacio vectorial de un espacio vectorial V sobre K. El conjunto:

V /S = {[v] : v ∈ V }

donde:
[v] = {w ∈ V : v − w ∈ S}
junto con las operaciones:
[v] + [w] = [v + w]
y:
λ · [v] = [λ · v]
se conoce como el espacio cociente.

Nótese que, como pasa siempre en conjuntos cociente, puede ocurrir [v] = [w] con v 6= w, lo que es incómodo para
trabajar.
No es trivial que la operación suma y producto por escalares arriba propuestos estén bien definidos, pero efec-
tivamente es ası́. También puede probarse aunque no lo haremos, que el espacio arriba definicdo, es un espacio
vectorial.

5.2. Teoremas de isomorfı́a


Los teoremas de isomorfı́a permiten interpretar los espacios cocientes de manera más manejable en algunas
ocasiones.

8
Sean V, W espacios vectoriales sobre el mismo cuerpo K.

PRIMER TEOREMA DE ISOMORFÍA Sea f : V −→ W una aplicación lineal. Entonces existe


una único isomorfismo:
ϕ : V /ker(f ) −→ im(f )

que hace que el siguiente diagrama conmute:

V
f
/ Im(f ) ⊂ W
7
ϕ
π

V /ker(f )

Este teorema tiene muchas aplicaciones (en particular, participa en la demostración de los otros). Pero
además, permite una interpretación muy interesante de los espacios cociente como variedades lineales
(interpretación geométrica podrı́amos decir), como veremos más adelante.
SEGUNDO TEOREMA DE ISOMORÍA Sean S1 y S2 dos subespacios vectoriales de un espacio
vectorial V . Existe un isomorfismo:

ϕ : (U + W )/U −→ W/(U ∩ W )

TERCER TEOREMA DE ISOMORÍA Sea S subespacio de V y T subespacio de S. Entonces


existe un isomorfismo natural:
ϕ : (V /T )/(S/T ) −→ (V /S)

Sólo probaremos aquı́ el Primer Teorema, porque es el más utilizado y porque los otros dos son corolarios del
primero:
Demostración: Tenemos que construir ese isomorfismo ϕ. Va a estar definido por:

ϕ([u]) = f (u)

Tenemos que comrobar que:

Está bien definido, y la definición no depende del representante, esto es, si u 6= v pero [u] = [v] se tiene
ϕ([u]) = ϕ([v]).

Esta aplicación es inyectiva.

Esta aplicación es sobreyectiva.

Esta aplicación es lineal.

Omitimos los detalles.




6. Independencia Lineal, Bases y Dimensión


Gracias al concepto de independencia lineal, podemos definir el concepto de base de un espacio vectorial, que
generaliza la idea que tenemos para el plano y para el espacio de “expresar un vector en coordenadas”.
Por otro lado, la dimensión es un invariante de los espacios topológicos muy relacionado con el concepto de base.

6.1. Dependencia e independencia lineal

Definición 6.1 Sea V un espacio vectorial sobre un cuerpo K. Decimos que v ∈ V es combinación lineal
de los vectores u1 , . . . , un si existen λ1 , . . . , λn ∈ K tales que:

v = λ1 u1 + . . . + λn un

9
Definición 6.2 Un conjunto de vectores {u1 , . . . , un } decimos que es linealmente independiente, si no
existe ningún ui que sea combinación lineal de los restantes vectores

Equivalentemente, existe una definición alternativa:

Proposición 6.3 Un conjunto de vectores:

{u1 , . . . , un }

es linealmente independiente si los únicos λ1 , . . . , λn que satisfacen:

λ1 u1 + . . . + λn un = 0

son λ1 = . . . = λn = 0.

El siguente resultado es muy importante:

Proposición 6.4 Se V un espacio vectorial sobre un cuerpo K. Si tenemos un conjunto de vectores linalmente
independiente y tenemos otro vector v que es combinación lineal de los vectores anteriores, la combinación
lineal es única.

6.2. Bases y Dimensión

Definición 6.5 Sea V un espacio vectorial sobre K. Un conjunto B = {v1 , . . . , vn } decimos que es una base
de V si:

(i) V está generado por los vectores de B, esto es:

V = Span(B)

(ii) B es un conjunto linealmente independiente

Y lo más importante que nos ofrecen las bases es:

Proposición 6.6 Sea V un espacio vectorial sobre un cuerpo K y sea B una base. Entonces cada vector de
V tiene una única representación como combinación lineal de vectores de V .
En otras palabras, cualquier vector de V se puede expresar “en coordenadas” de manera única sobre los
vectores de B.

Un espacio vectorial V sobre un cuerpo K, decimos que es finitamente generado si existe un conjunto finito
de vectores v1 , . . . , vn tales que ∀v ∈ V , existen unos λ1 , . . . , λn ∈ K que cumplen:

v = λ1 v1 + . . . + λn vn

Es más cómodo trabajar con bases en espacios finitamente generados, porque tenemos:

Proposición 6.7 Sea V un espacio vectorial sobre K finitamente generado. Entonces:

V tiene una base


(Teorema de la base) Si B1 , B2 son bases de B, entonces tienen el mismo cardinal (finito). A este
número le llamamamos la dimensión de V sobre K.

Demostración: Sea V finitamente generado por unos vectores {v1 , . . . , vn }:

Si todos los vectores son linealmente independientes, hemos terminado. Si no lo son, alguno de ellos debe ser
combinacion lineal de los demás. Lo quitamos y genemos un nuevo conjunto de k − 1 vectores. Aplicamos de
nuevo este proceso.

10
Sea B2 sin perdida de generalidad la base que tiene más vectores. Todos los vectores de B2 son combinación lineal
de los vectores de B1 . Resolviendo un sistema de ecuaciones lineales, podemos comprobar que los elementos de
B2 no son linealmente independientes. Omitimos los detalles.

Tenemos dos corolarios importantes:

Corolario 6.8 Dos espacios vectoriales finitamente generados sobre el mismo cuerpo K son isomorfos si y
solo si tienen la misma dimensión.

Demostración: Si dos espacios tiene la misma dimensión, existe una biyección entre sus bases.

Una aplicación lineal entre dos espacios vectoriales, ambos con una bases, queda determinada por las imágenes
de los elementos de la base del primero. Basta mandar cada elemento de la base del primero a un elemento de la
segunda base utilizando la biyección.

Esta aplicación es un isomorfismo.




Corolario 6.9 (Fórmula de Grassman) Sean S1 , S2 subespacios de un espacio vectorial V , entonces:

dim(S1 + S2 ) + dim(S1 ∩ S2 ) = dim(S1 ) + dim(S2 )

Demostración: La demostración consiste en encontrar dos bases de S1 y S2 que intersequen en la base de S1 ∩S2 .
Lo demás es automático, ya que por construcción, la base del espacio suma S1 + S2 es la unión de las bases de S1 y
S2 .


Para los espacios vectoriales que no sean finitamente generados, también tenemos la existencia de una base, y
también tenemos un resultado análogo al teorema de la base que asegura que si un mismo espacio tiene dos bases,
estas tienen la misma cardinalidad. Pero la demostración es más sofisticada (utiliza el lema de Zorn), aunque no
mucho más complicada (sigue ideas parecidas). Estas bases cuya existencia está probada de manera teórica, no
pueden ser calculadas de manera explı́cita y son por tanto inmanejables en la práctica. Usando estructura topológica,
una alternativa en este caso son las bases de Schauder, aunque no podemos tratarlas aquı́.

6.3. Bases y aplicaciones lineales


Este apartado esta dedicado exclusivamente a espacios vectoriales de dimensión finita.

Proposición 6.10 Sean V, W dos espacios vectoriales dedimensiones n, m sobre K con bases BV , BW . Sea
una aplicación lineal:
f : V −→ W

Conociendo la imágen de los vectores de Bv , conocemos f (v), ∀v ∈ V .


Identificando como dijimos en ?? un punto de V se puede identificar con sus coordenas (x1 , . . . , xn ) en
la base de V (esto es, con un elemento de Kn ) y un punto en W con sus coordenadas (y1 , . . . , yn ) en
la base de W (esto es con un elemento de Km ). Usando el punto anterior, esto permite expresar f con
una matriz:     
a11 . . . a1n x1 y1
 .. ..   ..  =  .. 
 . .  .   . 
am1 ... amn xn ym

La aplicación lineal f es un isomorfismo de espacios vectoriales si y solo si el conjunto f (B) (que son
las columnas de la matriz) es una base de W .

Omitimos los detalles.

11
7. Variedades Lineales
Definición 7.1 S es una variedad lineal en Rn si es el conjunto de soluciones de un sistema lineal del tipo:
   
x1 a1
Mkn  ...  =  ... 
   

xn an

donde Mkn es una matriz k × n.

Se tiene lo siguiente:

Proposición 7.2 Las variedades lineales de V son del tipo:

v+S

con v ∈ V y S subespacio vectorial de V .

Demostración: El conjunto de soluciones de:


   
x1 a1
 ..   .. 
Mkn  .  =  . 
xn an

es del tipo:
v+S
donde v es un vector columna solución del sistema anterior y S es el subespacio vectorial de soluciones del siguiente
sistema (es un espacio vectorial porque es el núcleo de una aplicación lineal):
   
x1 0
 ..   .. 
Mkn  .  =  . 
xn 0

Los casos más sencillos son los ya estudiandos de rectas y planos que pasan por el origen.

Ejemplo 7.3 Las rectas que pasan por el origen en R2 son los puntos (x, y) que pueden escribirse como
solución de una ecuación de la forma:    
x 0
[a, b] =
y 0
donde o bien a o b son distintos de 0.

Ejemplo 7.4 Las rectas que pasan por el origen en R3 son los puntos (x, y, z) que pueden escribirse como
solución de una ecuación de la forma:    
  x 0
a b c    
y = 0
d e f
z 0
donde esa matriz debe tener rango 2.
Por otro lado, un plano en R3 se describe como el conjunto de soluciones de una ecuación de la forma:
   
  x 0
a b c y  = 0
z 0

donde o bien a o b o c son distintos de 0.

12
Las soluciones de un sistema de la forma:
   
x1 0
   .  .
a1 ... an  ..  =  .. 
xn 0

forman una variedad lineal conocida como hiperplano.


Es esta interpretación geométrica de los subespacios vectoriales lo que justifica el termino de variedades. El
término “variedad lineal” sugiere la existencia de otro tipo de variedades. Efectivamente, las variedades lineales son
un ejemplo de variedad algebraica, que se define como el conjunto de puntos del plano que satisface una determinada
ecuación polinómica. Existe toda una rama activa de investigación en matemáticas en este sentido: la geometrı́a
algebraica. También las variedades lineales son un ejemplo de variedad diferenciable en el sentido de la geometrı́a
diferencial. No daremos la definición aquı́ porque involucra conceptos de topologı́a que se alejan de nuestros objetivos.

8. Espacios Vectoriales con Estructura Extra


Para concluir, tenemos que hacer un último comentario. Muchos de los ejemplos espacio vectorial “interesantes”
tienen mas estructura a parte de la de espacio vectorial. Querı́amos citar algunos de ellos:

Definición 8.1 Sea V un espacio vectorial.

Si V y K tienen una topologı́a (se suele pedir que sea Hausdorff ) tal que la aplicación suma y la aplicación
producto por escalares son continuas (considerando las topologı́as producto), decimos que V es un espacio
vectorial topológico.
Si V es un espacio vectorial sobre R o C tiene un producto escalar (no tenemos tiempo de recordar la
definición) decimos que es pre-Hilbert. Si en la norma inducida por el producto escalar, dicho espacio
es completo, entonces decimos que V es un espacio de Hilbert.

Los espacios vectoriales topológicos, como ya citamos antes, tienen un buen comportamiento, porque al poder
hablar de convergencia, podemos permitir “combinaciones lineales infinitas” y esto permite trabajar con bases más
manejables (bases de Schauder). Son útiles en muchas ramas de las Matemáticas. Entre otras cosas, cumpliendo
alguna condición extra, permiten hacer cálculo diferencial en un contexto de dimensión infinita.
Por su parte, los espacios de Hilbert, como el propio Rn y muchos espacios de funciones tienen también propiedades
y aplicaciones iteresantes, como la existencia de bases ortonormales, los desarrollos en serie de Fourier y el método
de mı́nimos cuadrados.

Referencias
[1] M. Castellet y I. Llerena. Álgebra lineal y Geometrı́a. Reverté, 1996.

[2] E. Hernández Rodriguez, M. J. Vázquez Gallo y M. A. Zurro Moro Algebra Lineal y Geometrı́a. Ed. Pearson
Educación, 2012.
[3] L. Merino y E. Santos Álgebra lineal con métodos elementales. Thompson, 2006.
[4] C. D. Meyer. Matrix Analysis and Applied Linear Algebra. Siam, 2000.

13

Вам также может понравиться