Вы находитесь на странице: 1из 22

CAPÍTULO II

§ 5 El grupo ortogonal
Desde el punto de vista afı́n, no existen discriminaciones entre el sistema
de referencia canónico y otro sistema de referencia arbitrario. Ello se debe
a que uno puede transformarse en otro por medio de una afinidad. Esto
significa, hablando en términos intuitivos, que la geometrı́a afı́n no percibe
que haya distintas escalas de medir en los diferentes ejes coordenados, o si
estos son perpendiculares o forman cualquier otro ángulo (siempre no nulo).
Las transformaciones del grupo afı́n permanecen indiferentes a todas esas
propiedades que involucran medidas numéricas, ya sean de longitudes o de
ángulos. Por eso ha llegado el momento de introducir conceptos métricos en
nuestros espacios afines Rn .

Figura II.17

2
Comencemos definiendo el módulo de un vector. Para ello nos inspirare-
mos en la noción que de ello poseen los fı́sicos. En el espacio R de dimensión
1, donde los vectores coinciden con los números y se representan como una
flecha que parte del origen, es claro que el módulo debe coincidir con el va-
lor absoluto. Ası́, dado un real (vector unidimensional) u, su módulo serı́a
el valor absoluto |u| de u, o, escrito de una manera algo más enrevesada,

u2 . Elevar al cuadrado y extraer la raı́z cuadrada no es más que un pro-
cedimiento algebraico para hallar el valor absoluto de un número real. En
dimensiones 2 y 3 el teorema de Pitágoras proporciona una fórmula para el
cálculo de la longitud de un vector u, ilustrada en la figura II.17. En con-
p
creto, si u = (x, y) ∈ R2 entonces su longitud es x2 + y 2 , mientras que
p
si u = (x, y, z) ∈ R3 , entonces su longitud será x2 + y 2 + z 2 . De ahı́ que
resulte natural la siguiente
Definición II.8 Se define el módulo de un vector u = (x1 , x2 , . . . , xn ) ∈
Rn como el real no negativo kuk dado por la expresión

kuk2 = x21 + x22 + . . . + x2n .

Podemos concebir entonces la aplicación

k · k : Rn → R,

que a cada vector u le asocia su módulo kuk, cuyas propiedades básicas quedan
reflejadas en el siguiente
Teorema II.7
i) kuk ≥ 0 para cada vector u, y kuk = 0 si y solo si u es el vector 0.
ii) Para cada vector u, se tiene que

kuk = k − uk.

iii) (Desigualdad triangular) Si u y v son dos vectores de Rn , entonces

ku + vk ≤ kuk + kvk,

3
y la igualdad se satisface si y solo si u = αv para algún escalar α > 0.
Las dos primeras aseveraciones son evidentes. La tercera se desprende de
un hecho bien conocido de la geometrı́a elemental: en un triángulo, un lado
siempre es menor o igual que la suma de los otros dos (figura II.18). De ahı́
el adjetivo triangular aplicado a la desigualdad.

Figura II.18
Recuérdese que en el espacio afı́n Rn , el vector AB de origen A y extremo
B es aquél que sumado con el vector de posición de A da el vector de posición
de B. Por consiguiente, nada más natural que definir la distancia d(A, B)
entre A y B como el módulo del vector AB, o sea,

d(A, B) = kABk.

Si A = (a1 , a2 , . . . , an ) y B = (b1 , b2 , . . . , bn ), entonces

p
d(A, B) = kABk = kB − Ak = (b1 − a1 )2 + (b2 − a2 )2 + . . . (bn − an )2 .

Los enunciados i), ii) y iii) del teorema II.7 se traducen ahora en términos de
distancias en las siguientes propiedades:
i) d(A, B) ≥ 0 para cualesquiera puntos A y B de Rn , y d(A, B) = 0 si y
solo si A = B.
ii) d(A, B) = d(B, A), para cada par A, B ∈ Rn .
iii) d(A, B)+d(B, C) ≤ d(A, C), y la igualdad se produce solo si C pertenece
al segmento de extremos A y B.

4
Matemáticamente, que C pertenezca al segmento de extremos A y B
se expresa afirmando la existencia de un escalar α tal que 0 ≤ α ≤ 1 y
C = αA + (1 − α)B (véase la figura II.19). Es lı́cito operar con los puntos
A y B, multiplicándolos por los respectivos escalares α y 1 − α y sumar los
resultados, pues en ellos subyace la doble naturaleza puntos-vectores.

Figura II.19

En lenguaje coloquial, el enunciado iii) viene a decir que la distancia más


corta entre dos puntos es la lı́nea recta, o sea, que si uno se desplaza de A
a C pasando por B, se recorre más distancia que viajando directamente a
C (Véase la figura II.20). Si se hace notar esta verdad, aparentemente de
Perogrullo, es porque se verá más adelante que, en relatividad especial, esta
situación puede variar de forma sustancial.

Hay que recordar ahora otra noción muy emparentada con la de módulo
de un vector: el producto escalar de vectores. Dados dos vectores u =
(x1 , x2 , . . . , xn ) y v = (y1 , y2 , . . . , yn ) de Rn , en la enseñanza secundaria se
describı́a el producto escalar u · v como el número real dado por

u · v = x1 y1 + x2 y2 + . . . + xn yn .

5
Figura II.20
La estrecha relación entre el producto escalar y el módulo se pone de
manifiesto en la igualdad
u · u = kuk2 ,

es decir, que si ése hubiera sido nuestro gusto y se hubiese optado por la
estrategia de economizar ideas, habrı́amos comenzado definiendo el producto
escalar de vectores e introduciendo después el concepto de módulo de un
vector mediante

kuk = u · u.

Lo curioso del asunto es que también nos está permitido operar a la


inversa, en concreto, recuperar la noción de producto escalar a partir de la
de módulo. En efecto, aunque realicemos este razonamiento en dimensión 2,
el lector imaginará cómo proceder en otras dimensiones. Dados dos vectores
u1 = (x1 , y1 ) y u2 = (x2 , y2 ) de R2 , se tiene

ku1 + u2 k2 − ku1 k2 − ku2 k2 =

((x1 + x2 )2 + (y1 + y2 )2 ) − (x21 + y12 ) − (x22 + y22 ) =

= x21 + 2x1 x2 + x22 + y12 + 2y1 y2 + y22 − x21 − y12 − x22 − y22 =

2(x1 x2 + y1 y2 ) = 2u · v.

6
En definitiva, que el producto escalar se recupera a partir del módulo por la
fórmula
1
u1 · u2 = (ku1 + u2 k2 − ku1 k2 − ku2 k2 ).
2
Si nos hemos detenido en este particular es porque en relatividad especial
habrá también algo parecido a un módulo y algo parecido a un producto
escalar, y entre ambos conceptos se establecerán vı́nculos semejantes a los
que acabamos de observar.
Otras propiedades conocidas sobre el módulo y el producto escalar se
sumarizan en el siguiente
Teorema II.8
i) Para cualesquiera vectores u, v y w de Rn y cualesquiera escalares α y
β, se tiene que

(αu + βv) · w = α(u · w) + β(u · w) y u · (αv + βw) = α(u · v) + β(u · w).

ii) El producto escalar es simétrico, es decir, u · v = v · u, cualesquiera que


sean u, v ∈ Rn .
iii) (Desigualdad de Cauchy-Schwarz) Dados los vectores u y v de Rn ,
se tiene
|u · v| ≤ kuk kvk,

y la igualdad se satisface si y solo si u y v son proporcionales.


El enunciado i) se resume diciendo que el producto escalar es bilineal.
Conviene aclarar el origen del término. Fijado un vector w de Rn , la aplicación
a 7→ a · w que a cada vector a ∈ Rn le asocia el escalar a · w es, según afirma
i), lineal. Igual sucede, escogido un u ∈ Rn , con la aplicación a 7→ u · a. Por
eso el producto escalar es lineal en cada componente (bilineal).
Demostración Solo nos detendremos en la desigualdad de Cauchy-
Schwarz. Se partirá de la desigualdad triangular,

ku + vk ≤ kuk + kvk,

7
satisfecha para cualesquiera vectores u y v de Rn . Como el módulo de un
vector siempre es una cantidad no negativa, la desigualdad se mantendrá si
elevamos al cuadrado ambos miembros, por lo que

(1) ku + vk2 ≤ (kuk + kvk)2 = kuk2 + 2kuk kvk + kvk2 .

Ahora bien,

(2) ku + vk2 = (u + v) · (u + v) = u · u + u · v + v · u + v · v =

kuk2 + 2(u · v) + kvk2 ,

donde se ha aplicado la bilinealidad y la simetrı́a del producto escalar. Y


combinando (1) y (2), se escribe

(3) u · v ≤ kuk kvk.

Si se obrara de la misma forma, pero partiendo de la desigualdad

ku − vk ≤ kuk + k − vk = kuk + kvk,

se llegarı́a a

(4) −(u · v) ≤ kuk kvk.

De (3) y (4) se obtiene

(5) −kuk kvk ≤ u · v ≤ kuk kvk,

en definitiva,
|u · v| ≤ kuk kvk.

Además, tal como se ha deducido la desigualdad de Cauchy-Schwarz, es


obvio que |u · v| = kuk kvk si y solo si ku ± vk = kuk + kvk, igualdad que
equivalı́a a la proporcionalidad entre u y v (teorema II.7.iii).

8
La desigualdad de Cauchy-Schwarz juega un papel importante en álgebra
lineal, geometrı́a y análisis matemático. No solo constituye una herramienta
muy útil en los razonamientos, sino que de ella se desprenden interesantes
resultados. Por ejemplo, si u y v son vectores no nulos de Rn y dividimos los
tres miembros de (5) por kuk kvk, entonces

u·v
−1 ≤ ≤ 1.
kuk kvk

Que el número real (u·v)/(kuk kvk) se mantenga siempre entre −1 y 1 sugiere


que sea el coseno de algún ángulo. Recuérdese que, cualquiera que sea el valor
del ángulo x, tanto sen x como cos x son cantidades entre −1 y 1. De ahı́ que
se defina el ángulo entre los vectores no nulos u y v como el único α entre 0
y π (o entre 0o y 180o si se prefiere medir en grados en lugar de en radianes)
tal que
u·v
cos α = .
kuk kvk

Escrita la igualdad de arriba de otra forma, surge la expresión tan familiar


para la fı́sica
u · v = kuk kvk cos α.

Figura II.21
¿Y por qué se decide uno por el coseno y no por el seno? Pues porque
esta definición de ángulo entre vectores casa bien con un conocido resultado
de la geometrı́a elemental, el llamado teorema del coseno : En un triángulo

9
de lados a, b y c (figura II.21), se tiene que

a2 = b2 + c2 − 2bc cos A.

En efecto, para vectores u y v no proporcionales de Rn y circunscribiendo el


argumento al plano vectorial < u, v > que ellos engendran, se tendrı́a

ku − vk2 = (u − v) · (u − v) = u · u − 2(u · v) + v · v =

kuk2 − 2kuk kvk cos α + kvk2 ,

igualdad esta que encaja a la perfección con el teorema del coseno. Por otro
lado, los vectores no nulos u y v son proporcionales si y solo si u·v = ±kuk kvk,
lo que equivale a que cos α = ±1 y α sea 0 o un ángulo llano. Para recordar
algo más acerca del teorema del coseno, pinche aquı́.
Las disquisiciones realizadas hasta ahora en esta sección tienen como
objetivo dejar patente que los conceptos métricos introducidos en los espacios
Rn , tanto longitudes de vectores como distancias de puntos como ángulos
entre vectores, pueden expresarse todos ellos en función del producto escalar.
Por el momento se dispone de un método de cálculo del producto escalar
de dos vectores conocidas sus coordenadas en la base canónica. Conviene
también saber cómo hallar ese producto si los factores vienen dados por sus
coordenadas en otra base. Sea (u1 , u2 , . . . , un ) una base de Rn . Para cuales-
quiera ui y uj , denotemos por aij al producto escalar ui ·uj . Pues bien, a con-
tinuación se verá que es suficiente con proporcionar estos datos, los aij , para
resolver el problema. Aunque, por simplicidad, se argumentará en dimensión
2, el lector deberá sospechar cómo se generaliza a dimensión arbitraria.
Tomemos entonces una base (u1 , u2 ) del plano R2 de la que se conocen
los productos escalares

a11 = u1 · u1 , a12 = u1 · u2 ,
a21 = u2 · u1 , y a22 = u2 · u2 .

Sean a y b vectores del plano con respectivas coordenadas (a1 , a2 ) y (b1 , b2 )


en la base (u1 , u2 ). Esto quiere decir que a = a1 u1 + a2 u2 y b = b1 u1 + b2 u2 .

10
Entonces
a · b = (a1 u1 + a2 u2 ) · (b1 u1 + b2 u2 ) =

= a1 b1 (u1 · u1 ) + a1 b2 (u1 · u2 ) + a2 b1 (u2 · u1 ) + a2 b2 (u2 · u2 ) =

= a1 b1 a11 + a1 b2 a12 + a2 b1 a21 + a2 b2 a22 =

= (a1 a11 + a2 a21 )b1 + (a1 a12 + a2 a22 )b2 =

 
b1
= ( a1 a11 + a2 a21 a1 a12 + a2 a22 ) =
b2

  
a11 a12 b1
= ( a1 a2 ) .
a21 a22 b2
E igual sucede en cualquier dimensión, esto es, si u y v representan a los
respectivos vectores fila de coordenadas de dos vectores a y b de Rn respecto
de una base (u1 , u2 , . . . , un ), y se denota por A a la matriz (aij ) integrada por
los productos escalares aij = ui · uj (i, j ∈ {1, 2 . . . , n}), entonces el producto
escalar de a por b viene dado por la expresión

a · b = uAv t .

Nótese que la matriz A es simétrica, es decir, A = At , puesto que


aij = ui · uj = uj · ui = aji . Ciertas matrices n × n adquieren ahora un nuevo
uso. Aparte de representar cambios de base o automorfismos cuando su de-
terminante no se anula, también cabe la posibilidad de interpretarlas como la
matriz del producto escalar de Rn en una base distinta de la canónica. Ahora
bien, al igual que entonces, no cualquier matriz n × n sirve para ello. En
principio, han de ser simétricas, pero este es un problema que no se abordará
aquı́ en toda su generalidad. Un mı́nimo esfuerzo permite ahora relacionar
las matrices del producto escalar en dos bases diferentes.

11
Tómense dos bases (u1 , u2 , . . . , un ) y (v1 , v2 , . . . , vn ) de Rn . Sea y = xP
la ecuación del cambio de base que proporciona las coordenadas y de un
vector en la base de los ui , conocidas las coordenadas x del mismo vector en
la base de los vi . Llamemos A = (aij ) y B = (bij ) a las respectivas matrices
del producto escalar en sendas bases, esto es, aij = ui · uj y bij = vi · vj
(i, j ∈ {1, 2, . . . , n}). Para vectores a y a0 con coordenadas x y x0 en la base
de los ui , se tendrá
a · a0 = xA(x0 )t .

Pero si se desea hallar su producto escalar utilizando las coordenadas de los


mismos vectores en la base de los vi , habrá primero que recurrir a la ecuación
del cambio y
a · a0 = (xP )A(x0 P )t = x(P AP t )(x0 )t ,

donde se ha utilizado que la traspuesta de un producto de matrices coincide


con el producto de las traspuestas en orden inverso. El argumento anterior
conduce al
Teorema II.9 Si A es la matriz del producto escalar en una base de Rn ,
B la matriz del mismo producto escalar en una segunda base y P la matriz
no singular del cambio de la primera base a la segunda, entonces

B = P AP t .

Quizás convenga, antes de proseguir, ilustrar la situación con un ejemplo


sencillo. Sean u1 = (−2, 1) y u2 = (0, 3) dos vectores de R2 . Entonces

u1 · u1 = 5, u1 · u2 = 3 y u2 · u2 = 9,

lo que da una matriz  


5 3
A=
3 9
para el producto escalar en la base (u1 , u2 ). Tomemos ahora v1 = (−2, 4) y
v2 = (−2, −2). En la base (v1 , v2 ), la matriz B del producto escalar será
 
20 −4
B= .
−4 8

12
Como v1 = u1 + u2 y v2 = u1 − u2 , la matriz P del cambio de base es
 
1 1
P = .
1 −1

El lector deberı́a de comprobar como ejercicio que la matriz B del producto


escalar en la base (v1 , v2 ) es B = P AP t .
Es fácil ver cuál es la matriz del producto escalar en la base canónica
(e1 , e2 , . . . , en ). Por un lado ei · ei = 1 y, por otro, ei · ej = 0 si i 6= j.
Por consiguiente, en la matriz (aij ) del producto escalar en la base canónica
figurarán unos si i = j y ceros si i 6= j. Esta ya es una matriz conocida, es la
matriz unidad I. Ası́, en la base canónica, donde el vector fila de coordenadas
de un vector dado como una n-upla es la propia n-upla, se tendrá

a · b = aIbt = abt .

Ahora bien, la base canónica no es la única con la propiedad de que


la matriz del producto escalar en ella es la matriz unidad. Por ejemplo, si
√ √
tomamos en R2 la base (u1 , u2 ) con u1 = ( 12 , 3
2 ) y u2 = ( 3 1
2 , − 2 ), entonces
 2  √  2
1 3 1 3
u1 · u1 = + = + = 1.
2 2 4 4

Cálculos semejantes conducen a u1 · u2 = 0 y u2 · u2 = 1, con lo que la matriz


del producto escalar en esta base también es la matriz unidad I.
Definición II.9 A un vector u se le llamará unitario si kuk = 1. De
dos vectores u y v de Rn se dirá que son ortogonales si u · v = 0. Por base
ortogonal se entenderá a aquella constituida por vectores ortogonales dos a
dos. A una base ortogonal integrada por vectores unitarios se la denominará
base ortonormal.
Tanto la base canónica como la base (u1 , u2 ) del ejemplo precedente son
bases ortonormales.
De la definición se deduce que la matriz del producto escalar referido
a una base ortonormal no es sino la matriz unidad I. Supóngase entonces

13
que P es la matriz de cambio de una base ortonormal a la base canónica de
Rn . El teorema II.9 da I = P IP t y, multiplicando ambos miembros por la
inversa de P a la izquierda, resulta que la matriz inversa de P es la tras-
puesta (P −1 = P t ). Las matrices que satisfacen esta curiosa propiedad, la de
coincidir su traspuesta con su inversa, se conocen como matrices ortogonales.
Tomando determinantes en la igualdad anterior y aplicando las propiedades
de los determinantes del teorema II.3 se tiene

1 = |I| = |P IP t | = |P | |I| |P t | = |P | |P | = |P |2 ,

luego las matrices ortogonales poseen determinante 1 ó −1. ( figura II.22).

Figura II.22
Teorema II.10 Si S es un subconjunto no vacı́o de un espacio Rn ,
entonces el conjunto

S ⊥ = {v ∈ Rn : v · u = 0, para todo u ∈ S}

de los vectores que son ortogonales a todos los de S, es un subespacio. Si,


además, S es un subespacio de Rn , entonces se tiene la suma directa

Rn = S + S ⊥ .

14
Cuando S es un subespacio, a S ⊥ se le denomina el subespacio ortogonal
a S, y de la suma S + S ⊥ se dice que es ortogonal-directa.
Demostración El subconjunto S ⊥ es no vacı́o pues contiene al menos al
vector nulo (0 · u = 0 para cada u ∈ S). Tómense ahora vectores u y v en S ⊥ ,
escalares α y β y un vector arbitrario w de S. Se sabe que u · w = 0 = v · w,
pues u, v ∈ S ⊥ . Entonces

(αu + βv) · w = α(u · w) + β(v · w) = 0 + 0 = 0,

y cualquier combinación lineal de vectores de S ⊥ pertenece a S ⊥ , es decir,


S ⊥ constituye un subespacio de Rn .
La segunda parte del teorema afirma que la suma S + S ⊥ es directa.
Recuérdese que ello decir que S ∩ S ⊥ = 0 y S + S ⊥ = Rn . La primera
condición es fácilmente comprobable. En efecto, si u ∈ S ∩ S ⊥ , entonces
u serı́a ortogonal a sı́ mismo y 0 = u · u = kuk2 , de donde u = 0 (Se ha
utilizado el apartado i) del teorema II.7). Por simplicidad, no se expondrá
aquı́ con detalle la demostración de la segunda igualdad, sino que se ilustrará
con un ejemplo. Supóngase que S es el subespacio de R4 engendrado por los
vectores u1 = (1, −2, 0, 1) y u2 = (0, −1, −1, 2). ¿Será verdad que un vector
u = (x1 , x2 , x3 , x4 ) pertenece a S ⊥ si y solo si u · u1 = 0 = u · u2 ? Una de
las dos implicaciones es trivial ya que si u ∈ S ⊥ , entonces u será ortogonal a
todo vector de S, en particular, a u1 y u2 . Y el recı́proco también es cierto,
por que si u fuese ortogonal a u1 y u2 , también lo serı́a a cada combinación
lineal de u1 y u2 , esto es, a todo vector de S. Se deduce entonces que u ∈ S ⊥
si y solo si
 
x1 − 2x2 + x4 = 0 = u · u1
,
− x2 − x3 + 2x4 = 0 = u · u2

lo que plantea un sistema homogéneo de dos ecuaciones lineales en cuatro


incógnitas. Dando a x3 el valor λ y a x4 el valor µ, se obtiene

x2 = −λ + µ y x1 = 2x2 − x4 = 2(−λ + µ) − µ = −2λ + µ.

15
Ası́, todo vector u de S ⊥ puede escribirse en la forma

(−2λ + µ, −λ + µ, λ, µ) = λ(−2, −1, 1, 0) + µ(3, 2, 0, 1),

y S ⊥ no es sino el subespacio < u3 , u4 > engendrado por los vectores u3 =


(−2, −1, 1, 0) y u4 = (3, 2, 0, 1). La comprobación rutinaria de que el deter-
minante
1 −2 0 1

0 −1 −1 2

−2 −1 1 0

3 2 0 1

es no nulo, lleva a la conclusión de que (u1 , u2 , u3 , u4 ) constituye una base de


R4 . Dicho de otra forma, R4 = S+S ⊥ , pues S =< u1 , u2 > y S ⊥ =< u3 , u4 >.

Figura II.23
En dimensión 3, por ejemplo, el ortogonal a una recta vectorial será un
plano, mientras que en dimensión 2, el ortogonal a una recta es otra recta.
(Véase figura II.23.)
Ha llegado el momento de introducir las transformaciones que jugarán
aquı́ un papel equivalente al de los automorfismos en los espacios vectoriales
o las afinidades en los espacios afines.
Definición II.10 Una isometrı́a es una aplicación f : Rn → Rn que
satisface:

16
i) f es biyectiva (véase la definición II.1).
ii) f es lineal.
iii) f conserva los productos escalares, esto es,

f (u) · f (v) = u · v,

para cualesquiera vectores u y v de Rn .


En realidad, las condiciones impuestas son superabundantes en el sentido
de que puede demostrarse que iii) implica i) y ii). Y también se prueba que
el conjunto de todas las isometrı́as de Rn es un grupo, denominado el grupo
ortogonal y al que se denotará por On . Asociada al grupo ortogonal surge,
según el modelo de Erlangen, la geometrı́a euclı́dea, la cual se ocupa de todos
los conceptos invariantes por isometrı́as.
Puesto que una isometrı́a f ∈ On es, en particular, un automorfismo,
quedará totalmente descrita por una ecuación del tipo f ≡ y = xA, con
A una matriz no singular. Sin embargo, el hecho de conservar productos
escalares dota a A de ciertas caracterı́sticas que nos proponemos estudiar.
Por lo pronto, si f conserva productos escalares, debe también conservar
módulos ya que

kf (u)k2 = f (u) · f (u) = u · u = kuk2 .

Ası́ mismo, f transformará vectores ortogonales en vectores ortogonales ya


que si u · v = 0, debe ser f (u) · f (v) = 0. Por consiguiente, la imagen por f
de una base ortonormal ha de ser otra base ortonormal. Y si A era la matriz
de f referida a la base canónica, que es ortogonal, la matriz A debe ser una
matriz ortogonal. Entonces, como vimos más arriba, A−1 = At y |A| = ±1.
Cuando se introdujo el grupo lineal GLn se hizo notar que este era, en
esencia, el grupo de las matrices n × n no singulares. Ahora, tras las conside-
raciones del párrafo precedente, ha de quedar claro que el grupo ortogonal On
puede verse como el subgrupo del grupo lineal de las matrices ortogonales.

17
En dimensiones pequeñas resulta relativamente fácil describir por completo
el grupo ortogonal. Vamos a ello.
En dimensión 1, un automorfismo f : R → R quedará determinado por
la imagen de 1, donde hemos considerado al número real 1 como una base del
espacio vectorial unidimensional R. Ahora bien, el carácter isométrico de f
obliga a que
f (1)2 = f (1) · f (1) = 1 · 1 = 1,

luego sólo hay dos posibilidades, o bien f (1) = 1 o bien f (1) = −1. La
primera opción da f (α) = f (α 1) = αf (1) = α, de donde f = IdR . La
segunda conduce a f = −IdR . En definitiva, O1 = {Id, −Id} y el grupo
ortogonal O1 se reduce a dos elementos, la identidad y la simetrı́a respecto al
origen de coordenadas.
Sea ahora f una isometrı́a de O2 cuya matriz en la base canónica es
 
a11 a12
A= .
a21 a22
Se sabe que |A| = ±1. Supóngase en primer lugar que |A| = 1. Entonces, si
aplicamos el método de cálculo de la inversa descrito en la sección §3,
   
−1 a22 −a12 t a11 a21
A = y A = .
−a21 a11 a12 a22
De ser A−1 = At se obtiene a11 = a22 y a12 = −a21 . Además, como f preserva
la ortonormalidad de las bases, los vectores u1 = (a11 , a12 ) y u2 = (a21 , a22 ),
que constituyen las imágenes respectivas de los vectores e1 y e2 de la base
canónica, han de ser unitarios y ortogonales entre sı́. Por otro lado,
 
1
a11 = ( a11 a12 ) = u1 · e1 = ku1 k ke1 k cos α = cos α,
0
donde α es el ángulo entre e1 y u1 . Ası́, teniendo en cuenta que ku1 k = 1
implica que a211 + a212 = 1 y a la vista de la la igualdad fundamental de la
trigonometrı́a (cos2 α + sen2 α = 1), se concluye con que a12 = ± sen α. Las
relaciones obtenidas encorsetan a la matriz A en uno de los dos únicos tipos
   
cos α sen α cos α − sen α
o .
− sen α cos α sen α cos α

18
Gráficamente se interpreta como un giro de ángulo α de todo el plano R2
alrededor del origen de coordenadas O, bien en sentido directo para las ma-
trices del primer tipo, bien en sentido inverso para las del segundo tipo. Se
recomienda experimentar con la figura II.24.

Figura II.24
Veamos a continuación qué ocurre si A es una matriz ortogonal de de-
terminante −1. Ahora A−1 = At se escribe
   
−a22 a12 a11 a21
= ,
a21 −a11 a12 a22
de donde a11 = −a22 y a12 = a21 . Haciendo a11 = α y a12 = β, la matriz A
cobra la forma  
α β
.
β −α
Las imágenes de los vectores de la base canónica son u1 = (α, β) = f (e1 ) y
u2 = (β, −α) = f (e2 ), los cuales integran una base ortonormal. En particular
1 = kui k2 = α2 + β 2 . Considérese el vector v1 = e1 + u1 = (1 + α, β) y
calculemos su transformado por la isometrı́a f :
 
α β
f (v1 ) = ( 1 + α β ) =
β −α
(α + α2 + β 2 , β + αβ − αβ) = (1 + α, β) = v1 .

Sorpresa: el vector v1 se aplica en sı́ mismo, la isometrı́a f no lo modifica.


Si queremos completar v1 a una base ortogonal, solo hay que permutar sus

19
coordenadas y cambiar una de ellas de signo. Sea entonces v2 = (−β, 1 + α).
Es evidente que v1 · v2 = 0 y {v1 , v2 } es una base ortogonal. Por otro lado,
 
α β
f (v2 ) = ( −β 1 + α ) =
β −α

(−αβ + β + αβ, −β 2 − α − α2 ) = (β, −1 − α) = −v2 ,

Y el vector v2 se transforma por f en su opuesto. En la base {v1 , v2 } la matriz


de f será entonces  
1 0
,
0 −1
y la transformación f se interpreta gráficamente como la simetrı́a de eje

L =< v1 >,

que a cada vector u le aplica su simétrico respecto de la recta vectorial L


engendrada por v1 (véase la figura II.25).

Figura II.25
Queda pues determinado el grupo ortogonal O2 : toda isometrı́a f del
plano es, o bien un giro alrededor del origen si su determinante es 1, o bien
la simetrı́a axial respecto de una recta vectorial si el determinante vale −1.

20
Una aplicación curiosa de este hecho es que la composición de dos simetrı́as
es una rotación (figura II.26). En efecto, si f y g son simetrı́as axiales del
plano R2 con matrices asociadas A y B, entonces g ◦ f será una isometrı́a de
matriz AB, con lo que

|AB| = |A||B| = (−1)(−1) = 1.

Figura II.26
En dimensiones superiores no hay una clasificación tan simple de las
isometrı́as como las descritas para la recta y el plano, pero sı́ que existe
una cierta analogı́a. Ello se observa en el teorema II.11, que se enuncia sin
demostración.
Teorema II.11 Si f es una isometrı́a de Rn , existe entonces una base
ortonormal del Rn en la cual la matriz de f es del tipo
 
1
..

 . 

1
 
 
−1
 
 
 .. 
A=  . ,


 −1 


 A1 

 .. 
 . 
Ak
donde cada Ai (i ∈ {1, . . . , k}) es un bloque 2 × 2 del tipo
 
cos αi sen αi
.
− sen αi cos αi

21
Los 1 de la diagonal de A corresponden a los vectores de la base que no son
modificados por f , los −1 a los vectores que se transforman en sus opuestos,
y los bloques Ai a giros en planos engendrados por parejas de vectores de la
base.
En general a una isometrı́a de Rn de determinante 1 se le denomina
isometrı́a propia. Si el determinante es −1, se le llama isometrı́a impropia.
Al conjunto de las isometrı́as propias de On se le denota por On+ , y al de
las impropias por On− . Es evidente que para que la composición f ◦ g de dos
isometrı́as f, g ∈ On sea una isometrı́a propia es necesario y suficiente que f
y g sean del mismo tipo (ambas propias o ambas impropias), mientras que la
composición de isometrı́as de distinto tipo es una isometrı́a impropia.
Más arriba se hizo notar que las isometrı́as, al conservar el producto
escalar, conservan también el módulo de los vectores, y como el ángulo α
entre dos vectores u y v de Rn viene dado por el único escalar α entre 0 y π
tal que
u·v
cos α = ,
kuk kvk
una isometrı́a conserva también tales ángulos.
Se finalizará la sección con la traducción de todos estos conceptos a los
espacios afines.
Definición II.11 Dados tres puntos P , Q y R de Rn con P y R distintos
de Q, se define el ángulo P QR como el ángulo entre los vectores QP y QR.
Para dos rectas secantes r y s en el punto Q, se define el ángulo entre r y s
como el ángulo P QR con P ∈ r−{Q} y R ∈ s−{Q}. Puede probarse que esta
definición es independiente de los puntos P y R elegidos. De dos subespacios
afines a + S y b + T de un espacio afı́n Rn se dirá que son ortogonales si todo
vector del subespacio vectorial S es ortogonal a todo vector del subespacio
vectorial T . A una afinidad α = τa ◦ f se le llamará un movimiento si el
automorfismo f es una isometrı́a.
Si P y Q son dos puntos de un espacio afı́n Rn y τa es una traslación en

22
dicho espacio, entonces

d(τa (P ), τa (Q)) = kτa (Q) − τa (P )k =

k(a + Q) − (a + P )k = kQ − P k = d(P, Q),

luego las traslaciones preservan las distancias entre puntos. Del mismo modo
podrı́a probarse que las traslaciones no modifican los ángulos ni la ortogona-
lidad entre subespacios afines.
De las consideraciones precedentes debe resultar entonces claro que los
movimientos conservan las distancias entre puntos, no modifican ni los ángulos
formados por ternas de puntos ni los ángulos entre rectas secantes, ası́ como
que transforman subespacios ortogonales en subespacios ortogonales.
El conjunto de todos los movimientos de Rn constituye también un grupo.
La geometrı́a afı́n-euclı́dea será entonces aquella parte de la matemática que
estudia los conceptos invariantes por el grupo de los movimientos.

23

Вам также может понравиться