Академический Документы
Профессиональный Документы
Культура Документы
Ortogonalización
1. Método de Gram-Schmidt
Hemos visto que un conjunto de vectores ortogonales forman base para un espacio vec-
torial. Ahora bien, siempre es posible construir un conjunto de vectores ortogonales a partir
de un conjunto de vectores linealmente independientes. Es método de “ortogonalización” se
conoce como el método de Gram-Schmidt1 , en honor de estos dos matemáticos alemanes que
NO inventaron el método, el cual al parecer se le debe al matemático francés P.S. Laplace.
Dado un conjunto de vectores linealmente independientes, {|v1 i , |v2 i , |v3 i , · · · , |vn i}
que expanden un espacio Euclidiano de dimensión finita, E n . Entonces siempre se puede
construir un conjunto ortogonal de vectores, {|u1 i , |u2 i , |u3 i , · · · , |un i} que también ex-
pandan E n de la siguiente forma:
|u1 i ≡ |v1 i
hv2 |u1 i
|u2 i ≡ |v2 i − hu1 |u1 i
|u1 i 3 hu2 |u1 i = 0
hv3 |u2 i hv3 |u1 i hu3 |u1 i = 0
|u3 i ≡ |v3 i − hu2 |u2 i
|u2 i − hu1 |u1 i
|u1 i 3
hu3 |u2 i = 0
hu4 |u1 i = 0
hv4 |u3 i hv4 |u2 i hv4 |u1 i
|u4 i ≡ |v4 i − hu3 |u3 i
|u3 i − hu2 |u2 i
|u2 i − hu1 |u1 i
|u1 i 3 hu4 |u2 i = 0
hu4 |u3 i = 0
.. ..
. .
hu4 |u1 i = 0
hu4 |u2 i = 0
Pn−1 hvn |ui i hu4 |u3 i = 0
|un i ≡ |vn i − i=1 hui |ui i |ui i 3
..
.
hu |u i = 0
4 n−1
Ası́ siempre es posible construir una base ortonormal a partir de un conjunto de vectores
linealmente independientes. Esta base ortogonal será única en E n , si existe otra sus vectores
serán proporcionales, Más aún, cada espacio vectorial Vn de dimensión finita tendrá una
base ortogonal asociada.
1
Erhard Schmidt (1876, Estonia-1959 Alemania). MatemáticoAlemán fundador del primer instituto de
matemáticas aplicadas de Berlı́n. Alumno de Hilbert, Schmidt hizo sus mayores contribuciones en Ecuaciones
Integrales y Teorı́a de Funciones en el Espacio de Hilbert.
Más detalles http://www-history.mcs.st-andrews.ac.uk/Mathematicians
Ejemplos
El subespacio de V4 expandido por los siguientes vectores
1 2 −1
3 0 1
|v1 i =
−1 ; |v2 i = 1 ; |v3 i = 0 .
2 3 0
Tendrá una base ortogonal asociada dada por:
−1 2 −1 1
; |u2 i ≡ |v2 i − hv2 |u1 i |u1 i =
1 0 1 1
|u1 i ≡ |v3 i =
0
+ =
hu1 |u1 i 1 0 1
0 3 0 3
5
1 1 −1
5
3 9 − (1) 1 = 1
1
|u3 i ≡
− ;
−1 12 1 0 4
−7
2 3 0
−1
y la base ortonormal asociada será
√ ! −1 √ ! 1
|u1 i 2 1
|u2 i 12 1
|e1 i = p = 0
; |e2 i = p = ;
1
hu1 |u1 i 2 hu2 |u2 i 12
0 3
5
4
√ ! 5
|u3 i 2 3
4
|e3 i = =
hu3 |u3 i 9 7
−
4
1
−4
Para el caso de R2 es muy claro. Si tenemos dos vectores |v1 i y |v2 i linealmente inde-
pendientes,
1 0
|v1 i = ; |v2 i = ;
1 1
elegimos |u1 i ≡ |v2 i entonces, |u2 i vendrá dado por
hv1 |u1 i 1 0 1
|u2 i ≡ |v1 i − |u1 i ⇒ |u2 i ≡ − =
hu1 |u1 i 1 1 0
1 2
R1 1
R1 8
hv3 |u2 i = −1
dx t3 t2 − 3
= 0; hu2 |u2 i = −1
dx t2 − 3
= 45
..
.
Podemos resumir lo anterior de la siguiente manera
2. Complementos Ortogonales.
Sea un subespacio S ⊂ V, un elemento |v̄i i ∈ V se dice que es ortogonal a S si el producto
interno: hsk |v̄i i = 0 ∀ |sk i ∈ S, es decir, |v̄i i es ortogonal a todos los elementos de S.
El conjunto {|v̄1 i , |v̄2 i , |v̄3 i , · · · , |v̄m i} de todos los elementos ortogonales a S, se deno-
mina S−perpendicular y se denota como S⊥ . Es fácil demostrar que S⊥ es un subespacio,
aún si S no lo es.
3. Descomposición ortogonal
Dado {|v1 i , |v2 i , |v3 i , · · · , |vn i , · · · } un espacio euclidiano V y un subespacio de V con
dimensión finita, S ⊂ V y dim V = m. Entonces ∀ |vk i ∈ V se puede expresar como suma
de dos vectores |sk i ∈ S ∧ |sk i⊥ ∈ S⊥ . Esto es
Más aún, la norma de |vk i se calcula a través del teorema de Pitágoras generalizado
2
k|vk ik2 = k|sk ik2 +
|sk i⊥
Nótese que hvk |ei i |ei i es la proyección de |vk i a lo largo de |ei i y |sk i se expresa combinación
lineal de la base de S. Por lo tanto está en S, y por otro lado:
" m #
X
⊥
hsk |ei i = (hvk | − hsk | ) |ei i = hvk |ei i−hsk |ei i = hvk |ei i− hvk |ej i hej | |ei i = 0 ⇒ |sk i⊥ ⊥ |ej i
j=1
Pero |sk i − |tk i ∈ S, por lo tanto ortogonal a todos los elementos de S⊥ y |sk i − |tk i =
|tk i⊥ − |sk i⊥ con lo cual |sk i − |tk i ≡ |0i que es el único elemento que es ortogonal a el mismo
y en consecuencia la descomposición |vk i = |sk i + |sk i⊥ es única.
Finalmente, con la definición de norma
2
2
2 ⊥
⊥ ⊥ ⊥ ⊥ 2
⊥
k|vk ik =
|sk i + |sk i
= hsk | + hsk | |sk i + |sk i = hsk |sk i+ hsk |sk i k|sk ik +
|sk i
4. Temas Avanzados
4.1. Aproximación de Funciones
Sea {|v1 i , |v2 i , |v3 i , · · · , |vn i , · · · } un Espacio Euclidiano V y un subespacio de V con
dimensión finita, Sm ⊂ V y dim V = m, y sea un elemento |vi i ∈ V. La proyección de |vi i
en Sm , |si i , será el elemento de Sm más próximo a |vk i. En otras palabras
k|vi i − |si ik ≤ k|vi i − |ti ik ∀ |ti i ∈ S
|vi i − |ti i = (|vi i − |si i) − (|si i − |ti i) ⇒ k|vi i − |ti ik2 = k|vi i − |si ik2 + k|si i − |ti ik2
ya que |vi i−|si i = |sk i⊥ ∈ S⊥ ∧ |si i−|ti i ∈ S, y vale el teorema de Pitágoras generalizado,
Ahora bien, como
k|si i − |ti ik2 ≥ 0 ⇒ k|vi i − |ti ik2 ≥ k|vi i − |si ik2 ⇒ k|vi i − |ti ik ≥ k|vi i − |si ik
Ejemplos
Por lo tanto cualquier función definida en el intervalo [0, 2π] puede expresarse en térmi-
nos de esta base como
∞
X
|f i = Ci |ei i con
i=1
R
2π
0
dx f (x) = a0 si i = 0
Z 2π
R
2π
Ci = hei |f i = dx f (x) ϕi (x) = 0
dx f (x) cos(nx) = a2n−1 si i = 2n − 1
0
R 2π dx sen(nx) f (x) = a
si i = 2n
0 2n
donde los Ci son los coeficientes de Fourier. Es decir, cualquier función puede ser
expresada como una serie de Fourier de la forma
n
1 X
f (x) = a0 + [an cos(nx) + bn sen(nx)]
2 n=1
con Z 2π Z 2π
1 1
an = dx f (x) cos(nx) ∧ bn = dx f (x) sen(nx)
π 0 π 0
Por lo tanto si la mejor aproximación de c|yi ,que llamaremos c’|yi ,será la proyección per-
pendicular de |xi (las medidas) sobre el subespacio generado por |yi . Esto es
hx |yi x1 + x2 + x3 , · · · + xn
c0 = =
hy |yi n
que no es otra cosa que el promedio aritmético de las medidas. Es claro que la proyección
perpendicular de |xi sobre |yi hace mı́nimo la distancia entre el subespacio perpendicular
generado por |yi y el vector |xi .Es decir hace mı́nimo el cuadrado de esa distancia
n
X
0 2 0 0 2
[d (|xi , c |yi)] = (hx| − hc y| ) | (|xi − |c yi) = (xi − c0 )
i=1
Es claro que este problema se puede generalizar si se desea medir dos (o n) cantidades. Para
el caso de dos cantidades extendemos la dimensión del espacio. Por lo tanto, los resultados
experimentales se acumularán en un vector de 2n dimensiones
mientras que los vectores que representan las cantidades más aproximadas serán
c01 |y1 i = c01 ,c01 ,c01 , · · · c01 ,0, 0, 0, · · · 0 ∧ c02 |y2 i = (0, 0, 0, · · · 0, c02 ,c02 ,c02 , · · · c02 )
| {z } | {z }
n n
Ahora {|y1 i , |y2 i} expanden un subespacio vectorial sobre el cual |xi tiene como proyección
ortogonal c01 |y1 i + c02 |y2 i y consecuentemente |xi − |c01 y1 i − |c02 y2 i será perpendicular a
{|y1 i , |y2 i} , por lo tanto
hx |y1 i x11 + x12 + x13 , · · · + x1n hx |y2 i x21 + x22 + x23 , · · · + x2n
c01 = = ∧ c02 = =
hy1 |y1 i n hy2 |y2 i n
La consecuencia más conocida de esta aproximación de funciones es el “ajuste” de un
conjunto de datos experimentales {(x1 , y1 ) , (x2 , y2 ) , (x3 , y3 ) , · · · , (xn , yn )} a la ecuación de
una recta y =cx. En este caso, el planteamiento del problema se reduce a encontrar el vector
c0 |xi en el subespacio S (|xi) esté lo más cercano posible al vector |yi = c |xi . Por lo tanto
k|c0 xi − |yik2 será lo menor posible y |c0 xi − |yi será perpendicular a S (|xi), por lo tanto
hx |yi x1 y1 + x2 y2 + x3 y3 · · · + xn yn
hx| (|c0 xi − |yi) = 0 ⇒ c0 = =
hx |xi x21 + x22 + x23 , · · · + x2n
Ejemplo Si el conjunto de datos experimentales es {(1, 2) , (3, 2) , (4, 5) , (6, 6)} ¿ cuál es la
recta que ajusta más acertadamente a estos puntos ? La ecuación queda como
2 1
2 3 0 hx |yi 2 + 6 + 20 + 36 32
|yi = c |xi ⇒ 5 = c 4 ⇒ c = hx |xi = 1 + 9 + 16 + 36 = 31
6 6
Ahora bien, se puede generalizar esta procedimiento cuando se tiene que una cantidad y
que es una combinación lineal desconocida de un conjunto de cantidades
y = c 1 x1 + c 2 x2 + c 3 x3 + · · · + c m xm
(y1 , x11 , x12 , x13 , · · · x1m ; y2 , x21 , x22 , x23 , · · · x2m ; y3 , x31 , x32 , x33 , · · · x3m ; · · · yn , xn1 , xn2 , xn3 , · · · xnm )
en el cual las incógnitas {c01 ,c02 ,c03 , · · · c0m } hacen que el lado derecho de las ecuaciones antes
mencionadas sean los más próximas a las {y1 , y2 , y3 , · · · yn } por lo tanto si consideramos los
vectores
|x1 i = (x11 , · · · x1n ) ; |x2 i = (x21 , · · · x2n ) ; · · · |xm i = (xm1 , · · · xmn ) ; |yi = (ym1 , · · · yn )
por lo tanto los {|x1 i , |x2 i , · · · |xm i} expanden el subespacio S (|x1 i , |x2 i , · · · |xm i) donde
está la aproximación de |yi . Por lo tanto la distancia de este subespacio al vector |yi,
será mı́nimo. Esto es
2
[d (S (c0i |xi i) , |yi)] = (hS (c0i |xi i) | − hy|) (|S (c0i |xi i)i − |yi)
y por lo tanto |S (c0i |xi i)i − |yi será ortogonal a
m
!
X
hxj | (|S (c0i |xi i)i − |yi) ≡ hxi | c0i |xi − |yi = 0 ∀ i, j = 1, 2, 3, · · · m
i=1
por lo tanto podemos construir el sistema de ecuaciones normales para la aproximación que
hemos considerado:
c01 hx1 |x1 i + c02 hx1 |x2 i + c03 hx1 |x3 i + · · · + c0m hx1 |xm i = hx1 |yi
c01 hx2 |x1 i + c02 hx2 |x2 i + c03 hx2 |x3 i + · · · + c0m hx2 |xm i = hx2 |yi
.. ..
. .
c01 hxm |x1 i + c02 hxm |x2 i + c03 hxn |x3 i + · · · + c0m hxm |xm i = hxn |yi
donde, tal y como se ha señalado, las incógnitas son las {c01 ,c02 ,c03 , · · · c0m }
Ejemplos
Se sospecha que una determinada propiedad de un material cumple con la ecuación
y = ax1 + bx2 . Si al realizar un conjunto de medidas experimentales obtenemos
y1 15 y2 12 y3 10 y4 0
x11 = 1 ; x21 = 2 ; x31 = 1 ; x41 = 1
x12 2 x22 1 x32 1 x42 −1
Es claro que tenemos un subespacio de m = 2 dimensiones y hemos hecho n = 4 veces
el experimento. Por lo tanto los vectores considerados arriba serán
|x1 i = (1, 2, 1, 1) ; |x2 i = (2, 1, 1, −1) ; |yi = (15, 12, 10, 0)
por lo tanto
45
a= 11
7a +4b = 49
⇒ ⇒ 11y = 45x1 + 56x2
4a +7b = 52 56
b=
11
Ejercicios Al medir la temperatura a lo largo de una barra material obtenemos los si-
guientes valores
xi (cm) 1, 0 2, 0 3, 0 4, 0 5, 0 6, 0 7, 0 8, 0 9, 0
Ti (◦ C) 14, 6 18, 5 36, 6 30, 8 59, 2 60, 1 62, 2 79, 4 99, 9
Encuentre, mediante el método de los mı́nimos cuadrados los coeficientes que mejor ajus-
tan a una recta T = ax + b