Вы находитесь на странице: 1из 196

Apuntes de la asignatura

ALGEBRA LINEAL
E.T.S.I.T.

17 de septiembre de 2010
Contenidos

1. Preliminares 3
1.1. Números complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2. Polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3. Números combinatorios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

2. Eliminación gaussiana. Matrices y determinantes 21


2.1. Ejemplo introductorio. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2. Algebra de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.3. Resolución por eliminación gaussiana . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.4. Interpretación matricial de la eliminación gaussiana . . . . . . . . . . . . . . . . . . 28
2.4.1. Operaciones elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.4.2. Sistemas escalonados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.4.3. Sistema general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.5. Matriz inversa. Método de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . . 32
2.6. Resolución por determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.6.1. Desarrollo por los elementos de una lı́nea . . . . . . . . . . . . . . . . . . . 38
2.6.2. Matrices inversas y sistemas de Cramer . . . . . . . . . . . . . . . . . . . . 39

3. Espacios vectoriales y aplicaciones lineales 46


3.1. Ejemplo. Vectores en el plano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.2. Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.2.1. Combinaciones lineales. Subespacios vectoriales . . . . . . . . . . . . . . . . 48
3.2.2. Dependencia e independencia lineal. Bases y dimensión . . . . . . . . . . . 49
3.2.3. Coordenadas de un vector respecto a una base. Cambio de base . . . . . . . 52
3.3. Subespacios fundamentales de una matriz . . . . . . . . . . . . . . . . . . . . . . . 55
3.3.1. Definición y propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.4. Operaciones con subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.4.1. Intersección de subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.4.2. Suma de subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.5. Aplicaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.5.1. Definición y propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.5.2. Matriz de una aplicación lineal. Cambio de base . . . . . . . . . . . . . . . 64

4. Espacios euclı́deos 75
4.1. Ejemplo introductorio. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.2. Producto escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76

1
4.3. Sistemas y bases ortogonales y ortonormales . . . . . . . . . . . . . . . . . . . . . . 79
4.4. Método de ortogonalización de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . 81
4.5. Subespacio ortogonal a uno dado y proyección ortogonal sobre un susbespacio . . . 83
4.6. Problemas de ajuste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.6.1. Ejemplo 1. Sistemas sobredeterminados . . . . . . . . . . . . . . . . . . . . 87
4.6.2. Ejemplo 2. Aproximación trigonométrica . . . . . . . . . . . . . . . . . . . . 88
4.6.3. Ejemplo 3. Aproximación con polinomios . . . . . . . . . . . . . . . . . . . 91
4.7. Apéndice. Formas cuadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
4.7.1. Formas bilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
4.7.2. Formas cuadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
4.7.3. Bases ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
4.7.4. Ley de Inercia de Sylvester. Signatura y rango . . . . . . . . . . . . . . . . 102
4.7.5. Formas definidas y semidefinidas . . . . . . . . . . . . . . . . . . . . . . . . 103

5. Reducción de matrices. Caso diagonalizable 106


5.1. Semejanza de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
5.2. Autovalores y autovectores. Polinomio caracterı́stico . . . . . . . . . . . . . . . . . 108
5.3. Diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
5.4. Triangularización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
5.5. Diagonalización ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117

6. Reducción de matrices. Caso no diagonalizable 127


6.1. Autoespacios generalizados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
6.2. Teorema de descomposición primaria . . . . . . . . . . . . . . . . . . . . . . . . . . 130
6.3. Recurrencias vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
6.4. Ecuaciones en diferencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
6.4.1. Ecuación homogénea . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
6.4.2. Ecuación no homogénea . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142

7. Sistemas de EDOs lineales y de coeficientes constantes 150


7.1. Presentación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
7.2. Sistemas lineales homogéneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
7.3. Sistemas no homogéneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159

8. EDOs lineales de coeficientes constantes y orden superior 168


8.1. Teorı́a básica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
8.2. Representación de soluciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
8.2.1. Ecuación homogénea . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
8.2.2. Ecuación no homogénea . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
8.3. Cálculo efectivo de soluciones. Ecuación homogénea . . . . . . . . . . . . . . . . . 173
8.4. Respuesta natural. Movimiento armónico simple y amortiguado . . . . . . . . . . . 177
8.5. Cálculo efectivo de soluciones. Ecuación no homogénea . . . . . . . . . . . . . . . . 180
8.5.1. Fórmula de variación de las constantes . . . . . . . . . . . . . . . . . . . . . 180
8.5.2. Coeficientes indeterminados . . . . . . . . . . . . . . . . . . . . . . . . . . . 186

2
Tema 1

Preliminares

Este capı́tulo preliminar presenta una serie de herramientas que utilizaremos a lo largo del
curso. Es necesario que todo lo que aquı́ se explica sobre los números complejos, los polinomios
y los números combinatorios se asimile como algo que va a ser manejado a lo largo del curso.

1.1. Números complejos


La resolución de problemas cientı́ficos ha estado siempre en los orı́genes del desarrollo de las
Matemáticas. En particular, la construcción de los diversos tipos de números se ha llevado a
cabo a medida que surgı́an problemas que los números ya establecidos no podı́an resolver. Ası́,
a partir de los números naturales aparecieron los números enteros como necesarios, por ejemplo,
para mediciones negativas (temperaturas, por ejemplo). El salto de los números enteros a los
números racionales (cocientes de números enteros) parece igualmente natural; la resolución de
una ecuación tan sencilla como 2x − 3 = 0 los hace necesarios. A su vez, la búsqueda del valor x
del lado de un cuadrado de área dos (es decir, la solución de la ecuación x2 = 2) es un ejemplo
de una serie de problemas (especialmente geométricos) para los que los números racionales no
proporcionan respuesta. Surgen entonces los números irracionales y, como unión de estos últimos
con los racionales, los números reales.
La necesidad de los números complejos tiene un origen similar, aunque su construcción
tardó en llevarse a cabo. La aparición de raı́ces de ecuaciones, surgidas en problemas geométricos,
sin naturaleza real (por ejemplo, las raı́ces de x2 + 1 = 0) hacı́a pensar que la creación de números
no acababa con los reales.

Definición y propiedades
Denotamos por R al conjunto de los números reales. La definición de los números complejos
puede hacerse de varias formas. Nosotros llamaremos número complejo z a un par ordenado de
números reales (a, b), a, b ∈ R. Escribimos z = (a, b) y definimos a = Re(z) como la parte real del
complejo z y b = Im(z) como la parte imaginaria. Al conjunto de números complejos se denota
por C.
Se dice que dos números complejos z1 = (a1 , b1 ), z2 = (a2 , b2 ) son iguales z1 = z2 si y sólo si
a1 = a2 y b1 = b2 .
Una vez definido un conjunto de números, su utilización requiere la construcción de opera-

3
ciones entre ellos. En C se puede definir la suma y el producto:
z1 + z2 = (a1 + a2 , b1 + b2 )
z1 × z2 = (a1 a2 − b1 b2 , a1 b2 + a2 b1 ).
La definición de estas operaciones no es arbitraria, pues éstas tienen que cumplir una serie de
propiedades que dé a la nueva construcción coherencia con las operaciones entre los tipos de
números anteriores. Ası́, se cumplen las propiedades
(1) Para z1 , z2 números complejos cualesquiera, z1 + z2 = z2 + z1 , z1 × z2 = z2 × z1 .
(2) Para z1 , z2 , z3 números complejos cualesquiera, z1 +(z2 +z3 ) = (z1 +z2 )+z3 , z1 ×(z2 ×z3 ) =
(z1 × z2 ) × z3 .
(3) El elemento 0 = (0, 0) es neutro para la suma (z + 0 = z para cualquier complejo z) y el
elemento 1 = (1, 0) es neutro para el producto (z × 1 = z para cualquier complejo z).
(4) Para z1 , z2 , z3 números complejos cualesquiera, z1 × (z2 + z3 ) = z1 × z2 + z1 × z3 .
(5) Para z = (a, b) cualquier número complejo, el elemento −z =µ(−a, −b) es su opuesto

a −b
(z + (−z) = (0, 0)) y si z = (a, b) 6= (0, 0), el elemento z −1 = , es su
a2 + b2 a2 + b2
inverso (z × z −1 = (1, 0)).
Los números complejos son una extensión de los reales. El número complejo de la forma
(a, 0) se identifica con el número real a. De este modo, por ejemplo, (0, 0) = 0 y (1, 0) = 1.
Esta identificación es compatible con las operaciones, de modo que las operaciones definidas
anteriormente en C y restringida al conjunto de números con parte imaginaria nula coinciden
con las operaciones usuales de suma y producto de números reales. De este modo, R se puede
considerar como un subconjunto de C.

Representación geométrica
Los números complejos se representan geométricamente como puntos del plano o como vec-
tores del plano con base en el origen. La parte real es la componente del vector en el eje horizontal
y la parte imaginaria la componente del vector en el eje vertical.

b z = (a, b)
6 ¡
µ
¡
¡
¡
¡ -
a

Se llama unidad imaginaria al número complejo (0, 1), que se denota por i. De este modo,
i2 = −1, (−i)2 = −1, i3 = −i . . .. A veces se utiliza la letra j, sobre todo en el contexto de la
teorı́a de circuitos, donde la letra i se reserva para denotar la intensidad.

4
Forma binómica de un número complejo
Dado (a, b) ∈ C podemos escribir:

(a, b) = (a, 0) + (b, 0) × (0, 1) = a + bi,

según la identificación ya introducida. Esta suele ser la notación habitual y se denomina forma
binomial o binómica del número complejo. Esta representación identifica con la misma claridad
las partes real e imaginaria de un número complejo. Además, permite reconocer las operaciones:
sumar dos complejos es sumar partes reales y sumar partes imaginarias. Multiplicar dos complejos
se realiza como si fuesen reales, teniendo en cuenta que i2 = −1. Los números complejos (0, b) =
bi (b ∈ R) se denominan imaginarios puros.

Conjugado de un complejo
Dado un número complejo z = a + bi, se llama conjugado de z al número complejo z̄ = a − bi.
Geométricamente no es sino la reflexión de z respecto del eje real.

z = a + bi
¡
µ
¡
¡
¡
¡
@
@
@
@
@
R z̄ = a − bi

Algunas propiedades del conjugado son las siguientes:

(1) z + z̄ = 2Re(z).

(2) z − z̄ = 2iIm(z).

(3) z z̄ = (Re(z))2 + (Im(z))2 .

(4) z ∈ R ⇔ z = z̄.

(5) z1 + z2 = z1 + z2 , z1 z2 = z1 z2 .

(6) z = z.

(7) (−z) = −z̄.

(8) Si z 6= 0, z −1 = (z̄)−1 .

Ejemplos. Expresamos en forma binómica

(2 − i)(1 + 3i) 2 + 6i − i + 3 5 + 5i
z = = =
1+i 1+i 1+i

5
(5 + 2i) (5 + 2i)(1 − i) 5 − 5i + 2i + 2 7 3
z = = = = − i.
(1 + i) (1 + i)(1 − i) 1+1 2 2
1 + i3 1−i 1 1 2i i
z = = = = = = .
(1 − i)3 (1 − i)3 (1 − i)2 −2i 4 2

Módulo de un número complejo


Para cada número complejo z = a + bi se llama módulo de z al número real no negativo
definido por
√ q p
|z| = z z̄ = (Re(z))2 + (Im(z))2 = a2 + b2 .
√ √
Por ejemplo, |2 − 2i| = 8, |1 + 3i| = 10. Geométricamente, |z| representa la distancia entre
el punto del plano z = (a, b) y el origen de coordenadas (0, 0), o sea, la longitud del vector del
plano asociado a z.

z = a + bi
¡
µ
¡
¡ |z|
¡
¡

Algunas propiedades del módulo son las siguientes:


(1) z z̄ = |z|2 .
(2) |Re(z)| ≤ |z|, |Im(z)| ≤ |z|.
(3) |z| ≥ 0 ∀z y |z| = 0 ⇔ z = 0.
(4) |z̄| = |z|.
(5) |z1 z2 | = |z1 ||z2 |, |z1 + z2 | ≤ |z1 | + |z2 |.
El módulo define una distancia entre números complejos. Si z1 , z2 ∈ C, entonces |z1 −z2 | representa
la distancia entre los dos números.

Forma trigonométrica y polar de un número complejo


Hay otras formas igualmente útiles de representar números complejos, que utilizan además su
representación geométrica. Para cada número complejo z = a + bi no nulo, se llama argumento
principal de z al único número real θ ∈ [0, 2π) tal que
a Re(z)
cos(θ) = √ =
2
a +b 2 |z|
b Im(z)
sin(θ) = √ = .
2
a +b 2 |z|

6
Este número se suele denotar por θ = Arg(z). Geométricamente, Arg(z) representa la medida en
radianes del ángulo que forma el semieje real positivo con el vector plano definido por z (tomamos
como ángulo positivo al dado por el sentido contrario a las agujas del reloj).

z = a + bi
¡
µ
¡
¡ |z|
¡
¡Arg(z)

Se llaman argumentos de z a los ángulos


Arg(z) + 2kπ, para k = . . . , −2, −1, 0, 1, 2, . . ..

Ejemplos

z = 1, Arg(z) = 0, argumentos 2kπ, k = . . . , −2, −1, 0, 1, 2, . . .


z = 2 + 2i, Arg(z) = π/4, argumentos π/4 + 2kπ, k ∈ Z
z = −2 + 2i, Arg(z) = 3π/4, argumentos 3π/4 + 2kπ, k ∈ Z.

Si z = a + bi es no nulo, llamando r = |z| y θ = Arg(z), fijémonos en que

z = a + bi = |z| cos θ + i|z| sin θ = r(cos θ + i sin θ),

de manera que los números r = |z| (módulo) y θ = Arg(z) (argumento principal) determinan
también al complejo z, al igual que su parte real y su parte imaginaria. Esto proporciona dos
nuevas representaciones de un número complejo:

(a) z = rθ es la forma polar o módulo argumental de z.


(b) z = r(cos θ + i sin θ) es la forma trigonométrica de z.

Con estas representaciones, hay que observar que dos números complejos rθ , rθ0 0 son iguales si
r = r0 y θ − θ0 = 2kπ para algún entero k.
Ejemplos. Pasamos a forma trigonométrica

z = 1 = 1(cos(0) + i sin(0))

z = 2 + 2i = 2 2(cos(π/4) + i sin(π/4))

z = 1 + 3i = 2(cos(π/3) + i sin(π/3)).

Potencias, raı́ces y exponenciales de complejos


las nuevas representaciones de los números complejos permiten definir otras operaciones con
estos números.

7
Vamos primero a recuperar el producto de complejos definido al principio y a dar su inter-
pretación. Dados dos complejos z1 y z2 cuyas formas trigonométricas son zk = rk (cos θk +i sin θk ),
k = 1, 2, tendremos

z1 × z2 = r1 (cos θ1 + i sin θ1 ).r2 (cos θ2 + i sin θ2 )


= r1 r2 (cos θ1 cos θ2 − sin θ1 sin θ2 + i(cos θ1 sin θ2 + sin θ1 cos θ2 ))
= r1 r2 (cos(θ1 + θ2 ) + i sin(θ1 + θ2 )).

Esto proporciona la interpretación geométrica del producto, en el sentido siguiente: el producto


z1 z2 de dos complejos z1 y z2 es el número complejo cuyo módulo es el producto de los módulos
de z1 y de z2 , mientras que uno de sus argumentos viene dado por la suma de argumentos de z1
y de z2 .
Análogamente, para cocientes podemos formular que el módulo del cociente z2 /z1 , supuesto
que z1 6= 0, es el cociente de los módulos de z2 y de z1 . La diferencia entre el argumento de z2
menos el de z1 es un argumento de dicho cociente.
De la fórmula anterior para el producto z1 z2 , si en particular el complejo es el mismo z =
z1 = z2 = r(cos θ + i sin θ), entonces

z 2 = r2 (cos 2θ + i sin 2θ),


z 3 = r3 (cos 3θ + i sin 3θ),
.. .
. = ..

y en general, para un entero n cualquiera

z n = rn (cos(nθ) + i sin(nθ)).

En particular, se tiene la fórmula de DeMoivre:

(cos θ + i sin θ)n = (cos(nθ) + i sin(nθ)), n = 0, ±1, ±2, . . .

Ası́, calcular la potencia de un número complejo z es sencillo, una vez que se tiene su for-
ma trigonométrica: el complejo resultante se puede expresar en forma trigonométrica, donde su
módulo se obtiene elevando a la potencia el módulo de z y uno de sus argumentos se calcula
multiplicando por la potencia el argumento de z.
Pasamos al problema de calcular raı́ces de números complejos. Sea n ≥ 1 un entero. Recorde-
mos primero que todo real positivo r ≥ 0 posee exactamente una raı́z n-ésima positiva, que vamos
√ 1
a denotar por n r o bien r n .
Dado z 6= 0 de forma trigonométrica z = r(cos θ + i sin θ), planteamos el problema de obtener
todos los complejos w tales que wn = z. (Se dirá que w es una raı́z n-ésima compleja de z). Si
el w buscado tiene forma trigonométrica w = ρ(cos φ + i sin φ), del cálculo de potencia anterior
tenemos que

wn = ρn (cos(nφ) + i sin(nφ)).

Como wn debe coincidir con z, cuya forma trigonométrica es z = r(cos θ +i sin θ), entonces ρn = r
y nφ = θ + 2πk, con k entero. De este modo, ρ está determinado como

ρ = n r,

8
mientras que para φ tenemos
θ 2π
φk = +k ,
n n
con k entero. En principio, cualquier valor de k proporciona una raı́z de z. Sin embargo para los
valores k = 0, 1, ..., n − 1, los complejos correspondientes

wk = ρφk , 0 ≤ k ≤ n − 1,

son las n raı́ces distintas, pues al llegar a k = n caemos de nuevo en w0 , con k = n + 1 en


w1 etc ... (igualmente con los valores negativos de k). Por tanto, un número complejo no nulo
tienexactamente n raı́ces n-ésimas diferentes, que son las ya descritas wk , 0 ≤ k ≤ n − 1. Hay que
notar que los números reales no poseen esta propiedad.

Ejemplo 1. Calculamos las raı́ces cúbicas de z = i. En primer lugar hallamos el módulo de z



y su argumento principal. Tenemos |z| = 1, Arg(z) = π/2. Entonces, si w = 3 z se tiene que
w3 = z. De aquı́ obtenemos que |w|3 = |z| = 1 y 3Arg(w) = Arg(z) + 2kπ con k entero. Las tres
π
+ 2kπ
raı́ces cúbicas de z quedan determinadas por |w| = 1, Arg(w) = 2 , k = 0, 1, 2. Es decir,
3

k = 0, w0 = cos(π/6) + i sin(π/6) = ( 3 + i)/2

k = 1, w1 = cos(5π/6) + i sin(5π/6) = (− 3 + i)/2
k = 2, w2 = cos(3π/2) + i sin(3π/2) = −i.

Ejemplo 2. Calculamos las raı́ces sextas de z = −8. Primero hallamos el módulo de z y su



argumento principal. Tenemos |z| = 8, Arg(z) = π. Entonces, si w = 6 z se tiene que w6 = z. De
aquı́ obtenemos que |w|6 = |z| = 8 y 6Arg(w) = Arg(z) + 2kπ con k entero. Las seis raı́ces sextas
√ √ π + 2kπ
de z quedan determinadas por |w| = 6 8 = 2, Arg(w) = , k = 0, 1, 2, 3, 4, 5. Es decir,
6
√ √ √
k = 0, w0 = 2(cos(π/6) + i sin(π/6)) = 2( 3 + i)/2
√ √
k = 1, w1 = 2(cos(π/2) + i sin(π/2)) = 2i
√ √ √
k = 2, w2 = 2(cos(5π/6) + i sin(5π/6)) = 2(− 3 + i)/2
√ √ √
k = 3, w3 = 2(cos(7π/6) + i sin(7π/6)) = − 2( 3 + i)/2
√ √
k = 4, w4 = 2(cos(3π/2) + i sin(3π/2)) = −i 2
√ √ √
k = 5, w5 = 2(cos(11π/6) + i sin(11π/6)) = − 2( 3 − i)/2.

La última operación que vamos a definir es la exponencial compleja. Dado un número complejo
z = a + bi, con a, b reales, definiremos la exponencial ez como el número complejo

ez = ea (cos b + i sin b),

esto es,
|ez | = ea > 0, b argumento de (ez ).
Algunas propiedades de la exponencial compleja son las siguientes:

9
(a) ez1 +z2 = ez1 .ez2 (z1 , z2 ∈ C),
(b) (ez )−1 = e−z (z ∈ C).
(c) eiθ = cos θ + i sin θ, θ ∈ R, es el complejo de módulo unidad y argumento θ.
(d) Todo número complejo z 6= 0 con r = |z|, θ = Arg(z) puede expresarse en la forma
z = reiθ .
La última propiedad proporciona una nueva representación de un número complejo, la forma
exponencial. Procede de reescribir la forma trigonométrica utilizando la definición de exponencial
compleja:
z = r(cos θ + i sin θ) = reiθ .

Ejemplos.

1+i 3 iπ
z = = cos(π/3) + i sin(π/3) = e 3
2
z = 2eiπ = 2(cos(π) + i sin(π)) = −2.
Por su parte, la propiedad (c) da lugar a dos fórmulas muy útiles que es conveniente recordar.
Si θ es un ángulo cualquiera, la definición de exponencial dice que
eiθ = cos θ + i sin θ,
e, igualmente
e−iθ = cos (−θ) + i sin (−θ) = cos θ − i sin θ,
es decir, que los dos complejos eiθ y e−iθ son conjugados. Si ahora sumamos ambas igualdades,
tenemos
eiθ + e−iθ
eiθ + e−iθ = 2 cos θ ⇒ cos θ = . (1.1)
2
Si en lugar de sumar, restamos, tendremos
eiθ − e−iθ
eiθ − e−iθ = 2i sin θ ⇒ sin θ = . (1.2)
2i
Las fórmulas (1.1) y (1.2) permiten reescribir, respectivamente, el coseno y el seno de un ángulo
en términos de exponenciales complejas (véanse, por ejemplo, los ejercicios 10 y 11).

1.2. Polinomios
Dados un número natural n y los n + 1 números reales o complejos a0 , a1 , . . . , an , los llamados
coeficientes, se define el polinomio p en la variable x como la función que hace corresponder al
valor que tome x el valor
p(x) = a0 + a1 x + a2 x2 + · · · + an xn .
Se dice que el grado del polinomio p es n cuando an 6= 0.
Dos polinomios p(x) = a0 + a1 x + a2 x2 + · · · + an xn , q(x) = b0 + b1 x + b2 x2 + · · · + bm xm son
iguales p = q si tienen el mismo grado n = m y son idénticos los coeficientes de potencias iguales
de la indeterminada: aj = bj , j = 1, . . . , n.

10
Operaciones con polinomios
Dados dos polinomios

p(x) = a0 + a1 x + a2 x2 + · · · + an xn , q(x) = b0 + b1 x + b2 x2 + · · · + bm xm ,

con n > m, se llama polinomio suma a

p(x) + q(x) = c0 + c1 x + c2 x2 + · · · + cn xn ,

cuyos coeficientes se obtienen sumando los coeficientes respectivos de iguales potencias de la


indeterminada en las expresiones de p y q, es decir

ci = ai + bi , i = 0, 1, . . . , n,

donde, para n > m se tiene que suponer que los coeficientes bm+1 , . . . , bn son iguales a cero.

(1 + 2x) + (3 + x + x2 + x3 ) = 4 + 3x + x2 + x3 .

El grado de la suma será igual a n si n > m. Para n = m, puede ocurrir que el grado de la suma
sea menor que n, precisamente si bn = −an .
Se llama producto de los polinomios p(x), q(x) al polinomio

p(x)q(x) = d0 + d1 x + d2 x2 + · · · + dn+m xn+m ,

cuyos coeficientes se determinan por


X
di = aj bk , i = 0, 1, . . . , n + m,
j+k=i

es decir, el coeficiente di es el resultado de sumar todos los productos de aquellos coeficientes de


los polinomios p y q, la suma de cuyos ı́ndices es igual a i.

(1 + 2x)(3 + x + x2 + x3 ) =?.

El grado del producto de dos polinomios es igual a la suma de sus grados.


La suma verifica las propiedades conmutativa, asociativa, elemento neutro (0(x) = 0) y ele-
mento opuesto.
El producto verifica las propiedades conmutativa, asociativa, distributiva respecto de la suma
y elemento unidad (p(x) = 1).
Para el producto de polinomios no existe la operación inversa, la división. Es decir, el cociente
de dos polinomios no siempre es un polinomio. Cuando el cociente p(x)/q(x) del polinomio p y
el polinomio q es otro polinomio, se dice que q divide a p o que p es un múltiplo de q. La división
por el polinomio nulo no está permitida.
En general, la división de un polinomio p dividendo por un polinomio q divisor origina un
polinomio cociente c(x) y polinomio resto r(x), de modo que

p(x) = c(x)q(x) + r(x),

donde el grado de r es menor que el de q o bien r es nulo. Ası́, p/q será un polinomio cuando
r = 0. Por ejemplo,

−1 + x − 2x2 + x3 = (x + 1)(x2 − 3x + 2) + (2x − 3).

11
Raı́ces de polinomios. Algoritmo de Horner
El teorema fundamental del Álgebra afirma que todo polinomio p de grado n tiene al menos
un cero, esto es, la ecuación p(x) = 0 admite al menos una solución, real o compleja. Utilizando
la división de polinomios, se tiene el siguiente resultado:

Teorema 1. Sea p(x) un polinomio y α ∈ C. Entonces, α es un cero de p (p(α) = 0) si y sólo si


p(x) es divisible por x − α, es decir, existe un polinomio q tal que p(x) = q(x)(x − α).

Puede ser interesante hacer varios comentarios con respecto al cálculo de raı́ces de un poli-
nomio:
(i) El resultado anterior (Teorema 1) afirma que si α1 es raı́z de un polinomio p(x), éste se
puede factorizar en la forma
p(x) = q1 (x)(x − α1 ),
donde (x − α1 ) es naturalmente un polinomio de grado uno y q1 (x) es un polinomio con
grado uno menos que el de p(x) y que procede de la división de p(x) entre x − α1 . De este
modo, si se conociese una raı́z de q1 (x), podrı́a aplicarse el mismo procedimiento a q1 (x) y
escribir
p(x) = q1 (x)(x − α1 ) = q2 (x)(x − α2 )(x − α1 ),
con q2 (x) de grado dos unidades inferior al de p(x). El conocimiento de todas las raı́ces
de p(x) permite entonces, a través de este procedimiento, llegar a una descomposición en
factores lineales de p(x):
p(x) = a0 + a1 x + · · · + an xn = an (x − α1 ) · · · (x − αn ),
con α1 , . . . , an los n ceros, repetidos o no, del polinomio p(x). Por ejemplo, el polinomio
p(x) = −2 + 5x − 4x2 + x3 tiene por raı́ces α1 = 1, α2 = 1, α3 = 2, de modo que puede
escribirse
p(x) = (x − 1)2 (x − 2).

(ii) Cuando los coeficientes de p(x) son números reales y p(x) posee una raı́z compleja α = a+bi,
entonces su conjugado ᾱ = a − bi es también una raı́z de p(x) (¿por qué?). En este caso,
los dos factores lineales de la descomposición de p(x), (x − (a + bi))(x − (a − bi)) pueden
agruparse en un factor cuadrático x2 + cx + d con c y d ciertos números reales. Por ejemplo,
el polinomio p(x) = x3 − x2 + x − 1 tiene por raı́ces α1 = 1, α2 = i, α3 = −i y puede
factorizarse de dos formas:
p(x) = (x − 1)(x − i)(x + i) = (x − 1)(x2 + 1).

(iii) Si α1 , . . . αk son los ceros distintos de un polinomio p(x) de cierto grado n, con multiplici-
dades m1 , . . . , mk respectivamente, entonces p(x) puede factorizarse en la forma
p(x) = a0 + a1 x + · · · + an xn = an (x − α1 )m1 · · · (x − αk )mk .
Por ejemplo, el polinomio anterior p(x) = −2 + 5x − 4x2 + x3 tenı́a por raı́ces distintas
α1 = 1, α2 = 2. La multiplicidad de la primera es m1 = 2 y de la segunda m2 = 1; como
hemos visto, puede escribirse p(x) = (x − 1)2 (x − 2).

12
(iv) Si α es una raı́z de p(x) con multiplicidad dos, entonces α es también raı́z de su derivada
p0 (x). En efecto, si α es raı́z de p(x), puede escribirse

p(x) = q(x)(x − α),

con q(x) un polinomio de un grado inferior al de p(x). Hay que observar que puesto que
α tiene multiplicidad dos como raı́z de p(x), también es raı́z de q(x), es decir, q(α) = 0.
Derivando la expresión anterior, se tiene

p0 (x) = q 0 (x)(x − α) + q(x).

Entonces p0 (α) = q(α) = 0 y, por tanto, α es raı́z de la derivada p0 (x).


Este resultado puede generalizarse en el siguiente sentido: si α es un cero de p(x) de multi-
plicidad m > 1, entonces α es cero de las sucesivas derivadas de p(x) hasta el orden m − 1.
Por ejemplo, α = 1 es raı́z de p(x) = x3 − 3x2 + 3x − 1, con multiplicidad m = 3, luego
también es raı́z de su derivada p0 (x) = 3x2 −6x+3 y de su derivada segunda p00 (x) = 6x−6.

Algoritmo de Horner. Evaluación de un polinomio


En muchas ocasiones es necesario evaluar un polinomio en un valor determinado de la variable
x. El llamado método de Horner o regla de Ruffini proporciona una técnica para ello. Consiste en
escribir el polinomio como un conjunto de multiplicaciones encajadas. Por ejemplo, para evaluar
un polinomio
p(x) = a0 + a1 x + a2 x2 + a3 x3
en x = c, puede escribirse
p(c) = a0 + c(a1 + c(a2 + ca3 ))
y, a continuación ir evaluando los paréntesis a partir del más interno. Este procedimiento parece
más apropiado que el elemental de multiplicar las sucesivas potencias de c y sumar las correspon-
dientes combinaciones de los coeficientes del polinomio.
Una de las ventajas del método de Horner es que tiene una estructura de algoritmo, de
modo que uno puede automatizarlo. Vamos a describir el procedimiento general. Consideremos
un polinomio cualquiera
p(x) = a0 + a1 x + · · · + an xn ,
que deseamos evaluar en x = c. Escribimos

p(c) = a0 + c(a1 + c(a2 + · · · + c(an−1 + can ) · · ·)).

Entonces, definimos bn = an y a continuación

bn−1 = an−1 + cbn (primer paréntesis),


bn−2 = an−2 + cbn−1 (segundo paréntesis),
.. .
. = ..
bk = ak + bk+1 , (1.3)
.. .
. = ..
b1 = a1 + cb2 ,
b0 = a0 + cb1 = p(c).

13
La fórmula (1.3) corresponde a un paso general del algoritmo: para calcular el siguiente valor bk
(es decir el correpondiente paréntesis) se suma al coeficiente ak la constante c por el último valor
de las b calculado, bk+1 (es decir, el último paréntesis calculado). Esto puede representarse en la
siguiente tabla:

an an−1 an−2 ··· ak ··· a1 a0


c cbn cbn−1 ··· cbk+1 ··· cb2 cb1
bn bn−1 bn−2 ··· bk ··· b1 b0 = p(c)

o bien en el algoritmo que puede fácilmente representarse en el ordenador:


b(n) = a(n)
Para k = n − 1 : −1 : 0
b(k) = a(k) + c ∗ b(k + 1)
La tabla anterior no sólo proporciona el valor del polinomio p(x) en x = c; con ella también
se obtienen los coeficientes de la división de p(x) por x − c. Esto es ası́ por la siguiente razón: si
consideramos el polinomio

q(x) = b1 + b2 x + · · · + bn−1 xn−2 + bn xn−1 ,

con los coeficientes obtenidos de la tabla, entonces

(x − c)q(x) + b0 = bn xn + (bn−1 − cbn )xn−1 + · · · + (b2 − cb3 )x2 + (b1 − cb2 )x + b0 − cb1
= an xn + an−1 xn−1 + · · · + a2 x2 + a1 x + a0 = p(x),

donde hemos utilizado la fórmula (1.3) en cada uno de los paréntesis. De esta manera, los números
b1 , . . . , bn son los coeficientes del polinomio cociente de p(x) entre x − c, con b0 = p(c) el resto de
la división.

Ejemplo. División de p(x) = 5x4 + 10x3 + x − 1 por x + 2. Aquı́ se tiene α = −2:

5 10 0 1 -1
-10 0 0 -2
-2 5 0 0 1 -3
El cociente de la división de p(x) por x + 2 es 5x3 + 1 y el resto −3, precisamente el valor de
p(−2). Se tiene p(x) = (5x3 + 1)(x + 2) − 3.

1.3. Números combinatorios


Finalmente, en algún momento necesitaremos mencionar algunas ideas de combinatoria. Recorde-
mos primero que se define el factorial del número natural n como el producto de los números
naturales de 1 hasta n:

n! = 1 · 2 · 3 · · · n.

Por convenio 0! = 1. Hay que observar que el factorial de n es el número de ordenaciones posibles
de n elementos.

14
Permutaciones
Se llaman permutaciones a las agrupaciones de un determinado número de elementos, orde-
nados de tal forma que cada grupo se diferencia de los demás por el orden de colocación de dichos
elementos.
Una forma de representar las permutaciones es la siguiente: dados un número n ≥ 1 de elemen-
tos, denotados por a1 , . . . an , una permutación es una reordenación de los elementos aσ(1) , aσ(2)
, . . . , aσ(n) , de manera que el primer elemento pasa a estar en la posición σ(1), el segundo en la
posición σ(2), etc. Ası́, una permutación puede identificarse con una aplicación

σ : {1, 2, . . . , n} → {1, 2, . . . , n}, j 7→ σ(j),

que también se suele denotar por


µ ¶
1 2 3 ··· n
σ: .
σ(1) σ(2) σ(3) · · · σ(n)
Por ejemplo,
µ ¶
1 2 3
σ:
3 2 1
es una permutación de tres elementos.
El número de permutaciones de orden n es n!. El conjunto de tales permutaciones se denota por
Sn .
Sea σ ∈ Sn . Tomemos dos ı́ndices k y l con 1 ≤ k < l ≤ n. Se dirá que forman una inversión
para σ si σ(k) > σ(l). Por ejemplo, en la permutación de orden tres anterior, 1 y 2 forman una
inversión para σ, al igual que 1 y 3 ó 2 y 3.
Sea inv(σ) el número total de inversiones de σ. La paridad de la permutación se define como

π(σ) = (−1)inv(σ) ,

que sólo puede tomar los valores 1 ó −1. En nuestro ejemplo anterior, π(σ) = −1.

Números combinatorios
Sean n, k ≥ 0 enteros con n ≥ k. Se llaman combinaciones de n elementos tomados de k
en k a las agrupaciones que pueden formarse con n elementos tomados de k en k, de manera
que cada grupo se distingue de los demás por lo menos en uno de los elementos que lo forman,
independientemente del orden de su colocación.
Por ejemplo, con n = 4 elementos, podemos formar las combinaciones

k=1 a, b, c, d →4
k=2 ab, ac, ad →6
bc, bd
cd
k=3 abc, abd, acd →4
bcd
k=4 abcd →1

15
El número de combinaciones distintas de n elementos tomados de k en k se llama número com-
binatorio n sobre k y se define como
µ ¶
n n!
= ,
k k!(n − k)!
µ ¶
n
donde si k = 0 recordemos que = 1. Ası́, del ejemplo anterior
0
µ ¶ µ ¶ µ ¶ µ ¶ µ ¶
4 4 4 4 4
= 1, = 4, = 6, = 4, = 1.
0 1 2 3 4

Algunas propiedades de los números combinatorios son


µ ¶ µ ¶
n n
= 1, = 1.
0 n
µ ¶
n
= n.
1
µ ¶ µ ¶
n n
= .
n−k k
µ ¶ µ ¶ µ ¶
n+1 n n
= + .
k k k−1
La última propiedad permite obtener los números combinatorios de forma recursiva, dando origen
al llamado triángulo de Pascal o de Tartaglia:

n
0 1
1 1 1
2 1 2 1
3 − − − 1 3 3 1
4 1 4 6 4 1
5 1 5 10 10 5 1

El triángulo puede explicarse del siguiente modo: dado un número n de la columna de la izquierda,
los elementos de la correspondiente fila del triángulo son los números combinatorios
µ ¶ µ ¶ µ ¶
n n n
, ,..., .
0 1 n

Ası́, por ejemplo, para n = 3, la fila correspondiente está formada por


µ ¶ µ ¶ µ ¶ µ ¶
3 3 3 3
= 1, = 3, = 3, = 1.
0 1 2 3

El primer y el último elemento de cada fila valen siempre uno, dado que
µ ¶ µ ¶
n n
= = 1.
0 n

16
Por otra parte, la última propiedad de los números combinatorios es la que va generando las filas
del triángulo. Un elemento interior cualquiera del mismo se obtiene subiendo a la fila anterior y
sumando los elementos más próximos a izquierda y derecha
Los números combinatorios aparecen también como coeficientes del llamado binomio de New-
ton: si a, b son dos números reales o complejos y n ≥ 0 es un entero, entonces
µ ¶ µ ¶ µ ¶ µ ¶
n n n n n−1 n n−2 2 n
(a + b) = a + a b+ a b + ··· + bn
0 1 2 n
n µ ¶
X n
= an−k bk .
k
k=0

Ası́, por ejemplo, usando el triángulo de Tartaglia,


µ ¶ µ ¶ µ ¶
2 2 2 2
(a + b)2 = a2 + ab + b = a2 + 2ab + b2 .
0 1 2
µ ¶ µ ¶ µ ¶ µ ¶
3 3 3 3 3
(a + b)3 = 3
a + 2
a b+ 2
ab + b
0 1 2 3
= a3 + 3a2 b + 3ab2 + b3 .
(a + b)4 =

Hay que recordar que los coeficientes del desarrollo de una potencia n de un binomio a + b no
son otra cosa que los números combinatorios
µ ¶ µ ¶ µ ¶
n n n
, ,..., .
0 1 n
Una de las aplicaciones del binomio de Newton que más se suele utilizar se refiere al desarrollo
de polinomios en potencia de x, véase el ejercicio 14.

EJERCICIOS

Ejercicio 1. Expresa en forma binómica los siguientes números complejos:


(3 + i)(1 − 2i) 1 + i3 1+i
z= , w= , z= .
2+i (1 − i)3 (3 − i)2

Ejercicio 2. Representa en el plano XY los siguientes números complejos:

3 + 2i, −1 + 3,5i, 4 − 2i, −5 − 4i, 1 + i, 1 − i, −1 + i, −1 − i,


3 + 2i 4i − 2 5i 1 −iπ/2
, , , 3i, −3i, 4eiπ/4 , 2e3iπ/2 , e , ei7π/4 .
1−i 3+i 7+i 4

Ejercicio 3. Determina los valores reales de x y y que satisfacen


a) x + iy = |x + iy|, b) x + iy = (x + iy)2 .

Ejercicio 4. Describe geométricamente el conjunto de números complejos que satisfacen las


relaciones siguientes:

17
a) |z| = 1, b) |z| ≤ 1, c) |z| > 1, d) z + z̄ = |z|,
e) z + z̄ = 1, f) z − z̄ = 1, g) z + z̄ = i.

Ejercicio 5. ¿Qué lugares geométricos del plano están representados por las siguientes ecuaciones
y desigualdades?
a) |z − 1| = 1, b) Re(z 2 ) = −1, c) 0 ≤ arg(1/z) ≤ π/2.

Ejercicio 6. (i) Representa en forma polar y en forma trigonométrica los siguientes números
complejos
a) z = −2 + 2i, b) z = i, c) z = 1,
d) z = 2 + 3i, e) z = −1 + i, f) z = 4 − 2i.
(ii) Representa en forma binómica los siguientes números complejos
a) z = 3e2πi , b) z = e(π/2)i , c) z = 4e−(3π/4)i ,
d) z = 12 e−(π/6)i , e) z = 2e(π/7)i .

Ejercicio 7. a) Escribe en términos de exponenciales complejas las siguientes expresiones:


1 3 1 1
cos θ + sin θ, cos 2θ − sin 2θ, cos θ − sin 3θ.
2 5 3 4
b) Escribe en términos de senos y cosenos las siguientes expresiones:
3 1
4 + eiθ − e2iθ , e−iθ + e3+iθ + 2e2iθ , e3iθ + e−3iθ , e3iθ − e−3iθ .
2 4

Ejercicio 8. Calcula todos los valores de las siguientes raı́ces de números complejos:
√ √ √ √ √
a) 8 1, b) 3 −2 + 2i, c) 5 −4 + 3i, d) 3 i, e) 1 − i.

Ejercicio 9. Si α y β son dos ángulos cualesquiera, comprueba las fórmulas trigonométricas

cos(α + β) = cos(α) cos(β) − sin(α) sin(β).


cos(α − β) = cos(α) cos(β) + sin(α) sin(β).
sin(α + β) = sin(α) cos(β) + sin(β) cos(α).
sin(α − β) = sin(α) cos(β) − sin(β) cos(α).

Ejercicio 10. Expresa en función de cos(θ) y sin(θ):


a) cos(5θ), b) cos(8θ), c) cos(6θ), d) sin(7θ).

Ejercicio 11. Representa en forma de polinomio de primer grado en las funciones trigonométricas
de los ángulos múltiplos de θ:
a) sin3 θ, b) cos5 θ, c) sin2 θ, d) cos2 θ.

Ejercicio 12. (Obtenido del libro: Curso práctico de Algebra, de J. Gardo y A. Miquel, inten-
dentes mercantiles y censores jurados de cuentas, ed. Cultura, Barcelona, 1950). 10 estudiantes
propusieron a su patrona gratificarla espléndidamente el dı́a en que les viera sentados a la mesa

18
en el mismo orden. Haciendo tres comidas diarias, ¿cuántos dı́as tenı́an que transcurrir antes de
verse obligados a repetir una de las colocaciones precedentes?

Ejercicio 13. (Del mismo libro que el ejercicio anterior). En un cuartel hay 20 guardias los cuales
tienen un servicio por parejas, variando la composición de las parejas diariamente. Empezaron
el servicio en determinada fecha y los relevaron cuando se veı́an obligados a repetir las parejas.
?Cuántos dı́as duró dicho servicio extraordinario?

Ejercicio 14. Utilizando el binomio de Newton, desarrolla en potencias de x los polinomios: (a)
(x − 1)3 . (b) (x + 2)4 . (c) (x + 1)5 .

ALGUNOS EJERCICIOS RESUELTOS

Ejercicio 3.
(a) x ≥ 0, y = 0.
(b) x = y = 0 o bien x = 1, y = 0.

Ejercicio 4.
(a) Circunferencia centrada en el origen de radio uno.
(b) Cı́rculo centrado en el origen de radio uno sin incluir la circunferencia.

Ejercicio 5.
(a) Circunferencia centrada en (1, 0) de radio uno.
(b) Hipérbola y 2 − x2 = 1.
(c) Cuadrante inferior derecho del plano.

Ejercicio 7.
a)

eiθ + e−iθ eiθ − e−iθ (1 − i)eiθ + (1 + i)e−iθ


cos θ + sin θ = + = .
2 2i 2
1 3 5 + 6i 2iθ 5 − 6i −2iθ
cos 2θ − sin 2θ = ( )e + ( )e .
2 5 20 20
1 1 1 iθ 1
cos θ − sin 3θ = (e + e−iθ ) − (e3θ − e−3θ ).
3 4 6 8i
b)
3 1 3 1
4 + eiθ − e2iθ = 4 + (cos θ + i sin θ) − (cos 2θ + i sin 2θ),
2 4 2 4
−iθ 3+iθ 2iθ 3
e +e + 2e = cos θ − i sin θ + e (cos θ + i sin θ) + 2(cos 2θ + i sin 2θ),
e3iθ + e−3iθ = 2 cos 3θ,
e3iθ − e−3iθ = 2i sin 3θ.

Ejercicio 8.
kπi
a) Las raı́ces son zk = e 4 , k = 0, 1, 2, 3, 4, 5, 6, 7.

19
b) Las raı́ces son

6
z0 = 8(cos(π/4) + i sin(π/4)),

6
z1 = 8(cos(11π/12) + i sin(11π/12)),

6
z2 = 8(cos(19π/12) + i sin(19π/12)).
√ arctg(−3/4)+2kπ
c) Las raı́ces son zk = 5
5ei 5 , k = 0, 1, 2, 3, 4.

Ejercicio 10.
a) cos(5θ) = cos5 (θ) − 10 cos3 (θ) sin2 (θ) + 5 cos(θ) sin4 (θ).
d) sin(7θ) = 7 cos6 θ sin θ − 35 cos4 θ sin3 θ + 21 cos2 θ sin5 θ − sin7 θ.

Ejercicio 11.
a) sin3 θ = −(1/4) sin(3θ) + (3/4) sin θ.
b) cos5 θ = (1/16) cos(5θ) + (5/16) cos(3θ) + (5/8) cos θ.

20
Tema 2

Eliminación gaussiana. Matrices y


determinantes

2.1. Ejemplo introductorio.


Hay varios tipos de problemas que se basan en una red de conductores por la que fluye alguna
clase de fluido, como redes de riego, de calles o de tráfico. A menudo hay puntos en el sistema
por los que el fluido entra en la red o sale de ella. El principio básico de tales sistemas es que el
fluido que entra a cada nudo del sistema debe ser igual al que sale.
Supongamos que en el diagrama que aquı́ aparece se describe una red de canales de riego.
Cuando la demanda es máxima, los flujos en las intersecciones A,B,C,D aparecen indicados en la
figura. Buscamos resolver los dos problemas siguientes:
(a) Determinar los posibles flujos en cada canal de la red.
(b) Si se cierra el canal BC, ¿qué cantidad de flujo debe mantenerse para que ningún canal lleve
un flujo superior a 30 litros?

55 A x1 B 20
- - -
¶¶






?x4 ¶ x2 x3

¶ ?


D ¶ x5 C
¶ -

?20 ?15

Partiendo entonces del principio de que en cada nudo de la red la cantidad de lı́quido que

21
entra debe ser igual a la cantidad que sale, tenemos las siguientes relaciones

Nudo A: x1 + x4 = 55,

Nudo B: x1 = x2 + x3 + 20,

Nudo C: x3 + x5 = 15,

Nudo D: x2 + x4 = x5 + 20.

Nos queda entonces el sistema

x1 + x4 = 55
x1 − x2 − x3 = 20
x3 + x5 = 15
x2 + x4 − x5 = 20.

Con las técnicas que presentamos en este tema, comprobaremos más adelante que el sistema tiene
infinitas soluciones, dependientes del valor del flujo en dos canales, pongamos x4 y x5 , en la forma

x1 = 55 − x4 , x3 = 15 − x5 , x2 = 20 − x4 + x5 .

De manera que para que la red funcione, el flujo entre AD y entre DC puede ser arbitrario, pero
los restantes denen estar sujetos a las relaciones antes obtenidas.
Fijémonos, por otro lado, en que si se cierra el canal BC, entonces x3 = 0, de manera que de
las ecuaciones de arriba, ha de ser x5 = 15 y x1 = 55 − x4 , x2 = 35 − x4 . para que ningún canal
lleve un flujo superior a 30, ha de ser (razona por qué)

25 ≤ x4 ≤ 30, x1 = 55 − x4 , x2 = 35 − x4

El problema a resolver en este tema será encontrar y analizar un método práctico de discusión
y en su caso resolución de un sistema lineal de m ecuaciones y n incógnitas, que es un conjunto
de expresiones de la forma (recuerda el sistema del ejemplo)

a11 x1 + a12 x2 + · · · + a1n xn = b1


a21 x1 + a22 x2 + · · · + a2n xn = b2
····················· ··· ··· (2.1)
am1 x1 + am2 x2 + · · · + amn xn = bm ,

para m, n > 1. Aquı́ los datos conocidos son los números aij , 1 ≤ i ≤ m, 1 ≤ j ≤ n o coeficientes
del sistema y los números bi , 1 ≤ i ≤ m o términos independientes. El problema consiste en
determinar si hay valores para las incógnitas x1 , . . . , xn que satisfagan las m ecuaciones de (2.1)
y, en su caso, obtenerlos. Tales valores constituyen las soluciones del sistema.
El sistema (2.1) se dice que es compatible si tiene alguna solución. Cuando no tiene soluciones,
se dice que es incompatible. Por otro lado, un sistema compatible o tiene una única solución, en
cuyo caso el sistema se llama determinado, o tiene infinitas, en cuyo caso el sistema se dice que
es indeterminado.

22
2.2. Algebra de matrices
Necesitamos primero introducir una notación matricial que nos será útil tanto en éste como
en temas posteriores. Los coeficientes del sistema (2.1) se suelen disponer en lo que se llama una
matriz rectangular de m filas y n columnas
 
a11 a12 · · · · · · a1n
 a21 a22 · · · · · · a2n 
A=
 ···
 = (aij ) (2.2)
··· ··· ··· ··· 
am1 am2 · · · · · · amn

de forma que el valor de aij se sitúa en la intersección de la fila i−ésima con la columna j−ésima.
El conjunto de todas las matrices m × n se denota por Mm,n (R) o Mm,n (C), dependiendo de si
sus elementos son números reales o complejos. En el caso de que el número de filas y de columnas
coincidan (m = n) se dice que la matriz es cuadrada. Casos particulares de matrices son las
matrices fila (m = 1), las matrices columna (n = 1), la matriz identidad In = In,n , etc.

Operaciones con matrices


Para un uso posterior necesitamos dotar de una cierta estructura a este conjunto de matrices
Mm,n (K) donde K = R ó C, es decir, describir maneras de operar sobre ellas.
Las matrices del mismo orden se suman elemento a elemento, produciendo otra matriz del
orden en cuestión:
   
a11 a12 · · · · · · a1n b11 b12 · · · · · · b1n
 a21 a22 · · · · · · a2n   b21 b22 · · · · · · b2n 
 + 
 ··· ··· ··· ··· ···   ··· ··· ··· ··· ··· 
am1 am2 · · · · · · amn bm1 bm2 · · · · · · bmn
 
a11 + b11 a12 + b12 · · · · · · a1n + b1n
 a21 + b21 a22 + b22 · · · · · · a2n + b2n 
=
.

··· ··· ··· ··· ···
am1 + bm1 am2 + bm2 · · · · · · amn + bmn

Naturalmente, para poder sumar, las matrices han de tener el mismo tamaño m × n. Las
propiedades de esta operación son:
(a) Asociativa: ∀A, B, C ∈ Mm,n (K) (A + B) + C = A + (B + C).
(b) Conmutativa: A + B = B + A.
(c) Elemento neutro: la matriz del orden correspondiente cuyos elementos son todos nulos.
(d) Elemento opuesto: cada matriz posee su opuesta, que es la matriz obtenida al tomar opuestos
en todos los elementos.

También se puede multiplicar una matriz A ∈ Mm,n (K) por un número real o complejo λ ∈ K,
sin más que multiplicar por λ cada elemento de A:
   
a11 a12 · · · · · · a1n λa11 λa12 · · · · · · λa1n
 a21 a22 · · · · · · a2n   λa21 λa22 · · · · · · λa2n 
λA = λ 
 ···
= .
··· ··· ··· ···   ··· ··· ··· ··· ··· 
am1 am2 · · · · · · amn λam1 λam2 · · · · · · λamn

Las propiedades de esta operación son las siguientes:

23
(a) Distributiva: (λ + α)A = λA + αA, ∀λ, α ∈ K, A ∈ Mm,n (K).
(b) Distributiva: λ(A + B) = λA + λB
(c) Asociativa: (λα)A = λ(αA).
(d) Si λA es la matriz nula, entonces o bien λ = 0 o bien A es la matriz nula.

Finalmente hay otras dos operaciones sobre matrices que utilizaremos a lo largo del curso.
En primer lugar, está la trasposición de matrices. La matriz traspuesta de una dada A = (aij ) ∈
Mm,n (K) es la matriz que se obtiene intercambiando filas por columnas. Se denota por AT ∈
Mn,m (K) y su elemento (i, j) es aji . Por ejemplo:
 
1 2 µ ¶
  T 1 3 5
A= 3 4 ⇒A = .
2 4 6
5 6

Naturalmente, se tiene que (AT )T = A y (A + B)T = AT + B T .


La otra operación es la multiplicación de matrices. Entendamos primero cómo se emparejan
una matriz fila X = (x1 , x2 , . . . , xn ) con una matriz columna Y = (y1 , y2 , . . . , yn )T , ambas con el
mismo número de elementos. El producto es un número, dado por

XY = x1 y1 + x2 y2 + · · · + xn yn .

Desde este punto de vista, no pueden multiplicarse matrices de cualquier tamaño. Para que un
producto AB tenga sentido, el número de columnas de A ha de ser igual al número de filas
de B. En ese caso, la matriz producto C = AB tiene tantas filas como A y tantas columnas
como B. La expresión genérica de la matriz producto es la siguiente: si A = (aij ) ∈ Mm,n (K) y
B = (bjk ) ∈ Mn,p (K) entonces C = AB = (cik ) ∈ Mm,p (K) donde
n
X
cik = ai1 b1k + ai2 b2k + · · · + ain bnk = aij bjk .
j=1

Es decir, cik es el producto de la fila i−ésima de A por la columna k−ésima de B. Algunos


ejemplos pueden aclarar esta idea:

Ejemplos.
 
1
 −1 
(1 4 0 2) 
 2  = 3
3
 
  4 −1 1  
3 2 2 1  16 5 4
2 4 0
 1 −1 0 2  −1
 =  6 −9 3  .
1 0
2 0 −3 4 19 −13 6
2 −2 1

Propiedades destacables del producto son las siguientes:


(a) Asociativa: A(BC) = (AB)C.
(b) Distributiva respecto de la suma: A(B + C) = AB + AC.
(c) Matrices cuadradas y elemento unidad; inversas: las matrices cuadradas (n = m) de un orden
determinado tienen un elemento unidad para el producto, que es la matriz identidad de tal orden.

24
Sin embargo, hay matrices cuadradas que son diferentes de la matriz no nula y carecen de inversa
para el producto. La noción de matriz inversa será tratada más adelante.
(d) El producto de matrices no es conmutativo: en general AB 6= BA.
(e) Trasposición y producto: (AB)T = B T AT .
Finalmente, notemos que el sistema (2.1) puede escribirse en formulación matricial como

A~x = ~b, (2.3)

donde ~x = (x1 , x2 , . . . , xn )T y ~b = (b1 , b2 , . . . , bn )T .

2.3. Resolución por eliminación gaussiana


Vamos a presentar el método de eliminación gaussiana a través de varios ejemplos y después
justificaremos los pasos más formalmente.
Ejemplo 1. Discute y en su caso resuelve el sistema

x + 2y + z = 1
2x + y + 3z = 0 (2.4)
4x − y − 3z = 3

El método consiste en pasar de este sistema a otro equivalente más sencillo a través de un proceso
de eliminación de incógnitas. Buscamos primero eliminar la incógnita x de las ecuaciones segunda
y tercera. Para ello, restamos a la segunda ecuación dos veces la primera y a la tercera cuatro
veces la primera. Obtenemos

x + 2y + z = 1
−3y + z = −2
−9y − 7z = −1.

Ahora, eliminamos la incógnita y de la tercera ecuación, restando a ésta tres veces la segunda.
El resultado es

x + 2y + z = 1
−3y + z = −2 (2.5)
−10z = 5.

Hemos llegado a un sistema llamado de tipo triangular superior. Esto significa que la primera
variable (x) sólo aparece en la primera ecuación, la segunda (y) sólo en las dos primeras ecuaciones
y la última variable (z) en todas las ecuaciones. Parece claro que los sistemas (2.4) y (2.5) son
equivalentes, en el sentido de que, o bien son ambos incompatibles o si tienen soluciones, son las
mismas. Esto se debe a que el sistema (2.5) se obtiene de (2.4) simplemente operando con sus
ecuaciones.
Ahora bien, el sistema (2.5) puede discutirse sin aparente problema, y resolverse despejando las
incógnitas desde la última ecuación hasta la primera. Este proceso se llama sustitución regresiva.
Ası́, la última ecuación dice que

z = −5/10 = −1/2.

25
Llevando este valor a la segunda ecuación, obtenemos
−2 − z
y= = 1/2,
−3
y sustituyendo en la primera ecuación, se tiene
x = 1 − 2y − z = 1/2.
Esto significa que el sistema (2.4) es compatible (tiene solución) y determinado (la solución es
única). La solución es x = 1/2, y = 1/2, z = −1/2.

Notas
(1) Es importante indicar que cuando se elimina una variable, se comparan las ecuaciones con
una que queda fija mientras se esté eliminando esa variable. Cuando se cambia de incógnita
a eliminar, también cambiamos de ecuación con la que comparar. Ası́, en el ejemplo anterior,
eliminar x implica cambiar las ecuaciones segunda y tercera comparándolas con la primera, que
queda fija. Una vez eliminada x, nos olvidamos de la primera ecuación; para eliminar y cambiamos
la tercera ecuación comparándola con la segunda, que es ahora la que queda fija. Este proceso es
general: siempre se hace lo mismo independientemente del número de ecuaciones y de incógnitas
que tengamos:
1. Eliminar la primera incógnita de todas las ecuaciones salvo la primera, comparando aquéllas
con ésta, que queda fija.
2. Eliminar la segunda incógnita de todas las ecuaciones salvo las dos primeras, comparando
todas las ecuaciones desde la tercera con la segunda, que queda fija.
3. Repetir el proceso hasta la penúltima incógnita, que se elimina de la última ecuación,
comparando ésta con la penúltima, que queda fija.
(2) El número por el que hay que multiplicar a la ecuación fijada para eliminar la incógnita
depende de los coeficientes que tenga ésta en las ecuaciones. Por ejemplo, para eliminar y en la
tercera ecuación, hemos restado a ésta (−9)/(−3) veces la segunda ecuación, que es lo necesario
para hacer cero la posición de −9y: −9y − (−9/ − 3)(−3y) = 0.
(3) Este algoritmo puede utilizarse para discutir y en su caso resolver cualquier sistema de ecua-
ciones (véase la hoja de ejercicios).
(4) El sistema final del proceso siempre ha de quedar de tipo escalonado, en el sentido de que si
hay solución, se puedan ir despejando los valores de las incógnitas ‘desde abajo hacia arriba ’, en
el proceso que hemos llamado sustitución regresiva.
Ejemplo 2. Discute y en su caso resuelve el sistema
x − y + 2z = 1
2x + y = 3
x + 2y − 2z = 0
Repetimos el proceso del ejemplo 1. La eliminación de la incógnita x lleva al sistema
x − y + 2z = 1
3y − 4z = 1
3y − 4z = −1,

26
la eliminación de la incógnita y nos lleva a

x − y + 2z = 1
3y − 4z = 1
0 = −2.

Este es el sistema final. Notemos que la última ecuación no puede darse. Este sistema no puede
tener solución pues la última ecuación nunca puede cumplirse. Ası́, el sistema final, y por tanto
el original, es incompatible, no tiene solución.
Ejemplo 3. Discute y en su caso resuelve el sistema

−3y + 14z = 4
2x + 2y − 3z = 5
4x + 2y − 2z = 10.

Nuestro problema aquı́ está en que aparentemente no podemos empezar el proceso, pues la
incógnita x no aparece en la primera ecuación y sı́ en las demás. Esto se resuelve cambiando de
posición dos ecuaciones, por ejemplo las dos primeras (esto se llama pivotaje),

2x + 2y − 3z = 5
−3y + 14z = 4
4x + 2y − 2z = 10.

Ahora sı́ podemos empezar. Eliminando x de la última ecuación (en la segunda ya no aparece,
por lo que no hay que tocar la segunda ecuación)

2x + 2y − 3z = 5
−3y + 14z = 4
−2y + 4z = 0,

y eliminando la incógnita y de la última ecuación, comparando con la segunda, tenemos

2x + 2y − 3z = 5
−3y + 14z = 4
−16 −8
z = ,
3 3
de donde el sistema es compatible y determinado, con solución x = 9/4, y = 1, z = 1/2.
Ejemplo 4. Discute y en su caso resuelve el sistema

x + 2y + z = 0
3x − z = 2
x − y − z = 1.

El proceso (compruébese como ejercicio) lleva al sistema final

x + 2y + z = 0
−6y − 4z = 2
0 = 0.

27
La última ecuación desaparece. Esto significa que no podemos despejar la incógnita z de ella. A
pesar de esto, el sistema final no da ningún tipo de incompatibilidad, lo único que ocurre es que
la variable z puede tomar cualquier valor. El sistema es compatible e indeterminado, es decir,
tiene infinitas soluciones. Estas dependen del valor arbitrario de z. Para cada valor de z tenemos
una solución, obtenida del sistema
x + 2y = −z
−6y = 2 + 4z,
es decir, y = −(1+2z)/3, x = (1−z)/3. El conjunto de soluciones es de la forma x = (1−z)/3, y =
−(1 + 2z)/3, con z arbitrario. Ası́ pues, la aparición de una ecuación trivial en el sistema final
significa que la variable afectada toma cualquier valor, es lo que se llama una variable libre.
Hay tantas variables libres como ecuaciones triviales aparezcan en el sistema final. El sistema es
indeterminado (tiene infinitas soluciones, una por cada valor de z) y las soluciones se obtienen
despejando el resto de las variables, llamadas básicas, en función de las libres.

2.4. Interpretación matricial de la eliminación gaussiana


Pasamos ahora a dar la interpretación matricial del proceso de eliminación de incógnitas, lo
que permitirá justificar los pasos dados en los ejemplos anteriores.

2.4.1. Operaciones elementales


Puede hacerse una interpretación del método de eliminación gaussiana utilizando las llamadas
operaciones elementales. Se llama operación elemental sobre las filas de una matriz a aquella
transformación de la misma que consiste en llevar a cabo una de las tres manipulaciones siguientes:
(1) Permutar dos filas entre sı́.
(2) Multiplicar todos los elementos de una fila por un mismo número no nulo.
(3) Sumar a una fila otra fila.
Se sobreentiende que las filas no afectadas por los ı́ndices que definen la operación elemental
permanecen inalteradas. Fijémonos en que todos los pasos de la eliminación gaussiana que hemos
dado en los ejemplos anteriores involucran alguno o varios de los tres tipos de operaciones ele-
mentales, con ecuaciones en lugar de filas (ya veremos que actuar sobre las ecuaciones equivale a
actuar sobre las filas de la matriz del sistema y del término independiente).
En términos matriciales, la acción de una operación elemental sobre las filas de una matriz
A equivale a multiplicar por la izquierda la matriz A por una matriz E apropiada asociada a la
operación. Si A ∈ Mm,n (K), la matriz E ∈ Mm,m (K) y tiene un aspecto distinto dependiendo
de la operación elemental. Denotemos por Im a la matriz identidad de m filas y m columnas.
Entonces:

(1) Si la operación consiste en permutar las filas r y s (r 6= s), entonces E se obtiene de Im per-
mutando las filas r y s de ésta. De este modo, EA es una matriz que se obtiene de A permutando
sus filas r y s. Por ejemplo
     
3 2 0 0 1 6 7
A = 4 5,E = 0 1 0  ⇒ EA =  4 5.
6 7 1 0 0 3 2

28
(2) Si la operación consiste en multiplicar la fila r por un número λ 6= 0, entonces E se obtiene
de la identidad Im sustituyendo el 1 de la posición (r, r) por λ. Ası́, EA es una matriz que se
obtiene de A multiplicando por λ su fila r. Por ejemplo

µ ¶ µ ¶ µ ¶
2 5 8 1 0 2 5 8
A= ,E = ⇒ EA = .
−1 0 −1 0 4 −4 0 −4

(3) Si la operación consiste en sumar a la fila r la fila s (r 6= s) entonces E se obtiene de Im


incorporando a ésta un 1 en la posición (r, s). Ası́, EA es una matriz que se obtiene de A sumando
a su fila r la fila s. Por ejemplo

     
2 1 1 1 0 0 2 1 1
A=  4 5 0  
,E = 0  
1 0 ⇒ EA = 4 5 0.
−2 −1 −1 1 0 1 0 0 0
Por su interés para la eliminación gaussiana, destacamos la matriz asociada a la combinación
de operaciones elementales que consiste en sumar a la fila r la fila s (r 6= s) multiplicada por un
número λ 6= 0. La matriz E se obtiene de la identidad Im incorporando a ésta el valor λ en la
posición (r, s). Por ejemplo,

     
2 1 1 1 0 −1 0 0 0
A = 4 5 0,E = 0 1 0  ⇒ EA =  4 5 0.
2 1 1 0 0 1 2 1 1

2.4.2. Sistemas escalonados


Pasamos ahora a una explicación más rigurosa del método de eliminación gaussiana, utilizando
una interpretación matricial. Ya hemos visto que el sistema (2.1) puede escribirse en la forma
matricial (2.3) A~x = ~b, donde la matriz m × n

 
a11 a12 · · · · · · a1n
 a21 a22 · · · · · · a2n 
A=
 ···

··· ··· ··· ··· 
am1 am2 · · · · · · amn

se llama matriz de coeficientes de (2.1). El vector columna ~b = (b1 , b2 , . . . , bm )T es la matriz


de los términos independientes de (2.1). Las incógnitas están dispuestas en un vector columna
~x = (x1 , x2 , . . . , xn )T .
La discusión y posible resolución del sistema (2.1) parte justamente del final del proceso,
es decir, de la discusión de los sistemas finales como los que hemos obtenido en los ejemplos,
llamados sistemas con forma escalonada superior. Estos sistemas U~x = ~c tienen una matriz de
coeficientes U llamada matriz con forma escalonada superior, que se caracteriza por las siguientes
propiedades:

(a) Las primeras filas de U corresponden a filas no idénticamente nulas. El primer elemento no
nulo de cada una de estas filas se llama pivote.
(b) Debajo de cada pivote hay una columna de ceros.

29
(c) Cada pivote está a la derecha del pivote de la fila anterior.

Para sistemas lineales U~x = ~c con matriz de coeficientes U en forma escalonada superior se
verifica:

(1) El sistema es compatible si y sólo si filas nulas de U corresponden a componentes nulas del
término independiente c (recuérdense los ejemplos 2 y 4).

(2) El sistema es determinado si hay tantos pivotes como incógnitas, en cuyo caso se resuelve
por sustitución regresiva.

(3) El sistema es indeterminado si hay menos pivotes que incógnitas (ejemplo 4). En ese caso,
la solución general se obtiene por ejemplo identificando las incógnitas no asociadas a ningún
pivote (variables libres) ası́ como cada una de las incógnitas asociadas a los pivotes (variables
básicas) resolviendo por sustitución regresiva el sistema triangular superior que se obtiene al
pasar al término independiente la contribución de las variables libres (recuérdese el ejemplo
4).

2.4.3. Sistema general


Consideremos ahora el sistema lineal (2.1) general y definamos su matriz ampliada, incorpo-
rando a la matriz A del sistema el término independiente ~b como última columna,

A0 = [A|~b] ∈ Mm,n+1 (K)

Se dice que dos sistemas lineales con el mismo número de incógnitas son equivalentes si, o bien
son ambos incompatibles o bien son ambos compatibles y comparten las mismas soluciones.
Hemos visto que un paso tı́pico del método de eliminación gaussiana consiste en llevar un
sistema lineal a otro mediante operaciones elementales sobre las ecuaciones del sistema. Esta
manera de obtener las ecuaciones del sistema resultante a partir de las del sistema original hace
que los dos sistemas sean equivalentes. Pero, en términos matriciales, una operación elemental
entre ecuaciones del sistema es en realidad una operación elemental entre las filas de la matriz
ampliada (las filas de la matriz de coeficientes más las correspondientes componentes del término
independiente).
De nuevo, como ocurrı́a con el método de Horner para evaluar un polinomio, una de las ven-
tajas del método de eliminación gaussiana es su carácter algorı́tmico, que facilita su aprendizaje.
Además, nada impide que pueda aplicarse a cualquier sistema
La equivalencia entre los sistemas permite afirmar entonces que discutir y en su caso resolver
el sistema (2.1) sea equivalente a discutir y en su caso resolver el sistema escalonado obtenido. Por
otra parte, las operaciones elementales involucradas son del tipo: sumar a una fila (ecuación) otra
multiplicada por un número y probablemente intercambiar la posición de dos filas (ecuaciones).

Ası́ pues, los pasos para discutir y resolver un sistema por eliminación gaussiana son los
siguientes:

1. Utilizar las operaciones elementales indicadas sobre la matriz ampliada del sistema para
llevar éste a uno equivalente con forma escalonada superior, haciendo ceros por debajo de
los pivotes de cada fila.

30
2. Discutir el sistema escalonado resultante, según lo indicado en el apartado anterior. En
caso de que el sistema sea compatible determinado, resolver por sustitución regresiva. Si
el sistema es indeterminado, trasladar la contribución de las variables libres al segundo
miembro y resolver en las variables básicas por sustitución regresiva.

Ejemplo. Discute y resuelve en su caso el sistema


x1 + 2x2 − x3 + x4 − 2x5 = 1
2x1 − 2x2 + x3 − x4 + x5 = 1
4x1 − 10x2 + 5x3 − 5x4 + 7x5 = 1
2x1 − 14x2 + 7x3 − 7x4 + 11x5 = −1
La matriz ampliada es
 
1 2 −1 1 −2 | 1
0
 2 −2 1 −1 1 | 1 
A =
 4 −10
.
5 −5 7 | 1 
2 −14 7 −7 11 | −1
Buscamos primero la forma escalonada superior equivalente. El pivote de la primera fila es el 1
de la posición (1, 1). Para conseguir la forma escalonada superior, tenemos que hacer ceros en
todos los elementos de la primera columna por debajo del pivote. Para ello, restamos a la fila
segunda la primera multiplicada por dos (ésta es una combinación de operaciones elementales) a
la fila tercera la primera multiplicada por cuatro y a la fila cuarta la primera multiplicada por
dos. Observemos que en este primer paso la fila del pivote, la primera, queda fija. El hecho de
que la fila pivotal quede fija se repite en todo el proceso. Nos queda un sistema equivalente con
matriz ampliada
 
1 2 −1 1 −2 | 1
 0 −6 3 −3 5 | −1 
 .
 0 −18 9 −9 15 | −3 
0 −18 9 −9 15 | −3
Cambiamos ahora de fila pivotal. El pivote de la segunda fila es el −6 de la posición (2, 2). Para
llegar a la forma escalonada superior, hay que hacer ceros en la columna del pivote por debajo
de él, es decir, en las posiciones (3, 2) y (4, 2), comparando las filas tercera y cuarta con la del
pivote, es decir, la segunda. Se necesita entonces restar a la fila tercera la segunda multiplicada
por tres y a la cuarta la segunda multiplicada por tres. El resultado es un sistema equivalente
con matriz ampliada
 
1 2 −1 1 −2 | 1
 0 −6 3 −3 5 | −1 
[U |~c] = 
0
.
0 0 0 0 | 0 
0 0 0 0 0 | 0
Las siguientes filas son idénticamente nulas, ya no tenemos pivotes. Hemos alcanzado la forma
escalonada superior equivalente, que corresponde al sistema

x1 + 2x2 − x3 + x4 − 2x5 = 1
−6x2 + 3x3 − 3x4 + 5x5 = −1

31
Fijémonos en que como filas nulas de U (tercera y cuarta) corresponden a componentes nulas del
término independiente, el sistema es compatible. Puesto que sólo hay dos variables con pivote
(primera y segunda) el sistema es indeterminado y las variables libres son x3 , x4 y x5 . Pasando
al término independiente su contribución, el sistema escalonado se escribe

x1 + 2x2 = 1 + x3 − x4 + 2x5
−6x2 = −1 − 3x3 + 3x4 − 5x5 .

Para valores arbitrarios de x3 , x4 y x5 , las soluciones del sistema original son de la forma x2 =
(1 + 3x3 − 3x4 + 5x5 )/6, x1 = (2 + x5 )/3.

2.5. Matriz inversa. Método de Gauss-Jordan


Cuando se tiene una ecuación con una sola incógnita ax = b, uno sabe de qué manera se puede
despejar x: si a 6= 0, entonces x = a−1 b = b/a. Esto, que para una sola ecuación parece ridı́culo de
explicar, cambia en el caso de tener un sistema lineal con más ecuaciones e incógnitas, de forma
matricial A~x = ~b, debido a que no se pueden dividir matrices. El método de eliminación gaussiana
nos resuelve el problema de hallar ~x. Sin embargo, en algunos casos puede darse una alternativa
que es importante mencionar. Imaginemos que tenemos un sistema A~x = ~b con el mismo número
de ecuaciones que de incógnitas, es decir A ∈ Mn×n (K), compatible y determinado. Supongamos
que conociésemos una matriz B ∈ Mn×n (K) tal que

AB = BA = In , (2.6)

con In la matriz identidad de tamaño n×n. Entonces, multiplicando ambos miembros del sistema
por B, tendrı́amos
BA~x = B~b ⇒ ~x = B~b,
de manera que tal matriz B determinarı́a la solución del sistema. Dada una matriz A ∈ Mn×n (K),
la matriz B ∈ Mn×n (K) que verifica (2.6) se llama matriz inversa de A y se denota por A−1 .
Cuando una matriz A admite inversa, se dice que es regular o no singular. Si A no admite inversa,
se dice que es singular. De la propia definición se deduce algo muy importante:

MUY IMPORTANTE: Sólo las matrices cuadradas pueden tener inversa.

Además:

TAMBIÉN MUY IMPORTANTE: No todas las matrices cuadradas poseen matriz inversa.

En esta sección vamos a ver cómo determinar si una matriz cuadrada admite matriz inversa
y en su caso calcularla.

Propiedades de la inversa de una matriz


1. La inversa de una matriz, si existe, es única.
2. Si A ∈ Mn,n (K) tiene inversa, ella es la inversa de su inversa, es decir, (A−1 )−1 = A.
3. Si A, B ∈ Mn,n (K) tienen inversa, entonces AB tiene inversa, dada por (AB)−1 = B −1 A−1 .
4. Si A ∈ Mn,n (K) tiene inversa, entonces su traspuesta AT ∈ Mn,n (K) también tiene inversa,
dada por (AT )−1 = (A−1 )T .

32
5. Toda matriz E ∈ Mn,n (K) asociada a una operación elemental posee inversa.
La última propiedad mencionada tiene una importancia especial, pues hay un método para
determinar si una matriz tiene inversa, y en su caso calcularla, utilizando operaciones elementales
de un modo parecido al proceso de eliminación gaussiana. El método se llama de Gauss-Jordan.
Empezamos con un ejemplo.

Ejemplo. Vamos a determinar la matriz inversa de


 
1 3 −2
A = 2 4 0 ,
3 5 −1
si es que existe. El método de Gauss-Jordan consiste en las siguientes etapas, que depués jus-
tificaremos. Se trata de realizar apropiadas operaciones elementales sobre las filas de A, con el
objetivo de transformar A en la matriz identidad del mismo tamaño. Esas mismas operaciones
elementales han de realizarse sobre las filas de la matriz identidad. Entonces la matriz resultante
de realizar las mismas operaciones elementales sobre la matriz identidad, si el proceso no ha dado
ningún problema, es la inversa de A. Ası́, junto a la matriz A escribimos la matriz identidad del
mismo tamaño,
 
1 3 −2 1 0 0
2 4 0 0 1 0
3 5 −1 0 0 1
Realizamos operaciones elementales que llevan A a la matriz identidad. Hemos de repetir las
mismas operaciones elementales sobre las filas de la matriz identidad. Las operaciones por filas
suelen hacerse por orden, siguiendo el de la eliminación gaussiana. Ası́, en nuestro ejemplo,
hacemos ceros por debajo del primer pivote, el 1 de la posición (1, 1), restando a la fila segunda
la primera multiplicada por dos y a la fila tercera la primera multiplicada por tres. Si hacemos
esas mismas operaciones en la identidad, nos queda
 
1 3 −2 1 0 0
 0 −2 4 −2 1 0 
0 −4 5 −3 0 1
Pasando al segundo pivote, restamos a la fila tercera la segunda multiplicada por dos,
 
1 3 −2 1 0 0
 0 −2 4 −2 1 0 
0 0 −3 1 −2 1
Para la parte de la matriz A, nos acercamos a la identidad. Ya tenemos ceros en el triángulo
inferior. Nos queda hacer unos en las posiciones de la diagonal y ceros en el triángulo superior.
Para lo primero, multiplicamos por −1/2 la segunda fila y por −1/3 la tercera. Si esto lo hacemos
también a la derecha, nos queda,
 
1 3 −2 1 0 0
 0 1 −2 1 −1/2 0 
0 0 1 −1/3 2/3 −1/3
Para la segunda tarea, hacemos lo mismo que para el triángulo inferior pero desde abajo hacia
arriba, empezando por el tercer pivote. Ası́, hacemos ceros en su columna por encima de él,

33
restando a la fila segunda la tercera multiplicada por −2 y a la fila primera la tercera multiplicada
por −2. Ası́,
 
1 3 0 1/3 4/3 −2/3
0 1 0 1/3 5/6 −2/3 
0 0 1 −1/3 2/3 −1/3

Finalmente, pasando al segundo pivote, hacemos ceros por encima de él, restando a la fila primera
la segunda multiplicada por tres,
 
1 0 0 −2/3 −7/6 4/3
0 1 0 1/3 5/6 −2/3 
0 0 1 −1/3 2/3 −1/3
entonces
 
−2/3 −7/6 4/3
B =  1/3 5/6 −2/3  ,
−1/3 2/3 −1/3

es la inversa de A, pues es un ejercicio comprobar que AB = BA = I3 .


Para justificar el procedimiento, necesitamos volver a mencionar la interpretación matricial de
las operaciones elementales, de la que ya hablamos en apartados anteriores. Vimos que la acción
de una operación elemental sobre las filas de una matriz A equivale a multiplicar la matriz E
asociada a la operación por la matriz A. Recordemos que la matriz E tiene una forma distinta
según sea la operación elemental a realizar.
Teniendo esto presente, fijémonos en que si podemos realizar operaciones elementales sobre
las filas de una matriz A ∈ Mn,n (K) que consiguen transformar ésta en la identidad, entonces
matricialmente esto significa que podemos encontrar matrices elementales E1 , . . . , Ep de modo
que

Ep Ep−1 · · · E1 A = In .

Si llamamos B a la matriz producto B = Ep Ep−1 · · · E1 , la igualdad anterior significa que BA = In


y que AB = In , es decir, que B es la inversa de A. Queda sólo justificar la manera de construir
la inversa que hemos visto en el ejemplo. Si consideramos la matriz ampliada

[ A | In ] ,

tal y como hemos hecho en el ejemplo, y realizamos la primera operación elemental tanto en A
como en la identidad In , nos queda

[ E1 A | E1 In ] = [ E1 A | E1 ] .

Tras la segunda operación elemental, se tiene

[ E2 E1 A | E2 E1 ] .

Ası́ hasta completar todas las operaciones elementales; el resultado final es

[ Ep Ep−1 · · · E2 E1 A | Ep Ep−1 · · · E2 E1 ] ,

34
es decir
[ In | B].
Esto justifica la aparición de la inversa de A a la derecha, donde inicialmente estaba la matriz
identidad.
Hay algunos detalles a tener en cuenta en este método.
El método sirve también para identificar si la matriz en cuestión admite inversa. Es el mismo
procedimiento el que nos advierte; si hay un momento en el que no podemos continuar al
pretender transformar la matriz A en la identidad, entonces la matriz no será invertible.
Esto se da cuando:
(i) La primera columna de A es nula; pues entonces no podremos colocar un 1 en el
elemento (1, 1) por muchas operaciones por filas que realicemos.
(ii) La columna por debajo del elemento de la derecha de un pivote es nula; pues entonces
nunca podremos colocar un 1 en la siguiente posición de la diagonal principal de la
matriz, por muchas operaciones elementales que hagamos. Por ejemplo,
   
4 2 6 1 0 0 1 1/2 3/2 1/4 0 0
 3 0 7 0 1 0 → 0 −3/2 5/2 −3/4 1 0  ,
 
−2 −1 −3 0 0 1 0 0 0 1/2 0 1
y la matriz  
4 2 6
A=  3 0 7 
−2 −1 −3
no tiene inversa.
De nuevo, al igual que ocurrı́a con la eliminación gaussiana, hay que destacar la estructura
algorı́tmica del método, lo que facilita su aprendizaje.
Hay que observar también que, al calcular la inversa de una matriz, en ningún momento se
obtienen explı́citamente las matrices elementales E1 , . . . , Ep . Lo que importa es el producto
final Ep · · · E1 , es decir, la matriz inversa.

2.6. Resolución por determinantes


En el caso de sistemas lineales con el mismo número de ecuaciones que de incógnitas y con
solución única, hay que mencionar una alternativa para construir tal solución, que viene dada
por el concepto de determinante de una matriz.
Desde un punto de vista geométrico y en dimensiones dos y tres, podrı́a definirse el determi-
nante de una matriz en términos de áreas y volúmenes. Por ejemplo, dada una matriz 2 × 2,
µ ¶
a11 a12
A= ,
a21 a22
podrı́a definirse el determinante de A, denotado por det(A), como el área encerrada por el par-
alelogramo de aristas determinadas por las columnas de A, entendidas como vectores en el plano,
de modo que
µ ¶
a11 a12
det = a11 a22 − a21 a12 .
a21 a22

35
En el caso de una matriz 3 × 3,
 
a11 a12 a13
A =  a21 a22 a23  ,
a31 a32 a33
el determinante de A podrı́a definirse igualmente como el volumen del paralelepı́pedo cuyas aristas
están generadas por las columnas de A, entendidas como vectores en el espacio. En este caso, la
fórmula es un poco más complicada de obtener y se llama regla de Sarrus,
 
a11 a12 a13
det  a21 a22 a23  = a11 a22 a33 + a31 a12 a23 + a21 a32 a13
a31 a32 a33
= −a12 a21 a33 − a11 a32 a23 − a31 a22 a13 .
Para matrices de mayor tamaño no podemos dar una referencia geométrica realista, de manera
que la definición sigue otro enfoque.
Sea A = (aij ) ∈ Mn,n (K). Se define el determinante de A como el número
X
det(A) = π(σ)a1σ(1) a2σ(2) · · · anσ(n)
σ∈Sn
¯ ¯
¯ a11 a12 · · · · · · a1n ¯
¯ ¯
¯ a21 a22 · · · · · · a2n ¯¯
= ¯ ,
¯ ··· ··· · · · · · · · · · ¯¯
¯
¯
an1 an2 · · · · · · ann ¯
donde Sn es el conjunto de permutaciones de orden n y π(σ) la paridad de la permutación σ
(véase el tema preliminar). Cuando σ recorre Sn , los términos a1σ(1) a2σ(2) , . . . , anσ(n) describen
todos los posibles productos de n factores extraı́dos de los elementos de A con la propiedad de
que en dichos productos siempre figura un elemento de cada fila y de cada columna de A.
En el cálculo efectivo de un determinante no suele usarse la definición salvo en los ejemplos
clásicos con n = 2 y n = 3, que hemos mencionado previamente.
El cálculo de un determinante puede hacerse de varias formas, y aquı́ mencionaremos algunas.
La primera está basada en propiedades fundamentales del determinante, que pasamos a describir.
Dada A = (aij ) ∈ Mn,n (K), denotamos sus filas por F1 , . . . , Fn , es decir,
 
F1
F 
 2
 . 
A= . 
 . .
 .. 
 . 
Fn
Las propiedades son las siguientes:
1. det(A) es lineal en cada fila, es decir, si 1 ≤ k ≤ n,
(a) Para λ ∈ K,
¯ ¯ ¯ ¯
¯ F1 ¯ ¯ F1 ¯
¯ ¯ ¯ ¯
¯ F2 ¯ ¯ F2 ¯
¯ ¯ ¯ ¯
¯ .. ¯ ¯ .. ¯
¯ . ¯ ¯ . ¯
¯ ¯ ¯ ¯
¯ λF ¯ = λ ¯ F ¯ .
¯ k¯ ¯ k¯
¯ . ¯ ¯ . ¯
¯ .. ¯ ¯ .. ¯
¯ ¯ ¯ ¯
¯ F ¯ ¯F ¯
n n

36
(b) Si la fila Fk = Fk0 + Fk00 es suma de otras dos, entonces
¯ ¯ ¯ ¯ ¯ ¯
¯ F1 ¯ ¯ F1 ¯ ¯ F1 ¯
¯ ¯ ¯ ¯ ¯ ¯
¯ F2 ¯ ¯ F2 ¯ ¯ F2 ¯
¯ ¯ ¯ ¯ ¯ ¯
¯ .. ¯ ¯ .. ¯ ¯ .. ¯
¯ . ¯ ¯ . ¯ ¯ . ¯
¯ ¯ ¯ ¯ ¯ ¯
¯ F ¯ = ¯ F 0 ¯ + ¯ F 00 ¯ .
¯ k¯ ¯ k¯ ¯ k ¯
¯ . ¯ ¯ . ¯ ¯ . ¯
¯ .. ¯ ¯ .. ¯ ¯ .. ¯
¯ ¯ ¯ ¯ ¯ ¯
¯Fn ¯ ¯ ¯ ¯ ¯
Fn Fn

Por ejemplo
¯ ¯ ¯ ¯
¯2 4 6 ¯¯ ¯1 2 3 ¯¯
¯ ¯
¯0 1 −2 ¯¯ = 2 ¯¯ 0 1 −2 ¯¯
¯
¯1 4 1 ¯ ¯1 4 1 ¯
¯ ¯ ¯ ¯
¯1 2 3 ¯¯ ¯¯ 1 2 3 ¯¯
¯
= ¯¯ 0 1 −2 ¯¯ + ¯¯ 0 1 −2 ¯¯ .
¯1 4 1 ¯ ¯1 4 1 ¯

2. El determinante cambia de signo al intercambiar dos filas entre sı́.


Por ejemplo,
¯ ¯ ¯ ¯
¯2 4 6 ¯¯ ¯1 4 1 ¯¯
¯ ¯
¯0 ¯
1 −2 ¯ = − ¯¯ 0 1 −2 ¯¯ .
¯
¯1 4 1 ¯ ¯2 4 6 ¯

3. det(In ) = 1, n = 1, 2, . . ..
4. det(λA) = λn det(A).
5. Sea σ ∈ Sn y Aσ la matriz obtenida al permutar las filas de A según σ,

 
Fσ(1)
 Fσ(2) 
 
 . 
Aσ =  .
 . .

 . 
 .. 
Fσ(n)

entonces det(Aσ ) = π(σ)det(A).


Por ejemplo, si
µ ¶
1 2 3
σ= ,
3 1 2

entonces π(σ) = 1 y por tanto


¯ ¯ ¯ ¯
¯2 4 6 ¯¯ ¯¯ 0 1 −2 ¯¯
¯
¯0 1 −2 ¯¯ = ¯¯ 1 4 1 ¯¯ .
¯
¯1 4 1 ¯ ¯2 4 6 ¯

6. Si A tiene dos filas iguales, entonces det(A) = 0.

37
Por ejemplo,
¯ ¯ ¯ ¯
¯2 4 6 ¯¯ ¯1 2 3 ¯¯
¯ ¯
¯1 2 3 ¯¯ = 2 ¯¯ 1 2 3 ¯¯ = 0.
¯
¯0 1 1¯ ¯0 1 1¯

7. El determinante no cambia cuando a una fila se le suma una combinación lineal de las restantes
filas.
Por ejemplo,
¯ ¯ ¯ ¯ ¯ ¯
¯2 4 6 ¯¯ ¯¯ 2 4 6 ¯¯ ¯¯ 2 4 6 ¯¯
¯
¯0 1 −2 ¯¯ = ¯¯ 0 1 −2 ¯¯ = ¯¯ 0 1 −2 ¯¯ .
¯
¯1 4 1 ¯ ¯0 2 −2 ¯ ¯ 0 0 2 ¯

8. Si A tiene una fila nula, entonces det(A) = 0.


9. Si T = (tij ) es una matriz triangular (superior o inferior), entonces det(T ) = t11 t22 · · · tnn .
Por ejemplo,
¯ ¯ ¯ ¯
¯2 4 6 ¯¯ ¯¯ 2 4 6 ¯¯
¯
¯0 1 −2 ¯¯ = ¯¯ 0 1 −2 ¯¯ = 4.
¯
¯1 4 1 ¯ ¯0 0 2 ¯

10. det(AB) = det(A)det(B). En particular, si A es invertible, entonces det(A−1 ) = 1/det(A).


11. det(AT ) = det(A). En consecuencia, cada propiedad para las filas tiene una análoga para las
columnas.

Lo aconsejable para calcular determinantes, sobre todo si son grandes, es hacer uso de estas
propiedades fundamentales, aplicándolas para ir transformando el determinante en otros más
fáciles de calcular. Lo usual suele ser reducir con operaciones elementales el cálculo del determi-
nante al de una matriz triangular (véase el ejemplo en las propiedades 7 y 9). Por ejemplo,
¯ ¯ ¯ ¯
¯1 3 1 1¯ ¯1 3 1 1¯
¯ ¯ ¯ ¯
¯2 1 5 ¯ ¯
2 ¯ ¯ 0 −5 3 0 ¯¯
¯ =
¯1 −1 2 3 ¯¯ ¯¯ 0 −4 1 2 ¯¯
¯
¯ ¯ ¯
4 1 −3 7 0 −11 −7 3 ¯
¯ ¯ ¯ ¯
¯1 3 1 1¯ ¯1 3 1 1 ¯
¯ ¯ ¯ ¯
¯0 −5 3 ¯ ¯
0 ¯ ¯ 0 −5 3 0 ¯
¯ = ¯ = −115.
¯0 0 ¯ ¯
−7/5 2 ¯ ¯ 0 0 −7/5 2 ¯
¯ ¯
¯ ¯ ¯
0 0 −68/5 3 0 0 0 −115/7 ¯

2.6.1. Desarrollo por los elementos de una lı́nea


Otro método más elaborado para calcular un determinante es el desarrollo por los elementos
de una fila o una columna. Dada una matriz A = (aij ) ∈ Mn,n (K) se llama menor complementario
αkl del elemento akl al determinante de la matriz (n − 1) × (n − 1) obtenida de A al suprimir su
fila k y su columna l. El cofactor de akl se define como

Akl = (−1)k+l αkl .

38
Entonces, para cualquier fila k se satisface la fórmula
det(A) = ak1 Ak1 + ak2 Ak2 + · · · + akn Akn ,
llamada desarrollo del determinante por los elementos de la fila k. Hay una fórmula análoga para
el desarrollo del determinante por una columna cualquiera l:
det(A) = a1l A1l + a2l A2l + · · · + anl Anl .
Por ejemplo
¯ ¯
¯2 4 6 ¯¯ ¯ ¯ ¯ ¯ ¯ ¯
¯ ¯ 1 −2 ¯ ¯ 0 −2 ¯ ¯0 1¯
¯0 ¯ ¯
1 −2 ¯ = 2 ¯ ¯ − 4¯¯ ¯ + 6¯¯ ¯ = 4.
¯ 4 1 ¯ 1 1 ¯ 1 4¯
¯1 4 1 ¯
¯ ¯
¯2 4 6 ¯¯ ¯ ¯ ¯ ¯ ¯ ¯
¯ ¯ 0 −2 ¯ ¯ 2 6 ¯ ¯2 6 ¯¯
¯0 ¯
1 −2 ¯ = −4 ¯ ¯ ¯ + ¯ ¯ − 4¯¯ = 4.
¯ 1 1 ¯ ¯1 1¯ 0 −2 ¯
¯1 4 1 ¯

Como se ve, el método reduce el cálculo de un determinante de una matriz al de determinantes


de matrices de un orden menos.

2.6.2. Matrices inversas y sistemas de Cramer


Dos son las utilidades que tienen los determinantes en relación con los sistemas lineales: el
cálculo de la inversa de una matriz invertible y las llamadas fórmulas de Cramer. Ambas son de
uso limitado, precisamente por lo tedioso del cálculo de los determinantes.
Respecto a la primera aplicación, dada una matriz A = (aij ) ∈ Mn,n (K) se llama matriz de
adjuntos o de cofactores de A a la matriz obtenida a partir de los cofactores de A que hemos
definido anteriormente, es decir,
 
A11 A12 · · · · · · A1n
 A21 A22 · · · · · · A2n 
Aadj = (Aij ) = 
 ···
.
··· ··· ··· ··· 
An1 An2 · · · · · · Ann
Entonces, se puede comprobar la fórmula
A(Aadj )T = (Aadj )T A = det(A)In .
Esto implica el siguiente resultado: A admite inversa si y sólo si det(A) 6= 0, en cuyo caso se tiene
1
A−1 = (Aadj )T .
det(A)
Por ejemplo, si
 
2 4 6
A = 0 1 −2  ,
1 4 1
entonces, se puede comprobar que
 
9 −2 −1
Aadj =  20 −4 −4  ,
−14 4 2

39
y por tanto
 
9 20 −14
1
A−1 =  −2 −4 4 .
4
−1 −4 2

Por otra parte, en el caso de un sistema A~x = ~b con el mismo número de ecuaciones que
incógnitas (A cuadrada) y con solución única (det(A) 6= 0), se puede obtener ésta a través de las
llamadas fórmulas de Cramer. Utilizando la expresión anterior de A−1 , tenemos
1
~x = A−1~b = (Aadj )T ~b,
det(A)

lo que lleva a que la solución ~x = (x1 , . . . , xn )T se pueda escribir como


det(Aj )
xj = , j = 1, . . . , n,
det(A)
siendo Aj la matriz obtenida a partir de la matriz A sustituyendo la columna j de ésta por el
vector ~b = (b1 , . . . , bn )T . Estas son las llamadas fórmulas de Cramer.

EJERCICIOS DEL TEMA 1

Ejercicio 1. Resuelve los dos apartados del ejemplo introductorio.

Ejercicio 2. Halla con las matrices siguientes las operaciones que se indican: A − 2B, 3A − C, A +
B + C, A2 ;
     
1 −1 2 0 2 1 0 0 2
A = 3 4 5 , B = 3 0 5, C = 3 1 0.
0 1 −1 7 −6 0 0 −2 4
Determina una matriz D tal que A + B + C + D sea la matriz nula 3 × 3. Determina una matriz
E tal que 3C − 2B + 8A − 4E sea la matriz nula 3 × 3.

Ejercicio 3. Calcula los siguientes productos de matrices


     
3 −6 1 1
 2 4   −1   −1 
(1 4 0 2)
 1
, (1 4 0 2) 
 2 ,
 
 2 (1 4 0 2),
0 
−2 3 3 3
 
3 −6   
 2 3 2 2 4 −1 1
4 
(1 4 0 2)
 1
,  1 −1 0  2 4 0,
0 
2 0 −3 −1 1 0
−2 3
 
  2 −1
3 −1 1 1 
2 0 
 2 −4 0 2  −1
.
1 
1 0 −3 2
3 −2

40
Ejercicio 4. Estudia y, en los casos de compatibilidad, calcula la solución general de los sistemas
lineales Ax = b con coeficientes reales, cuando A y b valen
   
3 −1 1 2 −1
 0 1 0 2   0 
A=  6
 b= 
2 1 5   5 
−3 3 1 −1 4
   
1 0 1 2 4 4
A =  4 −1 3 1 3  b = 9
2 2 0 1 0 5
   
2 −1 0 −4
 4 −2 0   8 
   
   
A = 0 2 1  b= 4 
   
2 1 1   0 
2 −5 −2 −12
   
1 0 2 1 0
 2 2 −1 3  0
A= 1 2
 b= 
1 4 0
5 4 −4 5 0

Ejercicio 5. Resuelve los siguientes sistemas lineales

x+y+z+t=7 x+y+z+t=7
x+y + 2t = 8 x+y + 2t = 5
2x + 2y + 3z = 10 2x + 2y + 3z = 10
−x − y − 2z + 2t = 0 − x − y − 2z + 2t = 0

x − y + 2z − t = −8 2x + 4y − z = −5
2x − 2y + 3z − 3t = −20 x + y − 3z = −9
x + y + z = −2 4x + y + 2z = 9
x − y + 4z + 3t = 4

Ejercicio 6. Discute los siguientes sistemas en función de los parámetros a y b:


x + ay + a2 z = 1 x + y + az = a2
a) x + ay + abz = a b) x + ay + z = a .
bx + a2 y + a2 bz = a2 b ax + y + z = 1

Ejercicio 7. Halla todas las soluciones de cada uno de los sistemas:

(3 − 2i)x1 + x2 − 6x3 + x4 = 0
x1 − ix2 − x4 = 0
2x1 + x2 − (3 + i)x3 = 0
x1 + x2 − 2x3 − (1 + 2i)x4 = 0.

41
x1 + 2ix3 − 2ix4 = 2
x2 + 2x3 + 2x4 = 1
x1 + (1 + i)x3 + (1 − i)x4 = 0
x1 + x2 = 0.

Ejercicio 8. Se considera el sistema lineal


 
x1  
 x2  b1
  ~
A   = b = b2  .

x3
b3
x4

donde  
0 1 2 1
A= 1 4 −1 0.
−1 −3 3 1
Establece una relación entre las componentes del término independiente ~b = (b1 , b2 , b3 )T para que
el sistema anterior sea compatible.

Ejercicio 9. Calcula la matriz elemental E tal que EA = B:


   
1 2 1 2
A = 3 4,B = 5 6
5 6 3 4
   
1 2 1 2
A = 3 4  , B =  0 −2 
5 6 5 6
   
1 2 5 2 1 2 5 2
A =  0 −1 3 4  , B =  0 −1 3 4 
5 0 −2 7 0 −10 −27 −3

Ejercicio 10. Dados los cuatro sistemas lineales de tres ecuaciones y tres incógnitas con la misma
matriz de coeficientes

2x − 3y + z = 2 2x − 3y + z = 6
x + y − z = −1 x+y−z =4
−x + y − 3z = 0 −x + y − 3z = 5

2x − 3y + z = 0 2x − 3y + z = −1
x+y−z =1 x+y−z =0
−x + y − 3z = −3 −x + y − 3z = 0

42
a) Resuelve los sistemas lineales aplicando eliminación gaussiana a la matriz aumentada
 
2 −3 1 : 2 6 0 −1
 1 1 −1 : −1 4 1 0 
−1 1 −3 : 0 5 −3 0

b) Resuelve los sistemas lineales aplicando el método de Gauss-Jordan a la matriz anterior.


c) Resuelve los sistemas lineales encontrando la inversa de la matriz del sistema y multiplicando.

Ejercicio 11. Determina cuáles de las siguientes matrices tienen inversa y, en caso afirmativo,
hállala.    
4 2 6 1 2 0
A=  3 0 7 , B = 2 1 −1 

−2 −1 −3 3 1 1
   
1 1 −1 1 2 3 1 2
 1 2 −4 −2   −2 4 −1 5
C=
 2
, D= 
1 1 5   3 7 3/2 1
−1 0 −2 −4 6 9 3 7
   
4 0 0 0 2 0 1 2
6 7 0 0 1 1 0 2
E= 
 9 11 1 0  , F = 
 2 −1 3 1 
5 4 1 1 3 −1 4 3

Ejercicio 12. Sea A una matrizreal 4x4 cuya inversa es


1 2 3 4
 −2 −5 −7 −9 
A−1 =   1

3 5 7 
4 8 2 0
Sea B la matriz que se obtiene de A mediante las relaciones
b3,j = a3,j − a4,j + a1,j − a2,j 1 ≤ j ≤ 4
bi,j = ai,j i = 1, 2, 4 1 ≤ j ≤ 4.
Halla B −1 .

Ejercicio 13. Calcula, utilizando la definición, las fórmulas para el determinante de una matriz
A 2 × 2 cualquiera y de una matriz A 3 × 3 cualquiera.

Ejercicio 14. (a) Da un ejemplo de dos matrices A y B para las cuales det(A+B) 6=detA+detB.
(b) Si B = P −1 AP , ¿por qué es detB =detA?
(c) Una matriz formada por ceros y unos, ¿ tiene determinante igual a 0, 1 ó −1 ?
(d) Demuestra que el determinante de una matriz antisimétrica de orden impar es 0.
Nota: Una matriz A es antisimétrica si AT = −A.

Ejercicio 15. Sin desarrollar el determinante, demuestra que


¯ ¯
¯1 a b + c ¯¯
¯
¯1 b a + c ¯¯ = 0. a, b, c ∈ C.
¯
¯1 c a + b¯

43
Ejercicio 16. Evalúa los determinantes siguientes:
¯ ¯ ¯ ¯
¯ 6 2 1 0 5 ¯¯ ¯ 1 2 −1 3 1 ¯¯
¯ ¯
¯ 2 1 1 −2 1 ¯¯ ¯ 2 −1 1 −2 3 ¯¯
¯ ¯
¯ ¯ ¯ ¯
¯ 1 1 2 −2 3 ¯ , ¯ 3 1 0 2 −1 ¯ .
¯ ¯ ¯ ¯
¯ 3 0 2 3 −1 ¯¯ ¯ 5 1 2 −3 4 ¯¯
¯ ¯
¯ −1 −1 −3 4 2 ¯ ¯ −2 3 −1 1 −2 ¯
¯ ¯ ¯ ¯
¯1 3 1 1¯ ¯1 1 −2 4 ¯
¯ ¯ ¯ ¯
¯2 1 5 2 ¯¯ ¯0 1 1 3 ¯¯
¯ , ¯ .
¯1 −1 2 3 ¯¯ ¯2 −1 1 0 ¯¯
¯ ¯
¯ ¯ ¯ ¯
4 1 −3 7 1 1 2 5
¯ ¯ ¯ ¯
¯ 1 1 i 0¯ ¯1 − i 0 2i −2i ¯
¯ ¯ ¯ ¯
¯ i 0 −3 2 ¯¯ ¯ 0 1 2 2 ¯¯
¯ , ¯ .
¯ 2 + 2i2 2i − 6 4 ¯¯ ¯ 1 0 1 + i 1 − i ¯¯
¯ ¯
¯
4i + 5 1 −3 − i 0¯ ¯
1 1 0 0 ¯

ALGUNOS EJERCICIOS RESUELTOS DEL TEMA 1

Ejercicio 4.
Primer sistema: compatible determinado. Solución: x1 = 1, x2 = 2, x3 = 0, x4 = −1.
Segundo sistema: compatible indeterminado.
Tercer sistema: incompatible.
Cuarto sistema: compatible determinado. Solución: x1 = 0, x2 = 0, x3 = 0, x4 = 0.

Ejercicio 5.
Primer sistema: compatible indeterminado. Solución: x = 8 − y, z = −4, t = 3.
Segundo sistema: incompatible.
Tercer sistema: compatible determinado. Solución: x = −7, y = 3, z = 2, t = 2.
Cuarto sistema: compatible determinado. Solución: x = 1, y = −1, z = 3.

Ejercicio 6.
Sistema (a). Tres casos:

Si a 6= 0 y a 6= b, sistema compatible determinado.

Si a = 0, sistema incompatible.

Si a = b, el sistema es compatible indeterminado si a = 1 e incompatible si a 6= 1.

Sistema (b). Tres casos:

Si a 6= 1 y a 6= −2, sistema compatible determinado.

Si a = −2, sistema incompatible.

Si a = 1, sistema compatible indeterminado.

44
Ejercicio 7. El primer sistema es compatible indeterminado. Las soluciones son de la forma
2i 2
x1 = 1+i x3 , x2 = 1+i x3 , x4 = 0.

Ejercicio 8. b2 + b3 − b1 = 0.

Ejercicio 9.
     
1 0 0 1 0 0 1 0 0

E= 0 0   
1 , E = −3 1 0 , E =  0 1 0.
0 1 0 0 0 1 −5 0 1

Ejercicio 10. Las soluciones de los sistemas son los siguientes:


Primer sistema: x = −4/14, y = −13/14, z = −3/14. Segundo sistema: x = 34/14, y =
−19/14, z = −41/14. Tercer sistema: x = 1, y = 1, z = 1. Cuarto sistema: x = −1/7, y = 2/7, z =
1/7.

Ejercicio 11. A no tiene inversa.


 
−2 2 2
1
B −1 =  5 −1 −1  .
8
1 −5 3

C no tiene inversa. D no tiene inversa.


   
7 0 0 0 3 0 3 −3
1  −6 4 0 0  1  −3 5 5 −3 
E −1 = 

 , F −1 = 
 
.
28 3 −44 28 0 3 −3 2 2 0 
−14 28 −28 28 0 −1 −4 3

Ejercicio 12.  
−2 5 3 7
 5 −12 −7 −16 
B −1 =
 −4
.
8 5 12 
2 10 2 2

Ejercicio 15.
¯ ¯ ¯ ¯ ¯ ¯
¯1 a b + c ¯¯ ¯¯ 1 a a + b + c ¯¯ ¯1 a 1¯
¯ ¯ ¯
¯1 ¯ ¯ ¯
b a + c ¯ = ¯ 1 b a + b + c ¯ = (a + b + c) ¯¯ 1 b 1 ¯¯ = 0.
¯
¯1 c a + b¯ ¯1 c a + b + c¯ ¯1 c 1¯

Ejercicio 16.
Primer determinante = −24. Segundo determinante = −32.Tercer determinante = −115.Cuarto
determinante = 4.Quinto determinante = 0.Sexto determinante = −4 + 8i.

45
Tema 3

Espacios vectoriales y aplicaciones


lineales

Varios son los objetivos de este tema. A diferencia de la lección anterior, que trataba de
resolver problemas concretos encontrando algoritmos apropiados para ello, aquı́ buscamos reglas
para manejar vectores. Cuando se habla de vectores, uno piensa en principio en los vectores del
plano (que ya hemos tratado someramente al explicar los números complejos) o los vectores en el
espacio tridimensional. Estos son, sin embargo, ejemplos de una estructura, la de espacio vectorial,
que tiene sentido sin la referencia geométrica. De esta forma, la palabra vector ha de entenderse
en un sentido más general, como elemento de un conjunto que tiene unas reglas operacionales
determinadas. Ası́, los polinomios son vectores, las matrices son vectores, etc. Tenemos entonces
que explicar lo que se entiende por espacio vectorial, las operaciones entre sus elementos, los
vectores, y las relaciones entre espacios vectoriales a través de las aplicaciones lineales.

3.1. Ejemplo. Vectores en el plano


Para introducir la idea de lo que es un espacio vectorial, vamos a recordar alguno de los más
conocidos y utilizados. Vamos a considerar el conjunto de vectores ~v en el plano con base en el
origen, que naturalmente se puede identificar con el conjunto de puntos (x, y), con x, y ∈ R, es
decir, R2 . Recordemos que para generar nuevos elementos en R2 podemos sumar vectores
µ ¶ µ ¶ µ ¶
x1 x2 x1 + x2
~v1 = , ~v2 = ⇒ ~v1 + ~v2 = ,
y1 y2 y1 + y2

o multiplicar un número real por un vector:


µ ¶ µ ¶
x λx
λ ∈ R, ~v = ⇒ λ~v = .
y λy

El hecho de que estas dos operaciones entre vectores en el plano verifiquen una serie de reglas
(véase la definición general) significa que el conjunto de vectores en el plano con base en el origen
o R2 adquiere lo que se llama estructura de espacio vectorial. De manera que, en general, para
obtener un espacio vectorial, necesitamos un conjunto de elementos y dos operaciones sobre ese
conjunto que permitan generar nuevos elementos y que sigan unas reglas apropiadas.

46
3.2. Espacios vectoriales
Únicamente consideraremos espacios vectoriales sobre el cuerpo K = R ó C. Un espacio
vectorial (e. v.) sobre el cuerpo K de escalares es un conjunto no vacı́o V formado por elementos
~x ∈ V , dotado de una operación interna + : V ×V → V y de una operación externa · : K×V → V
de manera que se verifican las propiedades siguientes:
(1) Para cualesquiera ~x, ~y , ~z ∈ V
~x + (~y + ~z) = (~x + ~y ) + ~z.

(2) Para cualesquiera ~x, ~y ∈ V


~x + ~y = ~y + ~x.

(3) Existe un elemento neutro ~0 ∈ V tal que para cada ~x ∈ V se tiene que ~x + ~0 = ~0 + ~x = ~x.
(4) Para cada ~x ∈ V existe un elemento opuesto −~x ∈ V tal que ~x + (−~x) = (−~x) + ~x = ~0.
(5) Para cada ~x ∈ V y α, β ∈ K,
α · (β · ~x) = (αβ) · ~x.

(6) Para cada ~x ∈ V y α, β ∈ K,


(α + β) · ~x = (α · ~x + β · ~x).

(7) Para cada ~x, ~y ∈ V y α ∈ K,


α · (~x + ~y ) = (α · ~x + α · ~y ).

(8) Si ~x ∈ V y α ∈ K son tales que α · ~x = 0, entonces necesariamente α = 0 ó ~x = ~0.


Los elementos de un espacio vectorial se llaman vectores.

Ejemplos

1. V = Rn con las operaciones


(x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn )
α(x1 , . . . , xn ) = (αx1 , . . . , αxn ), α ∈ R,
es un espacio vectorial para n = 1, 2, 3, . . ..

2. V = C n con las operaciones de antes puede ser un espacio vectorial sobre R o sobre C.

3. V = Mm,n (K), con las operaciones definidas en el tema 1, es un espacio vectorial sobre K.

4. V = P [X], espacio de todos los polinomios en una variable y coeficientes complejos, es, con
las operaciones habituales de suma de polinomios y producto de un polinomio por un escalar, un
espacio vectorial sobre K.

5. V = Pn [X], espacio de los polinomios en una variable, coeficientes complejos y grado a lo sumo
n es, con las operaciones habituales de suma de polinomios y producto de un polinomio por un
escalar, un espacio vectorial sobre K.

47
3.2.1. Combinaciones lineales. Subespacios vectoriales
Ası́ pues, un hecho importante de los espacios vectoriales es que se pueden sumar vectores y
multiplicar vectores por escalares, es decir, formar combinaciones lineales de vectores, obteniendo
ası́ nuevos elementos del espacio vectorial. Dado un e.v. V sobre K, se dice que un vector ~v ∈ V es
combinación lineal del sistema finito {~v1 , ~v2 , . . . , ~vm } si existen escalares λ1 , λ2 , . . . , λm de manera
que
m
X
~v = λ1~v1 + λ2~v2 + · · · + λm~vm = λk~vk .
k=1

Notemos que el vector ~0 es combinación lineal de cualquier sistema de vectores.


Dentro de un espacio vectorial puede haber conjuntos que son en sı́ mismos espacios vecto-
riales. Por ejemplo, cualquier plano que pase por el origen en R3 . Son los llamados subespacios
vectoriales, es decir, subconjuntos que son cerrados bajo las operaciones del espacio vectorial.
Definición. Sea V un e.v. sobre K. Se dice que un subconjunto no vacı́o W ⊂ V es un subespacio
vectorial si cumple:
(i) ~x + ~y ∈ W si ~x, ~y ∈ W .
(ii) λ~x ∈ W si λ ∈ K, ~x ∈ W .
Esto equivale a la siguiente condición: W es subespacio vectorial si y sólo si toda combinación
lineal de elementos de W es a su vez un elemento de W . En particular, el vector ~0 está en todo
subespacio.

Ejemplos

(1) Para una matriz A ∈ Mm,n (K) el conjunto de soluciones del sistema lineal homogéneo A~x = ~0
es un subespacio vectorial de Kn .
(2) El conjunto de vectores de R3 ,
W = {(0, 0, 1)T , (0, 1, 0)T },
no es un subespacio vectorial, pues el vector (0, 0, 1)T + (0, 1, 0)T = (0, 1, 1)T no pertenece a W .
Todo conjunto de vectores G, aunque no sea un subespacio vectorial, lleva asociado uno. Es
el llamado espacio generado por G y es el conjunto de todas las combinaciones lineales formadas
con elementos de G. Es el mı́nimo subespacio vectorial que contiene a G y se denota por hGi o
span(G).

Ejemplos
(1) Para una matriz A ∈ Mm,n (K) se puede definir: 1. El espacio columna de A, que es el
subespacio de Km generado por las columnas de A. 2. El espacio fila de A, que es el subespacio
de Kn generado por las filas de A.
(2) El conjunto de vectores de R3 ,
G = {(0, 0, 1)T , (0, 1, 0)T },
genera el subespacio vectorial
hGi = {(x, y, z)T ∈ R3 /x = 0}.

48
3.2.2. Dependencia e independencia lineal. Bases y dimensión
Una descripción más explı́cita de un e.v. puede darse a partir de relaciones entre sus elementos
los vectores.
Sea V un e.v. Se dice que los vectores ~x1 , . . . , ~xn ∈ V son linealmente dependientes si existen
escalares λ1 , . . . , λn ∈ K no todos nulos verificando

λ1 ~x1 + · · · + λn ~xn = ~0.

Esto significa que algún vector del sistema es combinación lineal de los restantes. Recı́procamente,
si un vector ~x ∈ V es combinación lineal de los vectores ~x1 , . . . , ~xn entonces existen escalares
λ1 , . . . , λn con

~x = λ1 ~x1 + · · · + λn ~xn ,

es decir,

(−1)~x + λ1 ~x1 + · · · + λn ~xn = ~0,

y los vectores ~x, ~x1 , . . . , ~xn son linealmente dependientes.


Se dice que los vectores ~x1 , . . . , ~xn ∈ V son linealmente independientes cuando no son lineal-
mente dependientes, es decir, si ninguno de los vectores es combinación lineal de los restantes.
Esto significa que si planteamos una combinación lineal nula

λ1 ~x1 + · · · + λn ~xn = ~0,

entonces necesariamente λ1 = · · · = λn = 0. Luego veremos un método práctico para determinar


la independencia lineal de un conjunto de vectores dado.

Si consideramos los vectores como flechas desde el origen, no es difı́cil visualizar la dependencia
lineal en el espacio tridimensional. Dos vectores son dependientes si están en la misma recta, y
tres vectores son dependientes si están en el mismo plano.
Por ejemplo, las columnas de la matriz
 
1 3 0
A=  2 6 1 ,
−1 −3 −3
son linealmente dependientes, ya que la segunda columna es tres veces la primera. Un poco más
complicado de ver es que las filas son también dependientes.
Se dice que un conjunto finito de vectores {~x1 , . . . , ~xn } es libre cuando los vectores ~x1 , . . . , ~xn
son linealmente independientes. Caso de no ser libre, el conjunto se denomina ligado.
Pasamos ahora a explicar lo que es una base en un espacio vectorial. Para manejar en la
práctica muchos espacios vectoriales, se suele buscar un conjunto finito y destacado de vectores,
de manera que cualquier otro vector del espacio vectorial pueda escribirse como combinación lineal
de los vectores de este conjunto. Esto no siempre puede hacerse, pues hay espacio vectoriales que
no pueden describirse completamente por un conjunto finito de vectores. Sin embargo, hay otros
que sı́ admiten tal propiedad; son los llamados espacios vectoriales de generación finita. Por
ejemplo, todo vector de R3 (x, y, z)T es una combinación lineal

x(1, 0, 0)T + y(0, 1, 0)T + z(0, 0, 1)T

49
de los vectores (1, 0, 0)T , (0, 1, 0)T , (0, 0, 1)T ; de este modo, el espacio vectorial R3 es de generación
finita, pues todo vector de R3 puede escribirse como combinación lineal de un conjunto finito de
vectores.
Vamos a restringirnos a partir de ahora a espacios vectoriales de generación finita. Se dice
que un conjunto G = {~x1 , . . . , ~xn } de vectores de un espacio vectorial V es un sistema generador
de V si todo vector de V puede escribirse como combinación lineal de los vectores de G.
Para poder describir completamente todos los vectores de un espacio vectorial, necesitaremos
entonces que éste admita un sistema de generadores. Sin embargo, no es suficiente con esto. Para
ver el porqué, consideremos el siguiente ejemplo de vectores en el plano:

~v1 = (1, 0)T , ~v2 = (0, 1)T , ~v3 = (1, 1)T .

Cualquier vector ~v = (x, y)T de R2 se puede escribir como combinación lineal de estos tres
vectores; por ejemplo,

~v = x~v1 + y~v2 + 0~v3 .

De esta manera, el conjunto G = {~v1 , ~v2 , ~v3 } es un conjunto de generadores de R2 . Sin embargo,
hay un problema. Por ejemplo, el vector ~v = (1, 1)T se puede escribir como

~v = 2~v1 + 0~v2 − ~v3 ,

o también como

~v = −~v1 + ~v2 + 2~v3 .

El hecho de que un mismo vector se pueda escribir como combinación lineal de los tres vectores de
más de una forma da lugar a confusión. Ası́, necesitamos que los vectores del sistema generador
que tomemos verifiquen que cualquier vector se pueda escribir como combinación lineal de ellos
sólo de una forma.
Siguiendo con el mismo ejemplo, observemos que si ahora tomamos el conjunto G0 = {~v1 , ~v2 },
éste sigue siendo un sistema de generadores de vectores del plano, pues si ~v = (x, y)T es cualquiera,
se puede escribir

~v = x~v1 + y~v2 .

La diferencia entre G y G0 es que el primero es un sistema libre y el segundo es ligado. El hecho de


conseguir que los vectores que formen G0 sean linealmente independientes implica que cualquier
vector se puede escribir como combinación lineal de tales vectores sólo de una forma. En efecto,
si tenemos un vector cualquiera ~v escrito, con respecto a G0 , de dos formas

~v = x~v1 + y~v2 = x0~v1 + y 0~v2 ,

entonces se tiene

(x − x0 )~v1 + (y − y 0 )~v2 = ~0,

y como ~v1 y ~v2 son independientes, necesariamente x − x0 = y − y 0 = 0, es decir, x = x0 , y = y 0 ;


luego ~v se escribe sólo de una forma con respecto a los vectores de G0 .
Generalizando lo razonado para el ejemplo a un espacio vectorial cualquiera, observamos que
para evitar que un vector pueda expresarse de más de una forma como combinación lineal de los

50
vectores de un sistema generador, hay que exigir a éstos que sean linealmente independientes.
Esto da lugar a la definición de base. Se dice que un conjunto de vectores B = {~x1 , . . . , ~xn } ⊂ V
es una base de V cuando B es un sistema generador y libre. Añadir la propiedad de independencia
lineal a la de generador implica que cada vector ~v ∈ V puede expresarse de una y sólo una manera
como combinación de los vectores de una base.
A todo esto hay que añadir dos cosas: la primera es que podemos tener más de una base en
un espacio vectorial de generación finita. Ası́, en el ejemplo anterior, G0 forma una base, pero
también G00 = {~v1 , ~v3 } forma una base, o también G000 = {~v2 , ~v3 }. Lo segundo a mencionar es el
llamado teorema de la base:

Teorema 2. Todas las bases de un espacio vectorial de generación finita V son finitas y poseen el
mismo número de elementos. Este número se denomina dimensión del e. v. V y se escribe dimK V .

Ejemplos.

(1) Bases canónicas (véase el ejercicio 1). Ya hemos visto que los vectores (1, 0, 0)T , (0, 1, 0)T , (0, 0, 1)T
constituyen un sistema generador de R3 . Además, son linealmente independientes, pues cualquier
combinación lineal nula de ellos

λ1 (1, 0, 0)T + λ2 (0, 1, 0)T + λ3 (0, 0, 1)T = (0, 0, 0)T ,

genera un sistema lineal de tres ecuaciones trivial con λ1 = λ2 = λ3 = 0. De este modo, forman
una base de R3 llamada base canónica. Por tanto dimR R3 = 3.

(2) En general, la base canónica de Rn como espacio vectorial sobre R es el conjunto de n vectores,

~e1 = (1, 0, 0, . . . , 0)T


~e2 = (0, 1, 0, . . . , 0)T
.. ..
. .
~en = (0, 0, 0, . . . , 1)T ,

de modo que dimR Rn = n, n = 1, 2, . . ..

(3) En el espacio de los polinomios de grado menor o igual que un entero no negativo n y
coeficientes reales, denotado por Pn [X], la base canónica viene dada por los monomios

1, x, x2 , . . . , xn ,

de manera que dimR Pn [X] = n + 1, n = 0, 1, . . ..

Las siguientes propiedades establecen las formas para obtener bases de sistemas generadores
y de sistemas libres.

Teorema 2. Sea V un espacio vectorial de dimensión n. Se satisfacen las siguientes propiedades:


1. Un sistema generador G ⊂ V es una base si y sólo si no se puede reducir a un nuevo sistema
generador.

2. Siempre se puede obtener una base B de un sistema generador, descartando vectores si es


necesario.

51
3. Si G es un sistema generador, entonces tiene como mı́nimo n elementos. Además, G es una
base si y sólo si contiene exactamente n elementos.

4. Un sistema libre L ⊂ V es una base si y sólo si no se puede ampliar a otro sistema libre.

5. Cualquier sistema libre se puede extender a una base, añadiendo más vectores si es necesario.

6. Si L es un sistema libre, entonces tiene a lo sumo n elementos. Además, L es una base si y


sólo si tiene exactamente n elementos.

7. Todo subespacio W de V tiene dimensión menor o igual que n. Si la dimensión de W es n,


entonces W = V .

Por tanto, una base es un conjunto independiente máximo. No puede ser más grande porque
entonces perderı́a la independencia (propiedad 4 del Teorema 2). No puede ser menor porque
entonces no generarı́a todo el espacio (propiedad 1 del Teorema 2).
En términos generales, para determinar si un conjunto de vectores forma una base, hemos
de comprobar que es un sistema generador y que es un sistema libre. Sin embargo, los distintos
resultados del Teorema 2 tienen su aplicación a la hora de determinar bases de un espacio vectorial.
En este sentido, las propiedades 3 y 6 son bastante útiles cuando se conoce la dimensión del
espacio en el que está uno trabajando. Ası́, la propiedad 3 dice, por ejemplo, que si tenemos
tres vectores en R3 que forman un sistema generador, entonces directamente forman una base,
pues su número es exactamente la dimensión de R3 . Nos ahorramos entonces comprobar que son
linealmente independientes. Igualmente, si uno conoce dos vectores en R2 que son linealmente
independientes, la propiedad 6 nos dice que entonces forman una base. No es necesario por tanto
estudiar si generan todo R2 .

3.2.3. Coordenadas de un vector respecto a una base. Cambio de base


Hemos visto que lo que hace el concepto de base algo útil es que recurriendo a una de ellas,
cualquier vector queda identificado mediante los coeficientes de la única combinación lineal que
lo expresa en función de los vectores de aquélla. A estos coeficientes se les llama coordenadas. En
un e. v. de dimensión finita, si se dispone de una base, conocer un vector viene a ser lo mismo
que conocer sus coordenadas en la base.
Sea V un e. v. sobre K con dim(V ) = n y sea B = {~b1 , ~b2 , . . . , ~bn } una base de V . Cada vector
~x ∈ V se puede escribir de forma única como combinación lineal de los elementos de B:

~x = x1~b1 + x2~b2 + · · · + xn~bn .

Se dice que x1 , x2 , . . . , xn son las coordenadas del vector ~x respecto de la base B. Cuando se
sobreentiende cuál es la base B, se suele escribir ~x = (x1 , x2 , . . . , xn )T o bien, en otro caso,
M (~x, B) = (x1 , x2 , . . . , xn )T .
Por ejemplo, el vector ~v = (1, 2, 3)T tiene coordenadas en la base canónica

~v = ~e1 + 2~e2 + 3~e3 .

Si se dispone de dos bases B y B 0 en un mismo e. v. V , cada vector ~x ∈ V tendrá dos


sistemas de coordenadas, uno respecto de cada base. Si se conoce una base respecto de la otra,

52
va a ser posible relacionar unas coordenadas con otras; las relaciones que ligan a los dos sistemas
de coordenadas se llaman ecuaciones del cambio de base.
Pongamos primero un ejemplo. Como hemos visto, dada la base canónica B = {~e1 , ~e2 , ~e3 } de
R , el vector ~v = ~e1 + 2~e2 + 3~e3 tiene por coordenadas ~v = (1, 2, 3)T en la base B. Consideramos
3

ahora otra base de R3 , por ejemplo B 0 = {~v1 , ~v2 , ~v3 }, donde ~v1 = (1, 1, 0)T , ~v2 = (0, 1, −1)T , ~v3 =
(−1, 1, −1)T . Nuestro problema es expresar el vector ~v con respecto a la nueva base B 0 , es decir,
calcular sus coordenadas en esta base. Imaginemos que tales coordenadas son

~v = x01~v1 + x02~v2 + x03~v3 .

Observemos que los vectores de B 0 se expresan con respecto a la base canónica B del siguiente
modo:

~v1 = (1, 1, 0)T = ~e1 + ~e2 ,


~v2 = (0, 1, −1)T = ~e2 − ~e3 ,
~v3 = (−1, 1, −1)T = −~e1 + ~e2 − ~e3 .

Sustituyendo, se tiene:

~v = x01~v1 + x02~v2 + x03~v3 = x01 (~e1 + ~e2 ) + x02 (~e2 − ~e3 ) + x03 (−~e1 + ~e2 − ~e3 )
= (x01 − x03 )~e1 + (x01 + x02 + x03 )~e2 + (−x02 − x03 )~e3 .

pero, por otro lado,

~v = (1, 2, 3)T = ~e1 + 2~e2 + 3~e3 .

Tenemos entonces dos expresiones de un mismo vector en la base B; deben por tanto coincidir.
Entonces,

x01 − x03 = 1
x01 + x02 + x03 = 2
−x02 − x03 = 3.

Es decir, que las nuevas coordenadas satisfacen el sistema


    
1 0 −1 x01 1
1 1 1   x02  =  2  ,
0 −1 −1 x03 3

que, resolviendo, proporciona los valores x01 = 5, x02 = −7, x03 = 4 y M (~v , B) = (5, −7, 4)T . Hay
que fijarse en la matriz del sistema: su primera columna está formada por las coordenadas del
vector ~v1 en la base B, la segunda columna está formada por las coordenadas del vector ~v2 en la
base B y la tercera tiene por elementos las coordenadas del vector ~v3 en la base B.
Este procedimiento se puede generalizar. Sea V un e. v. sobre K de dimensión n. Sea B =
{b1 , ~b2 , . . . , ~bn } una base de V , en las que las coordenadas de un vector ~x ∈ V se denotan por
~
M (~x, B) = (x1 , x2 , . . . , xn )T . Sea B 0 = {~b01 , ~b02 , . . . , ~b0n } otra base de V , en la que las coordenadas

53
de ~x ∈ V se denotan por M (~x, B 0 ) = (x01 , x02 , . . . , x0n )T . Supongamos que se conocen los vectores
de B 0 en función de los de B, es decir,
~b0 = q11~b1 + q21~b2 + · · · + qn1~bn
1
~b0 = q12~b1 + q22~b2 + · · · + qn2~bn
2
.. .
. = ..
~b0 = q1n~b1 + q2n~b2 + · · · + qnn~bn .
n

Entonces, las coordenadas M (~x, B) = (x1 , x2 , . . . , xn )T vendrán, en función de las coordenadas


M (~x, B 0 ) = (x01 , x02 , . . . , x0n )T , dadas por las fórmulas
x1 = q11 x01 + q12 x02 + · · · + q1n x0n
x2 = q21 x01 + q22 x02 + · · · + q2n x0n
.. .
. = ..
xn = qn1 x01 + qn2 x02 + · · · + qnn x0n ,
que matricialmente se escribe
 
q11 q12 · · · · · · q1n
 q21 q22 · · · · · · q2n 
M (~x, B) = QM (~x, B 0 ), Q = M (B 0 , B) = 
 ···
.
··· ··· ··· ··· 
qn1 qn2 · · · · · · qnn
La matriz Q se llama matriz de cambio de base de B 0 a B y es una matriz invertible. Como ha
mostrado la construcción del sistema, hay que observar que las columnas de Q = M (B 0 , B) son
las coordenadas de los vectores de la base B 0 con respecto a la base B. Precisamente, su matriz
inversa es la matriz del cambio de coordenadas inverso, de B a B 0 , es decir
M (~x, B 0 ) = Q−1 M (~x, B) = M (B, B 0 )M (~x, B).
Este es, con frecuencia, el problema a resolver.

Ejemplo. Calculemos las coordenadas del vector ~x = (3, 2, 1)T en la base B 0 = {~v1 , ~v2 , ~v3 }, donde
~v1 = (1, 2, 0)T , ~v2 = (−3, −7, 1)T , ~v3 = (0, −2, 1)T . La base de referencia donde está dispuesto el
vector ~x es la base canónica. La relación entre las dos bases es
~v1 = ~e1 + 2~e2
~v2 = −3~e1 − 7~e2 + ~e3
~v1 = −2~e2 + ~e3 .
Entonces la matriz de cambio de base es
 
1 −3 0
Q =  2 −7 −2  .
0 1 1
Luego, las nuevas coordenadas M (~x, B 0 ) = (x01 , x02 , x03 )T deben verificar el sistema lineal
    
3 1 −3 0 x01
 2  =  2 −7 −2   x0  ,
2
1 0 1 1 x03
que, resolviendo, nos da x01 = −3, x02 = −2, x03 = 3.

54
3.3. Subespacios fundamentales de una matriz
3.3.1. Definición y propiedades
Pasamos ahora a describir un procedimiento para resolver en la práctica varios problemas que
se han ido planteando en secciones anteriores. Concretamente:

1. Cómo describir los subespacios de un espacio vectorial de dimensión finita.

2. Cómo determinar una base de un subespacio.

3. Cómo obtener una base de un sistema generador dado.

4. Cómo formar una base a partir de un sistema libre dado.

Con respecto al problema 1, generalmente los subespacios (que no sean el formado exclusiva-
mente por el vector nulo) se describen de dos maneras. La primera consiste en dar un sistema de
generadores del subespacio (en particular, una base) que pueden disponerse como el espacio fila o
el espacio columna de una matriz. En la segunda, podemos dar una lista de restricciones acerca del
subespacio; en lugar de decir cuáles son los vectores en el subespacio, se dicen las propiedades que
deben satisfacer. Generalmente estas restricciones vienen dadas más o menos explı́citamente por
un conjunto de ecuaciones lineales, de modo que el subespacio queda descrito como el conjunto
de soluciones de un sistema lineal homogéneo A~x = ~0 y cada ecuación del sistema representa una
restricción. En el primer tipo puede haber filas o columnas redundantes y en el segundo puede
haber restricciones redundantes. En ninguno de los dos casos es posible dar una base (resolver el
problema 2) por mera inspección, es necesario algún procedimiento sistemático.
El método que aquı́ explicaremos está basado en el proceso de eliminación gaussiana de una
matriz A dado en el tema 1 y la matriz U escalonada superior que quedaba asociada a ésta al
final del proceso. Con este procedimiento vamos también a poder resolver los problemas 3 y 4 y
el problema añadido de cómo pasar de una representación de un subespacio a la otra.

Definición. Supongamos que reducimos una matriz A ∈ Mm,n (K) mediante operaciones elemen-
tales a una matriz U de forma escalonada. Llamemos r al número de pivotes de U , de tal modo
que las últimas m − r filas de U son idénticamente nulas. A este número r se le llama rango de
la matriz A.

Hay una relación entre el rango r y la independencia lineal: precisamente, r es el número de


filas linealmente independientes de la forma escalonada U .
Los subespacios fundamentales de una matriz A ∈ Mm,n (K) son los siguientes:

1. Espacio fila f il(A): es el espacio generado por las filas de A.

2. Espacio nulo Ker(A) = {~x/A~x = ~0}.

3. Espacio columna col(A): es el espacio generado por las columnas de A.

4. Espacio nulo por la izquierda Ker(AT ) = {~x/AT ~x = ~0}.

La relación entre los subespacios fundamentales de una matriz y los subespacios vectoriales es
la siguiente: si el subespacio viene dado por un sistema de generadores, será el espacio fila (o el
espacio columna) de la matriz cuyas filas (o columnas) sean los vectores del sistema generador. Si

55
el subespacio viene dado por un conjunto de restricciones, se escribirá como el espacio nulo o el
espacio nulo por la izquierda de una matriz, la del sistema homogéneo dado por las restricciones.
Queda claro entonces que para determinar una base de un subespacio tenemos que analizar
la manera de determinar una base de los subespacios fundamentales de una matriz. En ello
tendrá que ver su forma escalonada obtenida por eliminación gaussiana.

1. Espacio fila de A. La eliminación actúa en A para producir una matriz escalonada U ; el


espacio fila de U se obtiene directamente: su dimensión es el rango r y sus filas distintas de cero
constituyen una base. Ahora bien, cada operación elemental no altera el espacio fila, pues cada
fila de la matriz U es una combinación de las filas originales de A. Como al mismo tiempo cada
paso puede anularse mediante una operación elemental, entonces

f il(A) = f il(U ),

por tanto, f il(A) tiene la misma dimensión r y la misma base. Hay que notar que no comen-
zamos con las m filas de A, que generan el espacio fila y descartamos m − r para obtener una
base. Podrı́amos hacerlo, pero puede ser difı́cil decidir cuáles filas descartar; es más sencillo tomar
simplemente las filas de U distintas de cero.

Ejemplo. Determina una base del subespacio de R4 generado por los vectores ~v1 = (1, 1, 0, 1)T , ~v2 =
(1, 2, 2, 1)T , ~v3 = (3, 4, 2, 3)T .
Disponemos los vectores generadores como las filas de una matriz
 
1 1 0 1
A = 1 2 2 1.
3 4 2 3

El subespacio es entonces el espacio fila de A. Reducimos por eliminación gaussiana,


     
1 1 0 1 1 1 0 1 1 1 0 1
A = 1 2 2 1 → 0 1 2 0 → 0 1 2 0  = U.
3 4 2 3 0 1 2 0 0 0 0 0

Puesto que U tiene dos pivotes, r = 2, de modo que la dimensión del subespacio es dos. Como
una base de f il(U ) lo forman las dos primeras filas, lo mismo ocurre con f il(A), de manera que
una base del subespacio es w~ 1 = (1, 1, 0, 1)T , w
~ 2 = (0, 1, 2, 0)T .

2. Espacio nulo de A. Es el formado por los vectores ~x tales que A~x = ~0. En la eliminación
gaussiana se reduce el sistema A~x = ~0 al sistema U~x = ~0 precisamente sin alterar ninguna de las
soluciones. Por tanto, el espacio nulo de A es el mismo que el de U ,

Ker(A) = Ker(U ).

De las m aparentes restricciones impuestas por las m ecuaciones A~x = ~0 sólo r son independientes,
especificadas precisamente por las r filas de U distintas de cero. Ası́, el espacio nulo de A tiene
dimensión n−r, que es el número de variables libres del sistema reducido U~x = ~0, correspondientes
a las columnas de U sin pivotes. Para obtener una base, podemos dar el valor 1 a cada variable
libre, cero a las restantes y resolver U~x = ~0 para las r variables básicas por sustitución regresiva.
Los n − r vectores ası́ producidos forman una base de Ker(A).

56
Ejemplo. Determina una base del subespacio W de R4 , formado por los vectores ~x = (x1 , x2 , x3 , x4 )T
tales que

−x1 + x2 − x3 + 2x4 = 0
2x1 − 2x2 + x3 = 0
5x1 − 5x2 + 3x3 − 2x4 = 0

Se tiene que W = {~x ∈ R4 /A~x = ~0} donde


 
−1 1 −1 2
A=  2 −2 1 0 .
5 −5 3 −2

La eliminación gaussiana lleva a que W = Ker(U ) donde


 
−1 1 −1 2
U=  0 0 −1 4  .
0 0 0 0

Como en este caso n = 4 y r = 2, la dimensión de W es n − r = 2. Las variables básicas son x1


y x3 y las libres x2 y x4 . El sistema U~x = ~0 queda

x1 + x3 = x2 + 2x4
x3 = 4x4

Dando los valores x2 = 1, x4 = 0, tenemos el vector ~v1 = (1, 1, 0, 0)T . Con los valores x2 = 0, x4 =
1 se obtiene ~v2 = (−2, 0, 4, 1)T . Los vectores ~v1 , ~v2 forman una base de W .

3. Espacio columna de A. Podrı́amos tener en cuenta que las columnas de A son las filas
de AT y actuar sobre AT . Es mejor, sin embargo, estudiar el espacio columna en términos de los
números originales m, n y r.
Es importante destacar que A no tiene el mismo espacio columna que U . La eliminación
gaussiana altera las columnas. Sin embargo, cada vez que ciertas columnas de U formen una base
del espacio columna de U , las correspondientes columnas de A forman una base del espacio
columna de A.
La razón es la siguiente: sabemos que A~x = ~0 si y sólo si U~x = ~0. Los dos sistemas son equiva-
lentes y tienen las mismas soluciones. En términos de multiplicación de matrices, A~x = ~0 expresa
una dependencia lineal entre las columnas de A, con coeficientes dados por las coordenadas de ~x.
Por tanto, cada una de estas dependencias corresponde a una dependencia lineal U~x = ~0 entre las
columnas de U y con los mismos coeficientes. Si el conjunto de columnas de A es independiente,
lo mismo es válido para las columnas de U y viceversa.
Ahora, para encontrar una base de col(A), partimos de encontrar una base de col(U ). Pero
una base de col(U ) la forman las r columnas de U que contienen los pivotes. Ası́, tenemos:
La dimensión de col(A) es igual al rango r, que es la dimensión de f il(A): en cualquier matriz,
el número de filas independientes es igual al número de columnas independientes. Una base de
col(A) está formada por aquellas r columnas de A correspondientes, en U , a las columnas que
contienen los pivotes.

57
Ejemplo. Para la matriz
 
1 2 0 1

A= 0 1 1 0,
1 2 0 1
la eliminación gaussiana lleva a que
 
1 2 0 1

U= 0 1 1 0.
0 0 0 0
Para U , las columnas con pivote son la primera y la segunda, luego una base de col(A) está for-
mada por las dos primeras columnas de A: (1, 0, 1)T , (2, 1, 2)T .

4. Espacio nulo por la izquierda de A. Es el espacio nulo de AT . Como para cualquier


matriz, se tiene que

dimensión del espacio columna+dimensión del espacio nulo =número de columnas,

esta regla puede aplicarse a AT , que tiene m columnas. Como rango fila=rango columna = r,
entonces dimKer(AT ) = m − r. Se puede determinar una base de Ker(AT ) de la misma manera
que se ha hecho con el espacio nulo de A.

Ejercicio. Determina una base de los cuatro subespacios elementales de la matriz


 
2 4 0 2
 6 −2 1 0 
A=
 8
.
2 1 2 
−4 1 −3 −5

Explicado el procedimiento para obtener una base de un subespacio, resolvemos los problemas
pendientes.
Para obtener una base de un sistema generador (problema 3), basta con hallar una base del
espacio fila de la matriz cuyas filas son los vectores generadores.

Ejemplo. Obtenemos una base del subespacio generado por el sistema de generadores de R3 :
~v1 = (1, 2, 1)T , ~v2 = (3, 2, 1)T , ~v3 = (4, 0, 0)T , ~v4 = (−1, 2, 1)T .
Disponemos los vectores como las filas de una matriz y reducimos a forma escalonada
     
1 2 1 1 2 1 1 2 1
 3 2 1  0 −4 −2   0 −4 −2 
 →   
 4 0 0  0 −8 −4  →  0 0 0 
−1 2 1 0 4 2 0 0 0
La dimensión del espacio fila es dos, luego de los cuatro vectores sólo dos son independientes.
Una base del subespacio lo forman los vectores (1, 2, 1)T , (0, −4, −2)T .

Para obtener una base de un espacio vectorial a partir de un sistema libre (problema 4) basta
con ampliar el espacio fila correspondiente con vectores que van siendo independientes, hasta
completar la dimensión.

58
Ejemplo. Completamos a una base de R4 a partir de los vectores ~v1 = (1, 1, 0, 1)T , ~v2 =
(1, 2, 2, 1)T , ~v3 = (3, 0, 2, 3)T .
Disponemos los vectores como las filas de una matriz y reducimos a forma escalonada.
     
1 1 0 1 1 1 0 1 1 1 0 1
1 2 2 1 → 0 1 2 0 → 0 1 2 0.
3 0 2 3 0 −3 2 0 0 0 8 0

Si añadimos una cuarta fila con un pivote, por ejemplo, (0, 0, 0, 1)T , tenemos que la dimensión
del espacio fila de la matriz que forman los tres primeros vectores y este cuarto es cuatro, luego
un vector que completa a una base es, por ejemplo, (0, 0, 0, 1)T .

Para calcular las ecuaciones de un subespacio a partir de un sistema generador, se dispone el


sistema generador como las filas de una matriz, y a ésta se añade una fila con un vector genérico.
Se reduce la matriz ası́ formada por eliminación gaussiana, obligando a que se anulen las últimas
filas de la forma escalonada final.

Ejemplo. Obtenemos las ecuaciones del subespacio generado por los vectores ~v1 = (1, 0, 3)T , ~v2 =
(−2, 3, −1)T .
Disponemos los vectores como las filas de una matriz, añadiendo una tercera fila con un vector
genérico (x, y, z)T del subespacio y reducimos a forma escalonada:
     
1 0 3 1 0 3 1 0 3
 −2 3  
−1 → 0 3 5  
→ 0 3 5 
x y z 0 y z − 3x 0 0 z − 3x − (5/3)y

Como el vector (x, y, z)T está en el subespacio, la dimensión del espacio fila de la matriz ha de
ser dos, luego la última fila de la forma escalonada tiene que ser nula. Por tanto, el subespacio es

W = {(x, y, z)T /z − 3x − (5/3)y = 0}.

Al revés, para dar un sistema generador a partir de las ecuaciones de un subespacio, basta
con calcular una base del espacio nulo de la matriz del sistema de ecuaciones.

3.4. Operaciones con subespacios


Una vez que sabemos determinar una base de un subespacio vectorial, nos queda operar con
ellos. Básicamente, se pueden realizar dos operaciones con subespacios: intersecciones y sumas.

3.4.1. Intersección de subespacios


Sea V un e. v. y W1 , W2 subespacios vectoriales de V . La intersección W = W1 ∩ W2 es el
conjunto de vectores de V que están a la vez en W1 y W2 . No es difı́cil ver que W es un subespacio
vectorial. Nótese que la intersección cualquiera es no vacı́a, pues al menos el vector nulo está en
W.
Para describir la intersección de subespacios, la manera más natural es poner cada subespacio
en forma de un sistema de ecuaciones homogéneo. La intersección será aquel subespacio que
verifique todas las restricciones a la vez.

59
Ejemplo. Para los subespacios

W1 = {(x, y, z)T /x + y + z = 0}
W2 = {(x, y, z)T /x − z = 0}

el subespacio W1 ∩ W2 es

W1 ∩ W2 = {(x, y, z)T /x + y + z = 0, x − z = 0}

3.4.2. Suma de subespacios


Sea V un e. v. y W1 , W2 subespacios vectoriales de V . Observemos que, en general, la unión
de subespacios W1 ∪ W2 (el conjunto de vectores que están en algunos de los dos subespacios)
no es un subespacio vectorial. Por ejemplo, si W1 es el subespacio de R2 generado por el vector
~ 1 = (1, 0)T y W2 es el subespacio generado por w
w ~ 2 = (0, 1)T , naturalmente los vectores w
~1 y w
~2
están en W1 ∪ W2 , pero la suma w ~ 2 = (1, 1)T no está en W1 ∪ W2 .
~1 + w
Se puede definir, sin embargo, la suma de subespacios W = W1 + W2 como el subespacio
generador por la unión W = hW1 ∪ W2 i.
Contrariamente a la intersección, una manera sencilla de describir el subespacio suma con-
siste en determinar un sistema generador o una base de cada subespacio y quedarse con los
independientes, obteniéndose de esta manera una base del subespacio suma.

Ejemplo. Obtenemos una base del subespacio suma W1 + W2 donde

W1 = {(x, y, z)T /x + y = 0, z = 0}
W2 = {(x, y, z)T /z = 0}.

Una base de W1 es w ~ 1 = (1, −1, 0)T y de W2 , w


~ 2 = (1, 0, 0)T , w
~ 3 = (0, 1, 0)T . Entonces, w~ 1, w
~2
yw~ 3 forman un sistema generador de W1 + W2 . Ahora, el vector w ~ 1 depende de los otros dos,
luego una base del subespacio suma está formado por w ~ 2 = (1, 0, 0)T , w~ 3 = (0, 1, 0)T . Es decir,
W1 + W2 = W2 .

La forma de determinar una base del subespacio suma muestra que todo vector w ~ de W =
W1 + W2 puede escribirse como suma w ~ =w ~1 + w~ 2 donde w~ 1 ∈ W1 y w
~ 2 ∈ W2 .
Cuando los subespacios sólo tiene en común el vector nulo, W1 ∩W2 = {~0}, el subespacio suma
se denomina suma directa de W1 y W2 y se denota por W = W1 ⊕ W2 . En este caso, los vectores
componentes w~ 1, w
~ 2 de la descomposición w~ =w ~1 + w~ 2 de cualquier vector w
~ de la suma que
mencionábamos antes son únicos: los vectores de W sólo pueden descomponerse de una forma.

Ejercicio. Determina una base del subespacio suma de

W1 = {(x, y, z)T /x + y = 0, z = 0}
W2 = {(x, y, z)T /z = 0},

~ = (1, 1, 2)T como suma de un vector de W1 y otro de W2 .


y escribe el vector w
Respecto a las dimensiones de los subespacios suma e intersección, se tiene el siguiente resul-
tado:

60
Fórmula de las dimensiones. Si W1 y W2 son dos subespacios vectoriales de dimensión finita

dim(W1 + W2 ) = dim(W1 ) + dim(W2 ) − dim(W1 ∩ W2 ).

En particular, si W1 ∩ W2 = {~0},

dim(W1 ⊕ W2 ) = dim(W1 ) + dim(W2 ).

3.5. Aplicaciones lineales


Se pueden establecer relaciones entre espacios vectoriales, a través de las llamadas aplicaciones
lineales. Antes de dar la definición formal, vamos a mostrar algunos ejemplos para intentar explicar
qué significa que una aplicación entre espacios vectoriales sea lineal.
En el plano R2 pueden darse varias transformaciones, con interpretación geométrica, entre
vectores. Por ejemplo, se puede aumentar o reducir de tamaño un vector (homotecias).

¡
µ
¡
¡
~v = (x, y) T~v = ( 21 x, 12 y) ¡T ~
v = (2x, 2y)
¡
¡
µ
¡ ¡
¡ ¡
¡ µ
¡
¡ ¡
¡ ¡ ¡

Desde el punto de vista algebraico, esto significa multiplicar cada componente del vector por
una constante λ ∈ R. Si 0 < λ < 1, el vector se reduce de tamaño, si λ > 1, aumenta. En el caso
de que λ < 0, el vector cambia además de sentido. Todo ello genera una transformación entre
vectores (homotecia de centro el origen y razón λ),
2 2
T : R
µ → ¶ R µ ¶
x λx
7−→ T (x, y) = .
y λy

Éste es un primer ejemplo de una transformación lineal entre espacios vectoriales. Se dice que es
lineal por lo siguiente: si uno toma una combinación de dos vectores cualesquiera y le aplica la
homotecia, el vector resultante es el mismo que si aplicamos primero la homotecia a los vectores
originales y luego hacemos la combinación lineal a los vectores transformados. Fijémonos por
último en que la aplicación se puede escribir como el producto de una matriz por el vector
genérico, en la forma
µ ¶ µ ¶ µ ¶µ ¶
x λx λ 0 x
7−→ T (x, y) = = .
y λy 0 λ y

El siguiente ejemplo tiene también su interpretación geométrica. Se trata de girar los vectores
del plano un ángulo determinado α.

61
¢̧
¢ T (~
v)
¢
¢ ~v = (x, y)
¢ *
©
¢ α ©©
¢
© ©©
¢ © θ
¢ ©
©

Para dar una expresión a esta tranformación entre vectores podemos hacer uso de los números
complejos que tratamos en el tema preliminar. Recordemos que un vector en el plano con base
en el origen y coordenadas ~v = (x, y)T representa también el complejo z = x p+ iy o, en forma
trigonométrica z = r cos θ + ir sin θ, donde x = r cos θ, y = r sin θ, r = |z| = x2 + y 2 y θ es el
argumento principal de z. Observemos entonces que un giro de ángulo α proporciona un nuevo
vector, es decir, un nuevo complejo, cuyo módulo es similar al del vector de inicio, mientras que
uno de sus argumentos se obtiene sumando α al argumento θ. De este modo, el nuevo complejo
puede escribirse
T (z) = r cos (θ + α) + ir sin (θ + α),
es decir, el vector transformado tiene por coordenadas
T (~v ) = (r cos (θ + α), r sin (θ + α))T .
En términos de las componentes originales x e y, hay que tener en cuenta que x = r cos θ, y =
r sin θ y las relaciones
cos(θ + α) = cos(θ) cos(α) − sin(θ) sin(α),
sin(θ + α) = cos(θ) sin(α) + sin(θ) cos(α).
Podemos entonces escribir que
µ ¶µ ¶
T cos α − sin α x
T (~v ) = T (x, y) = (x cos(α) − y sin(α), x sin(α) + y cos(α)) = ,
sin α cos α y
transformación que se expresa como producto de una matriz por el vector de salida. La aplicación
2 2
T : R
µ → ¶ R µ ¶µ ¶
x cos α − sin α x
7−→ T (x, y) =
y sin α cos α y
es lineal. Esto puede razonarse como antes. Si combinamos dos vectores y el vector resultante gira
un ángulo α, el resultado es el mismo que si primero giramos los vectores originales un ángulo α
y luego hacemos la combinación lineal a los vectores resultantes del giro.
Naturalmente, no todas las aplicaciones son lineales. Por ejemplo, otra de las transformaciones
que pueden hacerse en R2 es añadir una cantidad fija a cada componente α, β 6= 0 de los vectores.
Por ejemplo, podemos generar la aplicación
2 2
T : R
µ → ¶ R µ ¶
x x+1
7−→ T (x, y) = .
y y+1

62
Esta transformación no es lineal. Si, por ejemplo, sumamos dos vectores y a la suma se añade el
vector (α, β)T = (1, 1)T , el resultado no es el mismo que si primero añadimos (α, β)T = (1, 1)T a
los vectores originales y luego sumamos. Hay que observar también que esta transformación no
puede escribirse como producto matriz por vector.
Estos ejemplos pretenden mostrar que para que una aplicación entre espacios vectoriales sea
lineal, su actuación sobre los vectores debe conmutar con las operaciones de los subespacios:
combinar los vectores y transformar debe dar el mismo resultado que transformar primero los
vectores y luego combinarlos.

3.5.1. Definición y propiedades


Para un uso en posteriores lecciones, introducimos aquı́ el concepto de aplicación lineal, que
permite establecer relaciones entre los espacios vectoriales. Dados dos espacios vectoriales U y V
sobre un mismo cuerpo K, se dice que una transformación T : U → V es lineal cuando

(i) T (~x + ~y ) = T (~x) + T (~y ), ~x, ~y ∈ U .

(ii) T (λ~x) = λT (~x), ~x ∈ U, λ ∈ K.

Esto es

T (λ1 ~x1 + · · · + λm ~xm ) = λ1 T (~x1 ) + · · · + λm T (~xm ),


λ1 , . . . , λm ∈ K, ~x1 , . . . , ~xm ∈ U.

Ejemplos. Con la definición, se puede comprobar que las aplicaciones siguientes

(1) T : R3 → R3 , T ((x, y, z)T ) = (x + y, y + z)T .

(2) T : P3 [X] → P2 [X], T (p(x)) = p0 (x),


son lineales.

Con las aplicaciones lineales se pueden realizar tres operaciones:

Suma: si T, S : U → V son aplicaciones lineales, entonces la aplicación T + S : U → V ,


(T + S)(~x) = T (~x) + S(~x) es una aplicación lineal.

Producto: si T : U → V es una aplicación lineal y λ ∈ K, entonces la aplicación (λT ) : U →


V , (λT )(~x) = λT (~x) es lineal.

Composición: si U, V, W son espacios vectoriales, T : U → V , S : V → W son aplicaciones


lineales, entonces la aplicación S ◦ T : U → W , (S ◦ T )(~x) = S(T (~x)) es una aplicación
lineal.

Asociada a una aplicación lineal, T : U → V hay dos subespacios destacables:

Núcleo: Ker(T ) = {~x ∈ U/T (~x = 0} ⊂ U ,

Imagen: Im(T ) = {~y ∈ V / existe ~x ∈ U con T (~x) = ~y } ⊂ V .

63
3.5.2. Matriz de una aplicación lineal. Cambio de base
En espacios de dimensión finita, para manejarse con aplicaciones lineales, es mejor utilizar
coordenadas. Ello va a permitir relacionar las aplicaciones lineales con las matrices, lo que hace
más sencillo el uso de las primeras.
Sean U y V espacios vectoriales de dimensión finita sobre un mismo cuerpo K. Sean BU =
{~u1 , . . . , ~un }, BV = {~v1 , . . . , ~vm } bases en U y V respectivamente. Sea T : U → V una aplicación
lineal. Se define la matriz de la aplicación lineal T en dichas bases como la matriz M (T, BU , BV ) ∈
Mm,n (K) cuyas columnas son las coordenadas de las imágenes por T de los vectores de la base
de partida BU , expresadas en la base de llegada BV , esto es

M (T, BU , BV ) = [M (T (~u1 ), BV ) · · · M (T (~un ), BV )].

Ejemplos.

[1] Para la aplicación lineal T : R4 → R3 , T (x1 , x2 , x3 , x4 ) = (x1 +x2 +x3 , x2 +x4 , x1 +x2 +x3 +x4 ),
se tiene que, en las bases canónicas
 
1 1 1 0
c c 
M (T, BR 4 , B R3 ) = 0 1 0 1.
1 1 1 1
La razón es la siguiente: la primera columna de la matriz corresponde al vector imagen por T del
primer vector de la base canónica en R4 , escrito con respecto a la base canónica en R3 , esto es

T ((1, 0, 0, 0)T ) = (1, 0, 1)T ,

(imagen del vector de coordenadas x1 = 1, x2 = 0, x3 = 0, x4 = 0). Ası́, las otras columnas se


obtienen como

T ((0, 1, 0, 0)T ) = (1, 1, 1)T ,


T ((0, 0, 1, 0)T ) = (1, 0, 1)T ,
T ((0, 0, 0, 1)T ) = (0, 1, 1)T .

[2] Para la aplicación lineal T : P4 [X] → P3 [X], T (p(x)) = p0 (x) se tiene que en las bases canónicas

BPc 4 [X] = {1, x, x2 , x3 , x4 }, BPc 3 [X] = {1, x, x2 , x3 },

la matriz de T es
 
0 1 0 0 0
 0 0 2 0 0
M (T, BPc 4 [X] , BPc 3 [X] ) = 
0
.
0 0 3 0
0 0 0 0 4
Veamos cómo se van generando las columnas. La primera es la imagen por T del primer vector, el
polinomio p(x) = 1. Como p0 (x) = 0, entonces T (p(x)) es el polinomio nulo, luego sus coordenadas
son todas nulas en cualquier base. La segunda columna de la matriz es la imagen por T del
polinomio p(x) = x. esto es

T (p(x)) = p0 (x) = 1 = 1 + 0x + 0x2 + 0x3 ,

64
de coordenadas (1, 0, 0, 0) en la base canónica de P3 [X]. Estas coordenadas forman la segunda
columna de la matriz. Ası́ sucesivamente,

T (x2 ) = 2x = 0 · 1 + 2x + 0x2 + 0x3 → (0, 2, 0, 0),


T (x3 ) = 3x2 = 1 = 0 · 1 + 0x + 3x2 + 0x3 → (0, 0, 3, 0),
T (x4 ) = 4x3 = 0 · 1 + 0x + 0x2 + 4x3 → (0, 0, 0, 4),

vamos generando las columnas de la matriz.


Hay que destacar tres cosas importantes:
(i) La matriz de una aplicación M (T, BU , BV ) tiene tantas filas como la dimensión del espacio
de llegada V y tantas columnas como la dimensión del espacio de partida U (véanse los
ejemplos anteriores).

(ii) La expresión de la matriz depende de las bases elegidas: si cambian las bases, cambia la
matriz. Insistiremos más adelante sobre ello.

(iii) En la práctica, fijadas bases en U y V , podemos expresar la aplicación lineal como un


producto matriz por vector: si ~x = x1 ~u1 + · · · + xn ~un , siendo (x1 , . . . , xn )T las coordenadas
del vector ~x en la base BU , entonces, como T es lineal
 
x1
 x2 
 
T (~x) = x1 T (~u1 ) + · · · + xn T (~un ) = M (T, BU , BV )  ..  .
 . 
xn
Esto facilita el manejo de las aplicaciones lineales. Ası́, en el ejemplo [1] anterior
 
  x
1 1 1 0  1
x2 

T (x1 , x2 , x3 , x4 ) = 0 1 0 1 x3  ,
1 1 1 1
x4

y en el ejemplo [2], si p(x) = a0 + a1 x + a2 x2 + a3 x3 + a4 x4 ,


 
  a
0 1 0 0 0  0
0 0 2 0 0  a1 
T (p(x)) =  
a ,

0 0 0 3 0 2
 a3 
0 0 0 0 4
a4

que es el polinomio a1 + 2a2 x + 3a3 x2 + 4a4 x3 .

Cambio de base en las aplicaciones lineales

Ya hemos comentado que al cambiar las bases en los espacios vectoriales cambia la matriz
de la aplicación lineal. Veamos cómo afectan los cambios de base. Consideremos una aplicación
lineal T : U → V de la que conocemos su matriz asociada M (T, BU , BV ) cuando fijamos las
bases BU , BV . Imaginemos que cambiamos las bases a BU0 , BV0 y queremos determinar la matriz
asociada a T en estas bases, M (T, BU0 , BV0 ). Planteamos el siguiente esquema

65
M (T, BU , BV ) - VB T (~
UBU V
x)
6 6

M (BU0 , BU ) M (BV0 , BV )

M (T, BU0 , BV0 )


-
UBU0 VBV0
~x

Las flechas a la izquierda y a la derecha son las que llevan, respectivamente, un vector escrito
en la base BU0 en el mismo vector expresado ahora en la base BU y cualquier vector escrito en
la base BV0 en el mismo vector expresado ahora en la base BV . Ambas transformaciones vienen
entonces dadas por las correspondientes matrices de cambio de base M (BU0 , BU ), M (BV0 , BV ) de
las que hablamos al principio de la lección (coordenadas de un vector respecto a una base y
cambio de base). Ası́, por ejemplo, la flecha de la izquierda lleva un vector ~u ∈ U en

M (BU0 , BU )~u,

y la flecha de la derecha lleva un vector ~v ∈ V en

M (BV0 , BV )~v .

Por otro lado, las flechas de arriba y de abajo corresponden a la aplicación lineal T pero en bases
distintas. Supongamos que conocemos la matriz asociada a T arriba, es decir M (T, BU , BV ), pero
no la de abajo M (T, BU0 , BV0 ), que es la que queremos calcular.
Fijémonos ahora en que tiene que ser igual llevar un vector ~x ∈ U desde la esquina inferior
izquierda a su imagen T (~x) en la esquina superior derecha por los dos caminos siguientes: flecha
izquierda + flecha arriba o bien flecha abajo + flecha derecha. En términos matriciales, el primer
camino es

M (T, BU , BV )M (BU0 , BU )~x,

y el segundo es

M (BV0 , BV )M (T, BU0 , BV0 )~x,

66
por tanto

M (T, BU , BV )M (BU0 , BU )~x = M (BV0 , BV )M (T, BU0 , BV0 )~x.

Ahora bien, el vector ~x en este razonamiento es arbitrario, de modo que la igualdad vectorial es
en realidad una igualdad matricial

M (T, BU , BV )M (BU0 , BU ) = M (BV0 , BV )M (T, BU0 , BV0 ).

De aquı́ despejamos la matriz que nos interesa,

M (T, BU0 , BV0 ) = M (BV0 , BV )−1 M (T, BU , BV )M (BU0 , BU )


= M (BV , BV0 )M (T, BU , BV )M (BU0 , BU ).

Ejemplo. Para la aplicación lineal T : U → V , siendo U = R3 , V = R2 y las bases

BU = {(1, 0, 0)T , (0, 1, 0)T , (0, 0, 1)T }, BV = {(1, 0)T , (0, 1)T }
BU0 = {(1, 0, 0)T , (1, 0, 1)T , (1, 1, 0)T }, BV0 = {(1, −1)T , (0, 1)T },

se sabe que la matriz de T en las bases BU , BV es


µ ¶
−1 0 1
M (T, BU , BV ) = .
2 −1 1
Entonces
 
µ ¶−1 µ ¶ 1 1 1
1 0 −1 0 1
M (T, BU0 , BV0 ) = 0 0 1  =?
−1 1 2 −1 1
0 1 0

Fijémonos entonces que una aplicación lineal suele venir dada o bien en forma explı́cita, es
decir, dando su imagen para un vector genérico, o bien, si hemos fijado bases, a través de un
producto matriz por vector.
Por último, la siguiente fórmula de dimensiones relaciona en su demostración el núcleo y la
imagen de una aplicación lineal con subespacios fundamentales de una cualquiera de sus matrices
asociadas.

Teorema 3. Sean U y V espacios vectoriales de dimensión finita sobre un mismo cuerpo K y


T : U → V una aplicación lineal. Entonces

dim(U ) = dimKer(T ) + dimIm(T ).

En efecto, si n = dim(U ), m = dim(V ) y fijamos bases cualesquiera en ambos espacios, sea


A ∈ Mm,n (K) la matriz de T en tales bases. Por un lado,

dimKer(T ) = dimKer(A) = n − r,

siendo r el rango de la matriz A. Por otro lado,

dimIm(T ) = dimcol(A) = r,

de donde se obtiene la fórmula.

67
EJERCICIOS DEL TEMA 2

Ejercicio 1. Para los siguientes espacios vectoriales E sobre R, comprueba que el conjunto de
vectores dado es una base de dicho espacio (llamada base canónica):
(1) E = Rn , B = {~e1 , · · · , ~en }, ~ej vector de tamaño n con todas sus componentes nulas excepto
la j-ésima que vale 1.
(2) E = Pn [X] (conjunto de polinomios de grado menor o igual que n y coeficientes reales),
B = {1, x, · · · , xn }.
(3) E = Mmxn (R) (conjunto de matrices de m filas y n columnas con elementos reales), B =
{A1,1 , · · · , Am,n } con Ar,s = Ir,s (matriz de m filas y n columnas con todos sus elementos nulos
excepto el 1 de la posición (r, s)).
(4) E = C n , B = {~e1 , · · · , ~en , ~v1 , · · · , ~vn } con ~vj el vector de n componentes, todas ellas nulas
salvo la j-ésima que vale i y ~ej el del apartado (1).
Calcula la dimensión de cada uno de ellos. ¿ Qué bases canónicas se obtienen al considerar los
anteriores espacios vectoriales sobre C?.

Ejercicio 2. De los siguientes subconjuntos de R3 , identifica los que son subespacios vectoriales
de R3 , razonando tu respuesta:
(a) {(x, y, z)T /y = 0}
(b) {(x, y, z)T /x = 0, y + z = 0}
(c) {(x, y, z)T /x = y, z = 2x}

Ejercicio 3. ¿Cuáles de los siguientes subconjuntos de R4 son subespacios? Cuando lo sean halla
su dimensión y una base.
a) El conjunto de los vectores (x1 , x2 , x3 , x4 )T con x1 x3 x4 = 0.
b) El conjunto de los vectores (x1 , x2 , x3 , x4 )T que satisfacen x1 − 2x2 + 4x3 − x4 = 0.
c) El conjunto de los vectores (x1 , x2 , x3 , x4 )T con x1 = 0 y x4 = 2.

Ejercicio 4. Determina una base y la dimensión de V +W y V ∩W donde V y W están generados


respectivamente por los vectores x1 , . . . , xk e y1 , . . . , ym siguientes:
a) x1 = [1, 2, 1, 0]T , x2 = [−1, 1, 1, 1]T , y1 = [2, −1, 0, 1]T , y2 = [1, −1, 3, 7]T .
b) x1 = [1, 2, −1, −2]T , x2 = [3, 1, 1, 1]T , x3 = [−1, 0, 1, −1]T , y1 = [2, 5, −6, −5]T , y2 = [−1, 2, −7, −3]T .

Ejercicio 5. En R4 se consideran los subespacios:


(i) F generado por a1 , a2 , a3 con
a1 = [1, 1, 1, −3]T , a2 = [3, −2, 3, −4]T , a3 = [−1, −6, −1, 8]T .
(ii) G = {[x, y, z, t]T /y − t = 0, 2y + 3t = 0}.
(iii) H generado por b1 , b2 , b3 con
b1 = [0, 1, 0, 0]T , b2 = [1, 0, −1, 2]T ,b3 = [2, 0, 0, 2]T .
Calcula ecuaciones, dimensión y una base de los subespacios F , G, H, F + G, F + H, F ∩ H,
F ∩ G.

Ejercicio 6. Determina si los siguientes conjuntos de vectores son libres o ligados en función del
valor del parámetro a:
a) [1, 2, −4]T , [−1, −2, a]T , [a, 8, −16]T , [1, −1, 5]T
b) [1, 1, 0, 1]T , [1, 2, 2, 1]T , [3, a, 2, 3]T
c) [1, 2, 1, 0]T , [1, 1, 1, 1]T , [a, 0, −1, −2]T , [0, 1, −1, 1]T .

68
Ejercicio 7. En el espacio de los polinomios de grado menor o igual que 2 se considera el
subespacio S generado por los polinomios 1 + 2x, 2 + x2 , 3 + 2x + x2 y 4 + 4x + x2 . Halla una
base de S y da las coordenadas del polinomio 3x2 − 4x + 4 en dicha base.

Ejercicio 8. Halla una base de los subespacios generados por los conjuntos de vectores siguientes,
y amplı́a dichas bases hasta obtener una base del espacio R4 :
a) [2, 1, 3, 0]T , [−1, 0, 0, 2]T , [3, 1, 1, 1]T y [4, 1, −1, 2]T .
b) [2, 0, 1, 3]T , [1, 1, 0, −1]T , [0, −2, 1, 5]T y [3, −1, 2, 7]T .
Halla las coordenadas en las bases de R4 obtenidas en los apartados a) y b) del vector [1, 0, 2, 1]T .

Ejercicio 9. Sea P4 [X] el espacio vectorial de los polinomios de grado menor o igual que 4 con
coeficientes reales.
(1) Demuestra que B = {1, x, x(x − 1), x3 , x4 } es una base de P4 [X].
Sea W el subconjunto de P4 [X] definido por
W = {p(x) ∈ P4 [X]/p(1) = p(−1) = 0}.
(2) Demuestra que W es un subespacio vectorial.
(3) Encuentra la dimensión y una base de W .
(4) Completa dicha base a una de P4 [X], B‘.
(5) Halla la matriz de cambio de base M (B‘, B).
(6) Encuentra un subespacio V de P4 [X] tal que P4 [X] = W ⊕ V .

Ejercicio 10. Se considera el polinomio P (x) = x4 + 2x3 − x2 + x − 1.


a) Demuestra que los polinomios P (x), P 0 (x), P 00 (x), P 000 (x) y P 0000 (x) forman una base del espacio
vectorial de los polinomios de grado menor o igual que 4.
b) Halla las coordenadas del polinomio 5x4 − 3x2 + 2x − 4 en dicha base.

Ejercicio 11. Dado el subespacio S de R3 generado por los vectores (1, 0, 3)T , (−2, 3, −1)T ,
determina si el vector (0, 4, 6)T pertenece o no a este subespacio.

Ejercicio 12. Halla la dimensión y una base de los cuatro subespacios fundamentales asociados
a las matrices
 siguientes:     
1 2 0 1 1 2 0 2 1 i −i 0
A= 0 1 1 0  , B =  −1 −2 1 1 0 ,C = 1 1 0.
−2 −1 3 −2 1 2 −3 −7 −2 0 0 1

Ejercicio 13. a) Construye una matriz cuyo espacio nulo esté generado por (1, 0, 1)T .
b) ¿ Existe una matriz cuyo espacio fila contenga al vector (1, 1, 1)T y cuyo espacio nulo contenga
al vector (1, 0, 0)T .

Ejercicio 14. Determina el rango de los siguientes conjuntos de polinomios de grado menor o
igual que 3:
p1 (x) = 1 + x + x2 + 2x3 , p2 (x) = −2 + 3x + 2x2 − x3 ,
p3 (x) = 1 − 2x + 2x3 , p4 (x) = 4x + 6x2 + 6x3 .

Ejercicio 15. Sea T la aplicación de R4 en R3 definida por

T ([x1 , x2 , x3 , x4 ]T ) = [x1 − 2x2 + x3 − x4 , 2x1 − x2 + x4 , 3x2 − 2x3 + 3x4 ]T

69
a) Comprueba que T es una transformación lineal.
b) Halla la dimensión y una base de Im(T ).
c) Halla la dimensión y una base de Ker(T ).

Ejercicio 16. Sea T la aplicación de R3 en R2 definida por

T ((x, y, z)T ) = (2x + y, y − z)T .

a) Comprueba que T es una transformación lineal.


b) Halla la dimensión y una base de Ker(T ) e Im(T ).
c) Dadas las bases {(1, 1, 1)T , (0, 1, 2)T , (0, 2, 1)T } de R3 y {(2, 1)T , (1, 0)T } de R2 , halla las cor-
respondientes matrices de cambio de base y la matriz de la aplicación en estas nuevas bases.

Ejercicio 17. Sea T la transformación lineal de R3 definida por

T ([x1 , x2 , x3 ]T ) = [x1 − x2 + x3 , 2x1 − 3x2 − x3 , −x1 + 4x2 + 5x3 ]T .

a) Halla la matriz de T en la base canónica de R3 .


b) Sean ~v1 = [1, 1, 0]T , ~v2 = [1, 3, 2]T y ~v3 = [3, 1, 2]T . Halla la matriz de T en la nueva base
B 0 = {~v1 , ~v2 , ~v3 }.
c) Demuestra que T es invertible y da una expresión para T −1 como la que definió a T .

Ejercicio 18. Determina una aplicación lineal T : R4 → R3 tal que Ker(T ) esté generado por
los vectores (−1, 0, 0, 1)T y (1, 3, 2, 0)T y tal que Im(T ) esté generada por los vectores (1, 1, 1)T
y (0, −2, 1)T .

Ejercicio 19. Se considera la aplicación lineal de P4 [X] en R2 dada por:


T : P4 [X] → R2
T (p) = (p(−1), p(1))T .
a) Halla la matriz que representa a dicha aplicación lineal en las bases canónicas de ambos
espacios.
b) Halla una base de Ker(T ).
c) Se consideran las bases B = {1, x − 1, x2 − 1, x(x2 − 1), x4 } de P4 [X] y B 0 = {(1, 1)T , (2, 1)T }
de R2 . Halla M (T, B, B 0 ).

ALGUNOS EJERCICIOS RESUELTOS. TEMA 2

Ejercicio 3.
(a) No es subespacio.
(b) Subespacio de dimensión tres. Una base es, por ejemplo

{(2, 1, 0, 0)T , (−4, 0, 1, 0)T , (1, 0, 0, 1)T }.

(c) No es subespacio.

Ejercicio 5.
F = {(x, y, z, t)T /z − x = 0, 2x + y + t = 0}. dim(F ) = 2. Base: {(1, 1, 1, −3)T , (0, −5, 0, 5)T }.
G = {(x, y, z, t)T /y − t = 0, 2y + 3t = 0}. dim(G) = 2. Base: {(1, 0, 0, 0)T , (0, 0, 1, 0)T }.

70
H = {(x, y, z, t)T /−x+z +t = 0}. dim(H) = 3. Base: {(0, 1, 0, 0)T , (1, 0, −1, 2)T , (2, 0, 0, 2)T }.
F + G = R4 , F + H = R4 .
F ∩ H = {(x, y, z, t)T /t = 0, x = z, y = −2z}. dim(F ∩ H) = 1. Base: {(1, −2, 1, 0)T }.

Ejercicio 6.
(a) Ligados para todo valor de a.
(b) Libres si a 6= 4. En otro caso, ligados.
(c) Libres si a 6= −1.

Ejercicio 7. Una base de S está formada, por ejemplo, por los polinomios p1 (x) = 1+2x, p2 (x) =
−4x + x2 . Buscamos ahora escribir el polinomio p(x) = 4 − 4x + 3x2 como combinación lineal de
p1 y p2 , es decir, p(x) = λ1 p1 (x) + λ2 p2 (x). En coordenadas, λ1 y λ2 deben satisfacer el sistema
   
1 0 µ ¶ 4
 2 −4  λ1 =  −4  ,
λ2
0 1 3

de donde las coordenadas son λ1 = 4, λ2 = 3.

Ejercicio 8.
a) Una base la forman, por ejemplo, los tres primeros vectores. Se puede ampliar esa base con,
por ejemplo, el vector (0, 0, 0, 1)T . Las coordenadas de (1, 0, 2, 1)T en esa nueva base forman la
solución del sistema     
2 −1 3 0 x1 1
1 0 1 0   x2   0 
   =  ,
3 0 1 0   x3   2 
0 2 1 1 x4 1
que es (x1 , x2 , x3 , x4 )T = (1, −2, −1, 6)T .
b) Una base está formada por los vectores (1, 1, 0, −1)T , (0, −2, 1, 5)T . Se pueden completar a una
base de R4 con, por ejemplo (0, 0, 1, 0)T , (0, 0, 0, 1)T . Las coordenadas de (1, 0, 2, 1)T en esa nueva
base forman la solución del sistema
    
1 0 0 0 x1 1
 1 −2 0 0   x2   0 
   =  ,
 0 1 1 0   x3   2 
−1 5 0 1 x4 1

que es (x1 , x2 , x3 , x4 )T = (1, 1/2, 3/2, −1/2)T .

Ejercicio 9.
(1) Los cinco polinomios son linealmente independientes y como dimP4 [X] = 5, forman una base.
(2) En términos de coordenadas en la base canónica de P4 [X], W se puede describir como

W = {p(x) = a0 + a1 x + a2 x2 + a3 x3 + a4 x4 /p(1) = a0 + a1 + a2 + a3 + a4 = 0,
p(−1) = a0 − a1 + a2 − a3 + a4 = 0},

que es un sistema homogéneo de dos ecuaciones para cinco incógnitas, luego W es un subespacio
vectorial.

71
(3) Resolviendo el sistema, W nos queda

W = {p(x) = a0 + a1 x + a2 x2 + a3 x3 + a4 x4 /a0 = −a2 − a4 , a1 = −a3 },

luego su dimensión es tres. Una base puede estar formada por los polinomios

p1 (x) = −1 + x4 → (−1, 0, 0, 0, 1)T


p2 (x) = −x + x3 → (0, −1, 0, 1, 0)T
p3 (x) = −1 + x2 → (−1, 0, 1, 0, 0)T .

(4) Se puede completar esta base a una de P4 [X] con, por ejemplo, los polinomios

p4 (x) = x3 → (0, 0, 0, 1, 0)T


p5 (x) = x5 → (0, 0, 0, 0, 1)T .

B 0 = {p1 , p2 , p3 , p4 , p5 }.
(5) El esquema para hallar la matriz de cambio de base es el siguiente

I5 - P4 [X]B
P4 [X]Bc c

6 6

M (B 0 , Bc ) M (B 0 , Bc )

M (B 0 , B)
-
P4 [X]B 0 P4 [X]B

de modo que
 
−1 0 −1 0 0
 1 −1 0 0 0
 
0 −1 0  
M (B , B) = M (B, Bc ) M (B , Bc ) =  1 0 0 0 0.
 
 0 1 0 1 0
0 0 1 0 1

(6) V es el subespacio generado por los polinomios p4 (x) y p5 (x).

72
Ejercicio 10.
(b) Coordenadas: (5, −5/2, 17/12, −25/24, 113/144)T .

Ejercicio 11. No pertenece al subespacio.

Ejercicio 12.
Para la matriz A:

dimf il(A) = 2. Base: (1, 2, 0, 1)T , (0, 1, 1, 0)T .

dimcol(A) = 2. Base: (1, 0, −2)T , (2, 1, −1)T .

dimKer(A) = 2. Base: (2, −1, 1, 0)T , (−1, 0, 0, 1)T .

dimKer(AT ) = 1. Base: (2, −3, 1)T .

Para la matriz B:

dimf il(B) = 2. Base: (1, 2, 0, 2, 1)T , (0, 0, 1, 3, 1)T .

dimcol(B) = 2. Base: (1, −1, 1)T , (0, 1, −3)T .

dimKer(B) = 3. Base: (−1, 0, −1, 0, 1)T , (−2, 0, −3, 1, 0)T , (2, 1, 0, 0, 0)T .

dimKer(B T ) = 1. Base: (2, 3, 1)T .

Para la matriz C:

dimf il(C) = 3. Base: (i, −i, 0)T , (1, 1, 0)T , (0, 0, 1)T .

dimcol(C) = 3. Base: (i, 1, 0)T , (−i, 1, 0)T , (0, 0, 1)T .

Ker(C) = {(0, 0, 0)T }.

Ker(C T ) = {(0, 0, 0)T }.

µ ¶
0 1 0
Ejercicio 13. (a) Por ejemplo A = .
1 0 −1
(b) No.

Ejercicio 14. Rango tres.

Ejercicio 15.
a) T es producto de matriz por vector, luego es una aplicación lineal; concretamente:
   
x1   x
  1 −2 1 −1  1 
x2   x2 
T ((x1 , x2 , x3 , x4 )T ) = A 
 x3  = 2 −1 0 1 
 x3  .
0 3 −2 3
x4 x4

b) dimIm(T ) = dimcol(A) = 2. Base:{(1, 2, 0)T , (−2, −1, 3)T }. c) dimKer(T ) = dimKer(A) =


2. Base: {(1, 2, 3, 0)T , (−1, 0, 3, 2)T }.

73
Ejercicio 16. La matriz de T en las bases canónicas es
µ ¶
2 1 0
A= .
0 1 −1

b) Ker(T ) = Ker(A) = h(−1, 2, 2)T i, Im(T


µ ) = col(A)
T T
¶ = h(2, 0) , (1, 1) i.
0 −1 1
c) la matriz de T en las nuevas bases es .
3 3 0

Ejercicio 17.
a)  
1 −1 1
A = M (T, Bc , Bc ) =  2 −3 −1  .
−1 4 5
b)  
−7/2 −51/2 −17/2
0 0 
M (T, B , B ) = 1/2 3 2 .
1 15/2 7/2
c) T es invertible si una matriz cualquiera asociada a T es invertible. Como por ejemplo det(A) =
3, entonces T es invertible. Además,
 
−11/3 3 4/3
M (T −1 , Bc , Bc ) =  −3 2 1 .
5/3 −1 −1/3

Nota: Para discutir si existe T −1 es necesario que T actúe entre espacios de la misma dimensión.

Ejercicio 19.
a) Si p(x) = a0 + a1
x+ a2 x2 + a3 x3 + a4 x4 , entonces T (p) = (a0 − a1 + a2 − a3 + a4 , a0 − a1 +
a0
a 
 1
 
a2 − a3 + a4 )T = A  a2  donde
 
 a3 
a4
µ ¶
1 −1 1 −1 1
A= .
1 1 1 1 1

b) dimKer(T ) = dimKer(A) = 3. Una base puede estar formada, por ejemplo, por los polinomios
p1 (x) = −1 + x2 , p2 (x) = −x + x3 , p3 (x) = −1 + x4 .
c)  
1 −1 −1 0 0
µ ¶ 0 1 0 −1 0 
1 2 −1   µ1 2 0 0 1

0  
M (T, B, B ) = A0 0 1 0 0 = .
1 1   0 −2 0 0 0
0 0 0 1 0 
0 0 0 0 1

74
Tema 4

Espacios euclı́deos

El objetivo de este tema es la resolución de ciertos problemas de aproximación en espacios


vectoriales. Para ello necesitaremos utilizar la idea de ortogonalidad entre vectores.

4.1. Ejemplo introductorio.


Volvemos al espacio vectorial R2 . Aquı́, se puede decir que dos vectores son perpendiculares u
ortogonales si forman ángulo recto. Podemos traducir esta condición en términos de coordenadas
para una mejor manipulación en la práctica. Sean ~u = (u1 , u2 )T , ~v = (v1 , v2 )T dos vectores en
R2 ortogonales. Esto significa que si, por ejemplo, giramos ~v un ángulo de noventa grados, el
resultado es un vector que debe estar en la misma recta que ~u, es decir, que debe ser proporcional
a ~u. Recordemos del tema anterior que un giro de noventa grados transforma ~v = (v1 , v2 )T en el
vector
µ ¶µ ¶ µ ¶
0 −1 v1 −v2
= .
1 0 v2 v1

Si este vector es proporcional a ~u = (u1 , u2 )T , entonces es de la forma


µ ¶ µ ¶
−v2 u1
=λ , (4.1)
v1 u2

para cierta constante λ ∈ R. Si u1 6= 0, u2 6= 0, esto significa que


−v2 v1
= = λ.
u1 u2
Entonces

u1 v1 + u2 v2 = 0.

Si u1 = 0, entonces de (4.1) también es v2 = 0 y se verifica u1 v1 + u2 v2 = 0. Análogamente, si


es u2 = 0, entonces de (4.1) también es v1 = 0 y también se verifica u1 v1 + u2 v2 = 0. Luego la
condición de ortogonalidad entre los vectores en términos de coordenadas es
µ ¶
T v1
~u ~v = (u1 , u2 ) = u1 v1 + u2 v2 = 0.
v2

75
La operación
µ ¶
v1
h~u, ~v i = ~uT ~v = (u1 , u2 ) = u1 v1 + u2 v2 ,
v2

se llama producto escalar euclı́deo en R2 .


La importancia de la ortogonalidad entre vectores del plano aparece en muchos problemas,
sobre todo geométricos. Algunos de ellos están relacionados con la proyección ortogonal de un
vector sobre un subespacio. Por ejemplo, en la figura

AK
~v ¢¢̧ A
A ~v − P~v
¢ A
¢ ©
©
¢
A ©©

¢ ©©*P~
© v
¢ ©
© ©
©
¢ ©© ©©
© ©
¢
©©
©©

se muestra el vector P~v que es proyección ortogonal de un vector ~v sobre una recta que pasa
por el origen. Tal proyección se determina obligando a que la diferencia entre los dos vectores
~v − P~v sea perpendicular a la recta. Esta construcción proporciona además la distancia entre el
punto ~v = (x, y) del plano y la recta, como el módulo del vector diferencia entre ~v y su proyección
ortogonal. Fijémonos en que esta distancia es la mı́nima posible entre (x, y) y los puntos de la
recta, y se determina a través de la proyección ortogonal.
No parece difı́cil extender esta idea al espacio tridimensional, donde la ortogonalidad es tam-
bién visualizable. El problema ahora es buscar la manera de hablar de ortogonalidad y proyección
ortogonal en un espacio vectorial cualquiera. Necesitamos en principio definir algo que generalice
el producto escalar euclı́deo de R2 .

4.2. Producto escalar


Sea V un espacio vectorial sobre K = R ó C. Un producto interno o producto escalar en V es
toda aplicación

h·, ·i : V × V → K,

que debe verificar las siguientes propiedades:


(1) h~u1 + ~u2 , ~v i = h~u1 , ~v i + h~u2 , ~v i.

(2) hλ~u, ~v i = λh~u, ~v i.

(3) h~u, ~v i = h~v , ~ui.

(4) h~u, ~ui ≥ 0 y si h~u, ~ui = 0 necesariamente ~u = ~0.

76
Combinando estas propiedades se tienen otras dos
h~u, ~v1 + ~v2 i = h~u, ~v1 i + h~u, ~v2 i.

h~u, λ~v i = λ̄h~u, ~v i.


Un espacio vectorial euclı́deo no es más que un espacio vectorial dotado de un producto
interno.
Asociado a un producto interno se encuentra la norma o longitud de un vector ~v ∈ V que se
define como
q
||~v || = h~v , ~v i.

Se verifica siempre que ||λ~v || = |λ|||~v ||, λ ∈ K, ~v ∈ V .

Ejemplos.

[1] V = Rn , n = 1, 2, 3, . . .. Como hemos mencionado, el producto interno más célebre es el


euclı́deo: si ~v = (v1 , . . . , vn )T , ~u = (u1 , . . . , un )T se define

h~u, ~v i = u1 v1 + · · · + un vn .

La norma asociada es la llamada norma eucı́dea:


q
||~v || = v12 + · · · + vn2 ,

que determina geométricamente la longitud de un vector de Rn .

[2] V = C n , n = 1, 2, 3, . . .. En este caso se puede definir el producto interno

h~u, ~v i = u1 v̄1 + · · · + un v̄n ,

y la norma es la del ejemplo anterior,


q
||~v || = v12 + · · · + vn2 .

[3] V = {f : [0, 2π] → R, f continua}. Se puede definir,


Z 2π
hf, gi = f (x)g(x)dx,
0

que es un producto interno sobre V (esto es, verifica las propiedades (1)-(4) de la definición). La
correspondiente norma es
µZ 2π ¶1/2
||f ||2 = f (x)2 dx .
0

En principio, en un mismo espacio vectorial pueden definirse productos internos diferentes.


Por otro lado, hay varias desigualdades importantes asociadas a un producto interno.

Teorema 1. Sea (V, h·, ·i) un espacio vectorial euclı́deo. Entonces, se verifican

77
La desigualdad de Cauchy-Schwarz: si ~u, ~v ∈ V

|h~u, ~v i| ≤ ||~u||||~v ||.

La igualdad se produce si y sólo si ~u y ~v son linealmente dependientes.

La desigualdad de Minkowsky: si ~u, ~v ∈ V

||~u + ~v || ≤ ||~u|| + ||~v ||.

La igualdad se cumple si y sólo si los vectores ~u y ~v son proporcionales con coeficiente de


proporcionalidad positivo.

Ya hemos visto en R2 que la importancia desde un punto de vista geométrico de un producto


interno viene dada por su relación con el ángulo formado por dos vectores. Esto puede gener-
alizarse a cualquier producto interno en cualquier espacio vectorial. Vamos a buscar una fórmula
que relacione el producto escalar con el ángulo entre vectores. Pensemos por ejemplo en el plano
V = R2 y el producto euclı́deo

h~u, ~v i = u1 v1 + u2 v2 .

~v
¢̧ ~u
¢
¢ ¡¡
µ
¢ ¡
¢¡
¡
¢

Los elementos ~u, ~v ∈ V pueden representarse como vectores en el plano que parten del origen.
Sean α y β respectivamente los ángulos formados por los vectores ~u y ~v con el eje horizontal. Se
tiene,

sin α = u2 /||~u||, cos α = u1 /||~u||,


sin β = v2 /||~v ||, cos β = v1 /||~v ||.

Ahora, el ángulo θ formado por los vectores ~u y ~v es θ = α − β, de modo que

u1 v1 + u2 v2 h~u, ~v i
cos θ = cos(α − β) = cos α cos β + sin α sin β = = ,
||~u||||~v || ||~u||||~v ||

y se tiene la fórmula para determinar el ángulo entre los dos vectores en función del producto
interno y la norma:

h~u, ~v i = ||~u||||~v || cos θ. (4.2)

78
Esta fórmula es general: si (V, h·, ·i) es un espacio vectorial euclı́deo, ~u, ~v ∈ V , entonces el ángulo
θ entre ~u y ~v viene dado por

Re(h~u, ~v i) = ||~u||||~v || cos θ.

(En el lado izquierdo se toma la parte real pues la fórmula es válida para cualquier producto
interno, sea real o complejo).

4.3. Sistemas y bases ortogonales y ortonormales


Esta idea de ortogonalidad es entonces la generalización a un espacio euclı́deo del concepto
geométrico de vectores perpendiculares. Volviendo al ejemplo anterior de R2 , los vectores ~u y
~v serán perpendiculares si forman un ángulo recto. Según (4.2), esto significa que h~u, ~v i = 0
(recuérdese la introducción). Ello motiva la siguiente

Definición. Sea (V, h·, ·i) un espacio vectorial euclı́deo. Se dice que dos vectores ~u y ~v son orto-
gonales cuando h~u, ~v i = 0.

Ejemplo 1. En Rn con el producto euclı́deo, la ortogonalidad significa que

u1 v1 + · · · + un vn = 0,

o, en términos matriciales,

~uT ~v = 0.

por ejemplo, ~u = (0, 1, 0, −1)T y ~v = (1, 1, 1, 1)T son ortogonales para este producto interno.

Ejemplo 2. Sea V = {f : [0, 2π] → C, f continua}. Se puede definir,


Z 2π
hf, gi = f (x)g(x)dx,
0

que es un producto interno sobre V . Las funciones f (x) = e3ix , g(x) = eix verifican
Z 2π Z 2π
e2ix 2π
hf, gi = e3ix e−ix dx = e2ix dx = | = 0.
0 0 2i 0
Luego las funciones f y g son ortogonales para este producto interno.

Se dice que un sistema de vectores no nulos {~e1 , ~e2 , . . . , ~en } en V es

Ortogonal si h~ek , ~el i = 0 para k 6= l.

Ortonormal si es ortogonal y además todos los vectores tienen norma uno, es decir

h~ek , ~el i = 0, k 6= l, h~ek , ~ek i = 1, k = 1, . . . , n.

Ası́, por ejemplo, los vectores ~e1 = (1, 1)T , ~e2 = (−1, 1)T forman un sistema ortogonal para el
producto interno euclı́deo en R2 y los vectores ~e1 = (1, 0)T , ~e2 = (0, 1)T forman un sistema

79
ortonormal. La diferencia está en que los vectores ortonormales, además de ser ortogonales, han
de tener norma uno.
Ası́, un sistema ortonormal es siempre ortogonal. Por otro lado, si uno tiene un sistema
{~e1 , ~e2 , . . . , ~en } ortogonal de vectores no nulos, basta considerar el conjunto de vectores

~e1 ~e2 ~en


{ , ,..., }
||~e1 || ||~e2 || ||~en ||

para obtener un sistema ortonormal. Por ejemplo, el sistema ortogonal anterior {~e1 = (1, 1)T , ~e2 =
(−1, 1)T } genera el sistema ortonormal { ||~~ee11 || = ( √12 , √12 )T , ||~~ee22 || = (− √12 , √12 )T }.
Por último, un sistema ortogonal de vectores no nulos es siempre un conjunto linealmente
independiente de vectores. En efecto, consideremos un sistema ortogonal {~e1 , ~e2 , . . . , ~en } y una
combinación nula cualquiera

α1~e1 + α2~e2 + · · · + αn~en = ~0.

Para comprobar que los vectores son independientes tenemos que llegar a que los coeficientes de
la combinación son todos nulos. Si hacemos el producto interno de la combinación lineal con ~e1 ,
tenemos

~0 = h~0, ~e1 i = hα1~e1 + α2~e2 + · · · + αn~en , ~e1 i


= α1 h~e1 , ~e1 i + α2 h~e2 , ~e1 i + · · · + αn h~en , ~e1 i = α1 h~e1 , ~e1 i = α1 ||~e1 ||2 ,

donde hemos utilizado la ortogonalidad de los vectores ~e1 , ~e2 , . . . , ~en . De aquı́, necesariamente
α1 = 0. Este razonamiento puede repetirse con los vectores ~e2 , ~e3 hasta ~en , concluyendo que
α2 = α3 = · · · = αn = 0 y, por tanto, los vectores son independientes.

Las bases que son ortogonales u ortonormales son muy útiles, entre otras cosas porque per-
miten obtener de forma sencilla las coordenadas de un vector en ellas. Esto es lo que afirma el
siguiente resultado.

Teorema 2. Sea (V, h·, ·i) un espacio vectorial euclı́deo y {~e1 , ~e2 , . . . , ~em } un sistema ortogonal
con espacio generado W . Si ~u ∈ W , entonces

h~u, ~e1 i h~u, ~e2 i h~u, ~em i


~u = 2
~e1 + 2
~e2 + · · · + ~em .
||~e1 || ||~e2 || ||~em ||2

En particular, si {~e1 , ~e2 , . . . , ~em } es ortonormal, entonces

~u = h~u, ~e1 i~e1 + h~u, ~e2 i~e2 + · · · + h~u, ~em i~em .

Por ejemplo, el sistema B = {~e1 , ~e2 , ~e3 } con ~e1 = (1, 1, −1)T , ~e2 = (−1, 1, 0)T , ~e3 = (1, 1, 2)T ,
es un sistema ortogonal, y por tanto forma una base ortogonal, de R3 para el producto escalar
euclı́deo. Si ~u = (3, −2, 4)T , podemos calcular las coordenadas de ~u con respecto a la base B de
dos maneras: la primera, utilizando las fórmulas de cambio de base analizadas en el tema 2, es
decir, si ~u = α1~e1 + α2~e2 + α3~e3 , entonces las coordenadas α1 , α2 , α3 resuelven el sistema lineal
    
1 −1 1 α1 3
 1 1 1   α2  =  −2  ,
−1 0 2 α3 4

80
de donde α1 = −1, α2 = −5/2, α3 = 3/2. La segunda forma utiliza el teorema 2. Como la base es
ortogonal, entonces

h~u, ~e1 i h~u, ~e2 i h~u, ~e3 i


~u = α1~e1 + α2~e2 + α3~e3 = 2
~e1 + 2
~e2 + ~e3 .
||~e1 || ||~e2 || ||~e3 ||2

Calculando los productos internos, se tiene

h~u, ~e1 i h~u, ~e2 i 5 h~u, ~e3 i 9


= −1, =− , = ,
||~e1 ||2 ||~e2 ||2 2 ||~e3 ||2 6

obteniéndose las mismas coordenadas que con la primera forma.


La obtención de bases ortogonales y ortonormales será importante al tratar los problemas de
aproximación en este tema. Por eso presentamos ahora un procedimiento para que, a partir de
una base cualquiera, se pueda obtener una base ortogonal.

4.4. Método de ortogonalización de Gram-Schmidt


Teorema 3 (Método de ortogonalización de Gram-Schmidt). Sea {~v1 , ~v2 , . . . , ~vm } un sistema
libre de vectores en un espacio vectorial euclı́deo (V, h·, ·i). Entonces,

(a) Existe un nuevo sistema ortogonal y libre {~e1 , ~e2 , . . . , ~em } tal que ~e1 = ~v1 y para k =
2, . . . , m el vector ~ek está determinado de forma única por la relación

~ek = ~vk − α1k~e1 − · · · − αk−1,k~ek−1 ,

y las relaciones de ortogonalidad,

h~ek , ~el i = 0, l = 1, . . . , k − 1.

(b) El nuevo sistema genera el mismo espacio que el de partida. En particular, toda base de V
se puede ortogonalizar.

El procedimiento enunciado en el teorema es como sigue. Dados {~v1 , ~v2 , . . . , ~vm } linealmente
independientes, el primer vector no cambia:

~e1 = ~v1 .

para obtener ~e2 , escribimos ~e2 = ~v2 − α12~e1 e imponemos la ortogonalidad entre ~e1 y ~e2 ,

h~v2 , ~e1 i
h~e2 , ~e1 i = 0 ⇒ h~v2 , ~e1 i − α12 h~e1 , ~e1 i = 0 ⇒ α12 = .
||~e1 ||2

Queda ası́ determinado

h~v2 , ~e1 i
~e2 = ~v2 − ~e1 ,
||~e1 ||2

81
que, por construcción, es ortogonal a ~e1 . Ahora, para obtener ~e3 , se escribe ~e3 = ~v3 −α13~e1 −α23~e2
y se impone la ortogonalidad con ~e1 y ~e2 ,
h~v3 , ~e1 i
h~e3 , ~e1 i = 0 ⇒ h~v3 , ~e1 i − α13 h~e1 , ~e1 i = 0 ⇒ α13 = ,
||~e1 ||2
h~v3 , ~e2 i
h~e3 , ~e2 i = 0 ⇒ h~v3 , ~e2 i − α23 h~e2 , ~e2 i = 0 ⇒ α23 = .
||~e2 ||2
De este modo,
h~v3 , ~e1 i h~v3 , ~e2 i
~e3 = ~v3 − 2
~e1 − ~e1 .
||~e1 || ||~e2 ||2
El procedimiento permite un paso general. Supongamos que hemos obtenido ~e1 , . . . , ~ek−1 ortog-
onales y queremos obtener ~ek . Entonces escribimos ~ek = ~vk − α1k~e1 − α2k~e2 − · · · − αk−1,k~ek−1 e
imponemos las condiciones de ortogonalidad
h~vk , ~e1 i
h~ek , ~e1 i = 0 ⇒ α1k = ,
||~e1 ||2
.. .. ..
. . .
h~vk , ~ek−1 i
h~ek , ~ek−1 i = 0 ⇒ αk−1,k = ,
||~ek−1 ||2
con lo que ~ek queda determinado. Continuamos el proceso hasta obtener tantos vectores como al
principio.
Ejemplo. Supongamos que los vectores dados son
     
1 1 0
~v1 =  1  , ~v2 =  0  , ~v3 =  1  .
0 1 1
Entonces ~e1 = ~v1 . El vector ~e2 se obtiene de las condiciones
~e2 = ~v2 − α1,2~e1
h~e2 , ~e1 i = 0,
de donde
h~v2 , ~e1 i
~e2 = ~v2 − ~e1
h~e1 , ~e1 i
1
= ~v2 − ~e1 ,
2
y, operando, es ~e2 = (1/2, −1/2, 1)T . El tercer vector viene de las condiciones
~e3 = ~v3 − α1,3~e1 − α2,3~e2
h~e3 , ~e1 i = h~e3 , ~e2 i = 0,
por lo que
h~v3 , ~e1 i h~v3 , ~e2 i
~e3 = ~v3 − ~e1 − ~e2
h~e1 , ~e1 i h~e2 , ~e2 i
1 1
= ~v3 − ~e1 − ~e2 ,
2 3

82
y por tanto ~e3 = (−2/3, 2/3, 2/3)T .
Para obtener una base ortonormal, podemos primero calcular una base ortogonal {~e1 , ~e2 , . . . , ~em }
~e1 ~e2 ~en
a partir del método de Gram-Schmidt y luego dividir cada vector por su norma { , ,..., }.
||~e1 || ||~e2 || ||~en ||
Ası́, en el ejemplo anterior, los vectores ortonormales finales son entonces

r 1 r  1/2  r  −2/3 


~e1 1  ~e2 2 ~e3 3
~q1 = = 1 , ~q2 = = −1/2  , ~q3 = = 2/3  .
||~e1 || 2 ||~e2 || 3 ||~e3 || 4
0 1 2/3
Pueden darse otras alternativas para calcular una base ortonormal, basadas en modificaciones
del método de Gram-Schmidt.

4.5. Subespacio ortogonal a uno dado y proyección ortogonal


sobre un susbespacio
Al principio del tema mencionamos la proyección ortogonal de un vector sobre un subespacio
al hablar de la distancia de un punto del plano a una recta. Puesto que hemos extendido la
ortogonalidad a un espacio vectorial cualquiera a través del producto interno, intentamos ahora
hacer lo mismo con la proyección ortogonal. Del ejemplo en R2 debemos retener lo siguiente: la
proyección ortogonal de un vector sobre un subespacio es un vector del mismo subespacio cuya
diferencia con el original genera un vector que es ortogonal a todos los del subespacio sobre el que
proyectamos. Además, la proyección ortogonal es la mejor aproximación del vector por elementos
del subespacio, en el sentido de proporcionar la mı́nima distancia del vector al subespacio.
Dado un subconjunto U de un espacio vectorial euclı́deo (V, h·, ·i) se define su ortogonal como
U ⊥ = {~v ∈ V /h~u, ~v i = 0, ∀~u ∈ U }.
Es decir, U ⊥ está formado por aquellos vectores que son ortogonales a todos los vectores de U .
Hay que destacar que aunque U no sea un subespacio vectorial, el ortogonal U ⊥ siempre lo es.
Si, en particular, U es un subespacio vectorial, entonces U ∩ U ⊥ = {~0}.
El siguiente resultado proporciona la forma de manipular ortogonales en la práctica.

Teorema 4. Sea (V, h·, ·i) un espacio vectorial euclı́deo y W un subespacio de dimensión finita.
Entonces,
(i) Un vector ~v está en W ⊥ si y sólo si ~v es ortogonal a un sistema de generadores (en particular
a una base) cualquiera de W .
(ii) El subespacio ortogonal W ⊥ es suplementario de W , es decir, V = W ⊕ W ⊥ .
(iii) Cada vector ~v ∈ V se escribe de forma única como una suma de dos vectores ~v = w
~ + ~u,
con w ⊥
~ ∈ W , ~u ∈ W .
(iv) Si V tiene dimensión finita, entonces dimW ⊥ = dimV − dimW .
Vamos a ilustrar estos resultados.

Ejemplo 1. En R3 con el producto usual,


h~x, ~y i = x1 y1 + x2 y2 + x3 y3 ,

83
consideramos el subespacio W generado por el vector ~e1 = (1, 0, 0)T . Según el apartado (i) del
teorema 4, un vector ~v = (x, y, z)T está en W ⊥ si es ortogonal a un sistema generador cualquiera
de W ; como W está generado sólo por ~e1 = (1, 0, 0)T entonces
 
1
~v ∈ W ⊥ ⇔ h~v , ~e1 i = (x, y, z)  0  = x = 0.
0

Esto nos proporciona las ecuaciones del ortogonal de W ,

W ⊥ = {~v = (x, y, z)T ∈ R3 /x = 0}.

Una base de W T es, por ejemplo {~e2 = (0, 1, 0)T , ~e3 = (0, 0, 1)T }. Entonces, tenemos que
{~e1 , ~e2 , ~e3 } es una base de R3 . Esto es lo que significa el apartado (ii) del teorema 4; en este
caso R3 = W ⊕ W ⊥ .
Por otro lado, todo vector ~v = (x, y, z)T ∈ R3 se escribe como

~v = x~e1 + y~e2 + z~e3 = w


~ + ~u,

~ = x~e1 = (x, 0, 0)T ∈ W y ~u = y~e2 + z~e3 = (0, y, z)T ∈ W ⊥ . Esta es la descomposición


donde w
deducida en (iii) para este caso. Por último, como dimW = 1, entonces dimW ⊥ = dimR3 −
dimW = 2, como ya habı́amos obtenido al deducir las ecuaciones del subespacio W ⊥ .
Ejemplo 2. Sea A ∈ Mm,n (K). Entonces

(Ker(A))⊥ = f il(A)
(Ker(AT ))⊥ = col(A)

En efecto, vamos a comprobar la primera igualdad. La segunda queda como ejercicio y es trivial
a partir de la primera. Fijémonos en que si ~x es tal que A~x = ~0, este sistema de ecuaciones afirma
que cada fila de A es ortogonal a cualquier vector ~x ∈ Ker(A). Luego f il(A) ⊂ (Ker(A))⊥ . Como,
por otra parte, ambos subespacios tienen la misma dimensión, ha de ser (Ker(A))⊥ = f il(A).
Volvamos a la situación del teorema 4. El sumando w ~ ∈ W de la descomposición ~v = w ~ + ~u
se llama proyección ortogonal de ~v sobre W y se denota por PW (~v ).

Teorema 5. En las condiciones del teorema 4, se tiene:

(1) La proyección ortogonal PW (~v ) ∈ W de ~v sobre W queda caracterizada por la condición


~v − PW (~v ) es ortogonal a todo vector de W .

(2) La proyección ortogonal PW (~v ) de ~v sobre W es la mejor aproximación de ~v por elementos


de W , en el sentido de que es el más próximo a ~v de entre todos los vectores de W , es decir:

||~v − PW (~v )|| = mı́n{||~v − w||


~ :w~ ∈ W }.

La relación del apartado (1) del teorema da un medio práctico para calcular PW (~v ). Tomemos
una base cualquiera {w ~ 1, w
~ 2, . . . , w
~ m } de W . Encontrar PW (~v ) es encontrar escalares λ1 , . . . , λm
tales que PW (~v ) = λ1 w
~ 1 + · · · + λm w ~ m , puesto que la proyección ha de estar en W . Por otro lado,

84
para que se verifique la condición de (1) se necesita y basta que ~v − PW (~v ) sea ortogonal a cada
w
~ i . Por tanto, los λi quedan caracterizados por las m condiciones

h~v − (λ1 w
~ 1 + · · · + λm w
~ m ), w
~ 1i = 0
h~v − (λ1 w
~ 1 + · · · + λm w
~ m ), w
~ 2i = 0
.. .
. = ..
h~v − (λ1 w
~ 1 + · · · + λm w
~ m ), w
~ m i = 0,

es decir,

λ1 hw
~ 1, w
~ 1 i + · · · + λm hw
~ m, w
~ 1 i = h~v , w
~ 1i
λ1 hw
~ 1, w
~ 2 i + · · · + λm hw
~ m, w
~ 2 i = h~v , w
~ 2i (4.3)
.. .
. = ..
λ 1 hw
~ 1, w
~ m i + · · · + λ m hw
~ m, w
~ m i = h~v , w
~ mi

Las ecuaciones (4.3) se llaman ecuaciones normales del problema. Un caso particularmente sencillo
es aquél en el que la base {w
~ 1, w
~ 2, . . . , w
~ m } es ortogonal. Entonces, el sistema (4.3) tiene la forma

~ 1 ||2 = h~v , w
λ1 ||w ~ 1i
.. .
. = ..
~ m ||2 = h~v , w
λm ||w ~ mi

con lo que se obtiene la fórmula cerrada

h~v , w
~ 1i h~v , w
~ mi
PW (~v ) = w
~1 + · · · + w
~ m.
||w~ 1 ||2 ||w~ m ||2

Hay que insistir en que esta fórmula sólo es válida cuando la base elegida en W , {w ~ 1, w~ 2, . . . , w
~ m}
es ortogonal. En caso contrario, hay que utilizar las ecuaciones normales para determinar la
proyección ortogonal.
Ejemplos.
(1) Sea W = {(x, y, z, t)T /x + y − z = 0, x − t = 0}. Buscamos la proyección ortogonal de
~v = (1, 1, 1, 0)T sobre W . Primero obtenemos una base de W , que puede ser, por ejemplo, w ~1 =
(1, 0, 1, 1)T , w
~ 2 = (0, 1, 1, 0)T . Ahora, la proyección ha de ser de la forma PW (~v ) = λ1 w
~ 1 + λ2 w ~ 2.
Para determinar las coordenadas λ1 , λ2 , debemos obligar a que el vector diferencia ~v − PW (~v )
sea ortogonal al sistema generador de W . El planteamiento de las condiciones de ortogonalidad
da lugar al sistema de ecuaciones normales

3λ1 + λ2 = 2
λ1 + 2λ2 = 2,

de donde λ1 = 2/5, λ2 = 4/5. Entonces


2 4
PW (~v ) = w~1 + w~ 2 = (2/5, 4/5, 6/5, 2/5)T .
5 5

85
(2) Consideremos ahora el espacio V de funciones reales y acotadas, definidas en el intervalo
[−1, 1] y dotado con el producto interno
Z 1
f, g ∈ V, hf, gi = f (x)g(x)dx.
−1

La función f : [−1, 1] → R dada por


½
1 si x ∈ [−1, 0]
f (x) =
−1 si x ∈ (0, 1]

está en V , ası́ como los polinomios 1, x, x2 . Vamos a buscar la proyección ortogonal de f sobre
el subespacio de polinomios de grado menor o igual que dos y coeficientes reales W , generado
por tanto por los polinomios 1, x, x2 . Al tener que ser un elemento de W , la proyección tendrá la
forma

PW (f )(x) = α0 + α1 x + α2 x2 .

Para determinar los coeficientes de este polinomio, debemos obligar a que la función diferencia
f − PW (f ) sea ortogonal al sistema generador de W . Esto nos lleva al sistema de ecuaciones
normales

f − PW (f ) ⊥ 1 ⇒ α0 h1, 1i + α1 hx, 1i + α2 hx2 , 1i = hf, 1i


f − PW (f ) ⊥ x ⇒ α0 h1, xi + α1 hx, xi + α2 hx2 , xi = hf, xi
f − PW (f ) ⊥ x2 ⇒ α0 h1, x2 i + α1 hx, x2 i + α2 hx2 , x2 i = hf, x2 i,

que, utilizando la definición del producto interno, tiene la forma


µZ 1 ¶ µZ 1 ¶ µZ 1 ¶ µZ 1 ¶
α0 1dx + α1 xdx + α2 x2 dx = f (x)dx ,
−1 −1 −1 −1
µZ 1 ¶ µZ 1 ¶ µZ 1 ¶ µZ 1 ¶
2 3
α0 xdx + α1 x dx + α2 x dx = xf (x)dx ,
−1 −1 −1 −1
µZ 1 ¶ µZ 1 ¶ µZ 1 ¶ µZ 1 ¶
2 3 4 2
α0 x dx + α1 x dx + α2 x dx = x f (x)dx .
−1 −1 −1 −1

Calculando las integrales, tenemos el sistema


2
2α0 + α2 = 0,
3
2
α1 = −1,
3
2 2
α0 + α2 = 0,
3 5
de donde α0 = α2 = 0, α1 = − 23 y, por tanto, la proyección ortogonal buscada es el polinomio
PW (f )(x) = − 32 x.
(3) Sea V = {f : [0, 2π] → R, f continua} con el producto interno
Z 2π
hf, gi = f (x)g(x)dx.
0

86
Vamos a buscar la proyección ortogonal de f (x) = x sobre el subespacio W generado por las
funciones 1, sin x, cos x. La proyección tendrá la forma PW (f ) = λ1 +λ2 sin x+λ3 cos x. Fijémonos
en que
Z 2π
h1, sin xi = sin xdx = − cos x|2π
0 = 0,
0
Z 2π
h1, cos xi = cos xdx = sin x|2π
0 = 0,
0
Z 2π
1
hsin x, cos xi = sin x cos xdx = − cos 2x|2π
0 = 0.
0 2
Esto significa que la base elegida en W es ortogonal. Entonces, la proyección ortogonal puede
calcularse como
hf, 1i hf, sin xi hf, cos xi
PW (f ) = 1+ sin x + cos x
h1, 1i hsin x, sin xi hcos x, cos xi
R 2π R 2π R 2π
xdx x sin xdx x cos xdx
= R02π + R02π 2
sin x + R02π cos x.
0 1dx 0 sin xdx 0 cos2 xdx

Calculando las integrales, tenemos que PW (f )(x) = π − 2 sin x. En este caso podemos usar la
fórmula cerrada para hallar la proyección, pues la base del subespacio sobre el que se proyecta es
ortogonal. Esto no podı́a hacerse en los anteriores ejemplos.

4.6. Problemas de ajuste


Hay muchos problemas (en Fı́sica, Economı́a, Comunicación, etc) cuyo planteamiento matemático
de fondo consiste en aproximar un cierto elemento de un espacio vectorial por elementos de un
subespacio de la mejor manera posible, en el sentido de que la distancia del elemento aproxima-
do a la aproximación sea mı́nima. De este modo, tales problemas involucran el cálculo de una
proyección ortogonal. En esta sección intentaremos presentar varios ejemplos clásicos.

4.6.1. Ejemplo 1. Sistemas sobredeterminados


Muchos problemas de aproximación o de ajuste desembocan en la resolución de un sistema
lineal

A~x = ~b, A ∈ Mm,n (R), ~b ∈ Rm , ~x ∈ Rn ,

sobredeterminado (m > n, muchas más ecuaciones que incógnitas), con las columnas de A inde-
pendientes (rango (A) = n) e incompatible, es decir, ~b ∈
/ W = col(A). Por ejemplo,
   
1 1 5
1 2 µ ¶  15 
  x  
  1  
1 3 =  24  , (4.4)
  x2  
1 4  32 
1 5 40

es de este tipo.

87
Si el sistema A~x = ~b no tiene solución, entonces ~b no puede ser combinación de las columnas
de A, es decir, ~b ∈/ W = col(A). Han de buscarse entonces valores de ~x de modo que, puesto
que A~x no puede ser ~b, esté lo más ‘cerca’ posible de ~b, en el sentido de que la norma euclı́dea
||A~x −~b|| sea la menor posible. Tales ~x juegan el papel de ‘soluciones’ en un sentido generalizado.
Su determinación comprende dos etapas:
(i) Hallar la mejor aproximación ~b∗ a ~b por elementos de W (proyección ortogonal).

(ii) Resolver el sistema A~x = ~b∗ en sentido convencional. La solución ~xLS de este sistema se
llama solución en el sentido mı́nimos cuadrados, pues por la caracterización de la proyección
ortogonal, hace mı́nima las distancias ||A~x − ~b|| cuando ~x recorre Rn .
En la práctica, estas dos etapas se suelen reunir de la siguiente forma. Denotemos por Ai la
i−ésima columna de A. Puesto que ~b∗ es la proyección ortogonal de ~b sobre W = col(A) y
~b∗ = A~xLS , entonces la condición de proyección ortogonal nos lleva a que ~b − ~b∗ = ~b − A~xLS debe
ser ortogonal a cada columna de A:

h~b − A~xLS , Aj i = 0, j = 1, 2, . . . , n,

o, equivalentemente

hA~xLS , Aj i = hAj , ~bi,

de modo que las ecuaciones normales en este caso nos llevan a

AT A~xLS = AT ~b. (4.5)

Si las columnas de A son linealmente independientes, el sistema de ecuaciones normales (4.5) tiene
solución única, y como hemos visto, es la solución de A~x = ~b en el sentido mı́nimos cuadrados.
De manera que para calcular la solución mı́nimos cuadrados de un sistema A~x = ~b, en la práctica
no se siguen las etapas (i) y (ii), sino que se plantea y resuelve directamente el sistema (4.5). Por
ejemplo, para el sistema (4.4) tenemos
µ ¶ µ ¶
T 5 15 T~ 116
A A= ,A b = ,
15 55 435

y la solución del sistema (4.5) en este caso es ~xLS = (−2,9, 8,7)T .

4.6.2. Ejemplo 2. Aproximación trigonométrica


Otra situación en la que aparece la proyección ortogonal tiene que ver con la aproximación
entre funciones. Tomemos como ilustración el siguiente ejemplo, tomado del conjunto de prácticas
computacionales The MATLAB Notebook, disponible en la web
http://dmpeli.math.mcmaster.ca/Matlab/Math1J03/ComputerLabs.
El oı́do humano reconoce ondas de sonido, que son variaciones en el tiempo de la presión del
aire. Las ondas de sonido entran al oı́do con diferentes frecuencias y el oı́do activa señales nerviosas
con las mismas frecuencias, que se envı́an al cerebro. De este modo, las señales representan para
nosotros el sonido. Sin embargo, el oı́do humano reconoce ondas de sonido con un rango limitado
de frecuencias, más o menos de 20 a 20000 ciclos por segundo. Ası́, los sonidos con frecuencias
fuera de este intervalo sólo pueden ser aproximados por el oı́do humano, que trunca estas señales
eliminando tales frecuencias.

88
1

0.8

0.6

0.4

0.2

−0.2

−0.4

−0.6

−0.8

−1
−5 0 5 10 15
−4
x 10

Figura 4.1: Función p(t).

Para ilustrar esto matemáticamente, vamos a considerar una onda de sonido con forma de
diente de sierra y frecuencia básica de 2000 ciclos por segundo. Tal onda es periódica en tiempo con
perı́odo T = 1/2000 = ,0005 segundos. La función p(t) que expresa dicha onda matemáticamente
puede escribirse:
µ ¶
2 T
p(t) = −t ,
T 2
para t ∈ [0, T ), repitiéndose periódicamente en intervalos de longitud T . El oı́do humano reconoce
sólo ondas de sonido que son funciones trigonométricas del tiempo
n
a0 X 2πkt 2πkt
q(t) = + (ak cos( ) + bk sin( )), a0 ∈ R, ak , bk ∈ R, 1 ≤ k ≤ n,
2 k=1
T T

donde ak , bk son las amplitudes de las componentes sinusoidales de la onda, mientras que las
frecuencias k/T se truncan al entero n tal que n/T ≤ 20000. La función q(t) es también periódica
de perı́odo T . Sin embargo, mientras que q(t) es una suma finita de ondas sinusoidales, la función
p(t) no lo es. Por tanto, la onda de sonido p(t) produce una respuesta del oı́do humano q(t) que
es sólo una aproximación de la onda p(t), obtenida truncando las frecuencias mayores de n/T .
El cálculo de la aproximación q(t) puede hacerse como una proyección ortogonal en un espacio
apropiado. La función q((t) debe hacer mı́nima la ‘distancia’ entre p(t) y cualquier expresión
combinación de funciones seno y coseno con frecuencias n/T ≤ 20000 (es decir, cualquier señal
para el oı́do humano). Tal ‘distancia’ se expresa a través de la integral
Z T
E= (p(t) − q(t))2 dt,
0

es decir, la función que buscamos debe aproximarse lo más posible al sonido original.

89
Vamos a resolver el problema en términos de una proyección ortogonal. Fijemos un número
n con n/T ≤ 20000. Consideremos el espacio V de las funciones acotadas de [0, T ] en R con el
producto interno
Z T
hf, gi = f (x)g(x)dx
0

ası́ como el subespacio de los llamados polinomios trigonométricos de grado menor o igual que n
( n
)
a0 X 2πkt 2πkt
Sn = + (ak cos( ) + bk sin( )), a0 ∈ R, ak , bk ∈ R, 1 ≤ k ≤ n, .
2 k=1
T T

Esto es, el subespacio Sn es el conjunto de combinaciones lineales de las funciones


2πt 2πt 4πt 4πt 2πnt 2πnt
{1, cos( ), sin( ), cos( ), sin( ), . . . , cos( ), sin( )}.
T T T T T T
Teniendo en cuenta el producto interno definido en este espacio, la función q(t) que buscamos es
la mejor aproximación a la función p(t) por elementos de Sn , es decir, la proyección ortogonal de
p(t) sobre Sn . Observemos que las funciones anteriores que generan Sn son ortogonales para este
producto interno, porque se verifica
Z
2πkt T 2πkt T 2πkt ¯¯T
h1, cos( )i = cos( )dt = sin( )¯ = 0,
T 0 T 2πk T 0
Z T
2πkt 2πkt T 2πkt ¯¯T
h1, sin( )i = sin( )dt = − cos( )¯ = 0,
T 0 T 2πk T 0
Z T
2πjt 2πkt 2πjt 2πkt
hsin( ), cos( )i = sin( ) cos( )dt
T T 0 T T
µ ¶
T 1 2π(j + k)t 2π(j + k)t ¯¯T
= sin( ) + sin( ) ¯ = 0.
2πk 2 T T 0

Por tanto, la proyección ortogonal puede calcularse usando la fórmula cerrada válida cuando
la base es ortogonal. En este caso
n
a0 X 2πkt 2πkt
q(t) = + (ak cos( ) + bk sin( )), a0 ∈ R, ak , bk ∈ R
2 k=1
T T

donde los coeficientes vienen dados por


RT
hp(t), 1i 0 p(t)dt
a0 = = RT = 0,
h1, 1i 0 dt
RT
hp(t), cos( 2πkt
T )i
2πkt
0 p(t) cos( T )dt
ak = = R T
= 0, 1 ≤ k ≤ n,
hcos( 2πkt 2πkt
T ), cos( T )i
2 2πkt
0 cos ( T )dt
RT
hp(t), sin( 2πkt
T )i
2πkt
0 p(t) sin( T )dt 2
bk = 2πkt 2πkt
= R T 2πkt
= , 1 ≤ k ≤ n.
hsin( T ), sin( T )i 2
0 sin ( T )dt

La figura 4.2 muestra la función p(t) y el polinomio q(t) con n = 10. Hay que observar cómo q(t)
da una aceptable aproximación excepto en los extremos.

90
1.5

0.5

−0.5

−1

−1.5
0 2 4 6
−4
x 10

Figura 4.2: Función p(t) (lı́nea continua) y aproximación q(t) (lı́nea discontinua) con n = 10.

4.6.3. Ejemplo 3. Aproximación con polinomios


Los dos ejemplos anteriores han pretendido ilustrar dos aplicaciones de una misma idea de
aproximación por mı́nimos cuadrados. En el primer ejemplo, la aproximación es discreta, mientras
que en el segundo se trata de una aproximación funcional. Es decir, cambia el espacio vectorial y
el producto interno, pero no la necesidad de aproximar usando proyecciones ortogonales.
Estas dos aplicaciones pueden hacer uso de una misma herramienta. Por ejemplo, los poli-
nomios pueden servir, en este contexto, para ajustar datos o para aproximar funciones.
Un problema de aproximación discreta por polinomios puede plantearse de la forma siguiente:
dado un conjunto de n + 1 datos

(x1 , y1 ), (x2 , y2 ), . . . , (xn+1 , yn+1 ),

hay que encontrar un polinomio y = pm (x) de grado m < n que mejor se ajuste a los n + 1 datos.
Lo de mejor ajuste se entiende en el sentido de que el polinomio debe minimizar las distancias a
los datos del problema: si ~x = (x1 , . . . , xn+1 ), ~y = (y1 , . . . , yn+1 ), entonces
 1/2
n+1
X
2
mı́n ||~y − ~z|| =  (yj − pm (xj )) .
z ∈Rn+1
~
j=1

El origen del problema podrı́a ser el siguiente: normalmente los datos proceden de la medición
de un determinado fenómeno. Si bien en la práctica (por ejemplo, al utilizar el ordenador) el uso
directo de los datos no da ningún problema, si se quiere averiguar algo sobre el fenómeno, no hay
más remedio que pasar de lo discreto a algo continuo, tratando de sustituir los datos por una
función que los aproxime con suficiente precisión y que sea lo suficientemente manejable para que
podamos representar el fenómeno a través de ella y ası́ establecer conjeturas sobre el mismo. La
elección primaria de los polinomios se debe a que son las funciones más simples de manipular.

91
8

0
0 1 2 3 4 5 6 7

Figura 4.3: Representación de los datos correspondientes a una señal afectada de ruido.

El planteamiento de este problema de aproximación sugiere una primera solución. Podrı́amos


interpolar los datos, es decir, construir un polinomio de grado n, qn , que pasase por todos los
puntos: qn (xj ) = yj , j = 1, . . . , n + 1. Esto, sin embargo, presenta varios problemas. Entre ellos,
está el grado del polinomio, que ha de ser alto si el número de datos es grande (algo bastante
habitual) con el consiguiente coste en el cálculo de los coeficientes.
En lugar de interpolar, se busca un polinomio de grado bajo que se ajuste a los datos en el
sentido antes mencionado. El polinomio no tiene por qué pasar por los datos (de hecho, no suele
pasar por ninguno) sino que debe hacer mı́nima su distancia a ellos. Fijémonos en el siguiente
ejemplo. La figura 4.3 muestra un conjunto de valores correspondientes a una señal que viene
afectada de un ruido. El número de datos es n + 1 = 256. Necesitamos, para representar la señal
de un modo más fiable (evitando el ruido) un polinomio que ajuste convenientemente la nube de
puntos. Observamos que si existiese un polinomio
y = pm (x) = a0 + a1 x + · · · + am xm
que pasase por todos los datos, los coeficientes aj cumplirı́an que
pm (x1 ) = a0 + a1 x1 + · · · + am xm
1 = y1
pm (x2 ) = a0 + a1 x2 + · · · + am xm
2 = y2
.. .. ..
. . .
pm (xn+1 ) = a0 + a1 xn+1 + · · · + am xm
n+1 = yn+1 ,

es decir, el sistema lineal A~x = ~b con


     
1 x1 x21 ··· xm1 y1 a0
1 x2 x22 ··· xm   y2   a1 
 2  ~b =    
A =  .. .. .. .. ,  .. , ~x =  .. .
. . . ··· .   .   . 
1 xn+1 x2n+1 · · · xm
n+1 yn+1 am

92
8

0
0 1 2 3 4 5 6 7

Figura 4.4: Datos correspondientes a una señal afectada de ruido y polinomio de ajuste de grado
m = 9.

Como tal polinomio no existe, hemos llegado a un sistema sobredeterminado sin solución. Del
primer ejemplo sabemos que la solución mı́nimos cuadrados del problema satisface el sistema

AT A~x = AT ~b,

que proporciona los coeficientes del polinomio que buscamos, pues éstos minimizan la distancia
 1/2
n+1
X
||A~x − ~b|| =  (yj − pm (xj ))2  . (4.6)
j=1

Ası́, en la figura 4.4 hemos dibujado los datos de la señal distorsionada por un ruido junto con el
polinomio de grado m = 9 que mejor ajuste los datos, cuyos coeficientes se obtienen resolviendo
(4.6) para las correspondientes matrices A y ~b. Recordemos que en este caso, el número de datos
es n + 1 = 256 (de modo que A tiene n + 1 = 256 filas y m + 1 = 10 columnas). Ası́, con
un polinomio de grado comparativamente bajo conseguimos una representación aceptable de la
señal.
El segundo problema, en este contexto, que afecta a los polinomios, tiene que ver con la
aproximación entre funciones. En muchos modelos puede haber funciones difı́ciles de manipular
y, a efectos prácticos, puede ser recomendable sus sustitución por polinomios apropiados.
Por ejemplo, tomemos la función
Z t
2
x(t) = e−x dx, −1 ≤ t ≤ 1,
−1

que puede representar, por ejemplo, el valor de la intensidad de corriente en un determinado


circuito eléctrico. El integrando carece de primitiva, de manera que no tenemos una expresión más

93
1.5 2

1.5
1
1

0.5
0.5
0

0 −0.5
−1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1

1.5 1.5

1 1

0.5 0.5

0 0
−1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1

Figura 4.5: Gráfico aproximado de la función x(t) (izquierda) y polinomios de ajuste de grados 2
(derecha arriba) y 3 (derecha abajo).

explı́cita de x(t). Vamos entonces a buscar un polinomio que aproxime a x(t). La aproximación
se realizará en el sentido mı́nimos cuadrados, de modo que, de entre todas las funciones reales
continuas definidas en [−1, 1], sea el polinomio p(t) el que minimice la distancia con la función
x(t). Tal distancia está referida al producto interno
Z 1
hf, gi = f (t)g(t)dt,
−1

de modo que si V es el espacio de funciones f : [−1, 1] → R continuas, entonces


µZ 1 ¶1/2
||x − p|| = (x(t) − p(t))2 dt = mı́n ||x(t) − f (t)||.
−1 f ∈V

De este modo, si n es el grado del polinomio p(t), éste debe encontrarse como la proyección
ortogonal de x(t) sobre el espacio de polinomios de grado menor o igual que n y coeficientes reales,
con respecto al producto interno antes definido. Por ejemplo, si n = 2, p(t) = a0 + a1 t + a2 t2 debe
verificar el sistema de ecuaciones normales

x(t) − p(t) ⊥ 1 ⇒ a0 h1, 1i + a1 ht, 1i + a2 ht2 , 1i = hx(t), 1i


x(t) − p(t) ⊥ t ⇒ a0 h1, ti + a1 ht, ti + a2 ht2 , ti = hx(t), ti
x(t) − p(t) ⊥ t2 ⇒ a0 h1, t2 i + a1 ht, t2 i + a2 ht2 , t2 i = hx(t), t2 i,

que en este caso tiene la forma


Z 1
2 2
2a0 + a2 = x(1) = e−x dx,
3 −1
2 1
a1 = ,
3 e

94
2 2 1
a0 + a2 = x(1),
3 5 3
de donde a0 = 12 x(1), a1 = 4e 3
+ 38 x(1), a2 = 0. La figura 4.5 muestra el gráfico aproximado de la
función x(t) en el intervalo [−1, 1] y el de su polinomio de aproximación de grados 2 y 3. Hay que
observar el buen ajuste de éste último con la función.

EJERCICIOS DEL TEMA 3

Ejercicio 1. (a) ¿Qué pares de vectores son ortogonales?

v1 = (1, 2, −2, 1)T , v2 = (4, 0, 4, 0)T , v3 = (1, −1, −1, −1)T .

(b) Halla en R3 todos los vectores ortogonales a la vez a v1 = (1, 1, 1)T y v2 = (1, −1, 0)T .

Ejercicio 2. Encuentra una base ortogonal de R3 partiendo del vector (1, 1, −1)T .

Ejercicio 3. Dada la base B = {(1, 1, 0)T , (1, 0, 1)T , (0, 1, 1)T }


(a) Construye una base ortonormal de R3 a partir de B.
(b) Escribe el vector (2, −1, 3)T en términos de la base ortonormal antes obtenida.

Ejercicio 4. Calcula una base ortonormal de R4 que incluya a los vectores


1 1 1 1 1 1
( √ , 0, √ , 0)T , (− , , , − )T .
2 2 2 2 2 2

Ejercicio 5. Halla una base ortonormal de los subespacios generados por los vectores siguientes:
a) [1, −1, 1, 1]T , [0, 1, 1, 1]T y [3, 1, 1, 0]T ,
b) [1, 1, 1, 1]T , [1, 1, 2, 4]T y [1, 2, −1, −2]T .

Ejercicio 6. Se considera la matriz


 
0 1 0
A =  1 1 1.
−1 1 0

(i) calcula una base ortonormal del subespacio columna col(A) utilizando el método de Gram-
Schmidt.
(ii) Llama Q a la matriz que tiene por columnas la base ortonormal obtenida en (i). Determina
larelación entre las columnas de A y las de Q.
(iii) Determina una matriz R de tres filas y tres columnas tal que A = QR. Esto es lo que se
llama factorización QR de la matriz A.
(iv) Repite el procedimiento con la matriz
 
1 1 2 0
1 0 1 1
A=
1
.
0 1 2
1 1 0 1

95
Ejercicio 7. Se consideran los subespacios U, V y W de R4 dados por:

U = {[x, y, z, t]T /x+y−z = 0, x−t = 0}, V = span([0, 1, 1, −1]T , [2, 0, 1, 1]T ), W = {[x, y, z, t]T /x+y = 0}.

a) Da las ecuaciones que definen U ⊥ , V ⊥ , W ⊥ .


b) Halla bases ortonormales de U , U ⊥ , V , V ⊥ , W y W ⊥ .

Ejercicio 8. Dado el subespacio S = {(x, y, z)T ∈ R3 : 2x − y + 3z = 0}


(a) Halla una base ortonormal de S.
(b) Calcula la proyección ortogonal del vector v = (3, −2, 4)T sobre S.
(c) Escribe v como suma de dos vectores, uno que esté en S y otro que sea ortogonal a todos los
vectores de S.

Ejercicio 9. Repite el ejercicio anterior para los siguientes subespacios y vectores:


(a) S = {(x1 , x2 , x3 , x4 )T ∈ R3 : 2x1 − x2 + 3x3 − x4 = 0}, v = (1, −1, 2, 3)T .
(b) S = {(x1 , x2 , x3 , x4 )T ∈ R3 : x1 = x2 , 3x2 = x4 }, v = (−1, 2, 3, −1)T .

Ejercicio 10. Calcula la descomposición del vector v en suma de dos vectores, uno en el sube-
spacio generado por los vectores wi que se indican y el otro ortogonal a dicho subespacio:
(a) v = (5, 2, −2, 1)T , w1 = (2, 1, 1, −1)T , w2 = (1, 1, 3, 0)T .
(b) v = (1, 0, −2, −1)T , w1 = (1, −1, 1, 1)T .

Ejercicio 11. Halla la solución en el sentido mı́nimos cuadrados de los sistemas


       
1 0 0 −1 1 1   1
 x
µ ¶
1 1 x 1  0 2 1 0
  =   y  =  .
1 3 y 2,  −1 3 2 1
z
1 4 5 −1 −1 1 1

Ejercicio 12. Sea P3 [X] el espacio de los polinomios reales de grado menor o igual a tres. Sea
T : P3 [X] → R2 la aplicación lineal que a cada polinomio p lo envı́a al vector (p(−1), p(1))T .
a) Calcula una base de Ker(T ).
b) En el conjunto de las funciones reales definidas en (−1, 1), se considera el producto interno
Z 1
hf, gi = f (x)g(x)dx.
−1

Aproxima en el sentido mı́nimos cuadrados la función f dada por




 0 si −1 ≤ x < 0
f (x) = 1 si 0 ≤ x ≤ 1/2

 0 si 1/2 < x ≤ 1

por elementos de Ker(T ).

Ejercicio 13. ¿ Qué recta ajusta mejor los siguientes datos: y = 0 en x = 0, y = 0 en x = 1,


y = 12 en x = 3 ?.

96
Ejercicio 14. Se considera la matriz
 
−1 0 1 0
 2 1 −3 2
A=
 −4
.
2 2 4
1 3 −4 6
(i) Calcula la dimensión, una base y las ecuaciones del subespacio W generado por las filas de A.

(ii) Con el producto interno euclı́deo de R4 , determina la proyección ortogonal del vector ~v =
(1, 1, 1, 1)T sobre W .

(iii) De un vector ~u se conoce que su proyección ortogonal sobre W es (−1, 1, 0, 2)T y su proyección
ortogonal sobre W ⊥ es (1, −1, 1, 1)T . Determina el vector ~u, razonando la respuesta.

Ejercicio 15. Se considera el espacio P2 [X] de polinomios de grado menor o igual que dos y
coeficientes reales, con el producto interno

hp, qi = p(0)q(0) + p(1)q(1) + p(2)q(2), p(x), q(x) ∈ P2 [X]. (4.7)

(i) Determina una base ortogonal de P2 [X] para el producto (4.7), a partir de la base canónica
de P2 [X].

(ii) Sea P1 [X] el subespacio de P2 [X] de polinomios de grado menor o igual que uno y coeficientes
reales. Calcula la mejor aproximación al polinomio p(x) = 1 − x2 por elementos de P1 [X], usando
el producto interno (4.7).

ALGUNOS EJERCICIOS RESUELTOS DEL TEMA3

Ejercicio 2. ~v1 = (1, 1, −1)T , ~v2 = (1, 0, 1)T , ~v3 = (1, −2, −1)T .

Ejercicio 4. Aparte de los dos que se dan, se pueden completar con


√ √
~v3 = (0, 1/ 2, 0, 1/ 2)T , ~v4 = (−1/2, −1/2, 1/2, 1/2)T .

Ejercicio 5.
~e1 ~e2 ~e3
a) Una base ortonormal serı́a w
~1 = ,w
~2 = ,w
~3 = donde
||~e1 || ||~e2 || ||~e3 ||

~e1 = (1, −1, 1, 1)T , ||~e1 || = 2,



~e2 = (−1/4, 5/4, 3/4, 3/4)T , ||~e2 || = 11/2,

~e3 = (26/11, 13/11, −1/11, −12/11)T , ||~e3 || = 990/11.
~e1 ~e2 ~e3
b) Una base ortonormal serı́a w
~1 = ,w
~2 = ,w
~3 = donde
||~e1 || ||~e2 || ||~e3 ||

~e1 = (1, 1, 1, 1)T , ||~e1 || = 2,



~e2 = (−1, −1, 0, 2)T , ||~e2 || = 6,

~e3 = (−1/6, 5/6, −1, 1/3)T , ||~e3 || = 66/6.

97
Ejercicio 7.
a)
U = {(x, y, z, t)T /x + y − z = 0, x − t = 0} = span((1, 0, 1, 1)T , (0, 1, 1, 0)T )
U ⊥ = {(x, y, z, t)T /x + z + t = 0, y + z = 0} = span((−1, −1, 1, 0)T , (−1, 0, 0, 1)T )
V = span((0, 1, 1, −1)T , (2, 0, 1, 1)T )
V ⊥ = {(x, y, z, t)T /y + z − t = 0, 2x + z + t = 0} = span((0, −2, 1, −1)T , (1, −2, 0, −2)T )
W = {(x, y, z, t)T /x + y = 0} = span((1, −1, 0, 0)T , (0, 0, 1, 0)T , (0, 0, 0, 1)T )
W ⊥ = {(x, y, z, t)T /x − y = 0, z = t = 0} = span((1, 1, 0, 0)T )
b)
Base ortonormal de U :~e1 = √1 (1, 0, 1, 1)T , ~
e2 = √115 (−1, , 3, 2, −1)T .
3
Base ortonormal de U ⊥ :~e1 = √13 (−1, −1, 1, 0)T , ~e2 = √115 (−2, 1, −1, 3)T .
Base ortonormal de V :~e1 = √13 (0, 1, 1, −1)T , ~e2 = √16 (2, 0, 1, 1)T .
Base ortonormal de V ⊥ :~e1 = √16 (0, −2, 1, −1)T , ~e2 = √13 (1, 0, −1, −1)T .
Base ortonormal de W :~e1 = √12 (1, −1, 0, 0)T , ~e2 = (0, 0, 1, 0)T , ~e3 = (0, 0, 0, 1)T .
Base ortonormal de W ⊥ :~e1 = √12 (1, 1, 0, 0)T .

Ejercicio 8. q
√ √ 5
~ 1 = (1/ 5, 2/ 5, 0)T , w
a) Base ortonormal, por ejemplo: w ~ 2 = 14 (−6/5, 3/5, 1)T .
q
b) PS (~v ) = h~v , w
~ 1 iw
~ 1 + h~v , w ~ 2 = − √15 w
~ 2 iw ~1 − 4
5
5
14 w
~ 2.
c) Basta con escribir ~v = ~v1 + ~v2 , donde
~v1 = PS (~v ) ∈ S, ~v2 = ~v − PS (~v ) ∈ S ⊥ .

Ejercicio 10.
(a) ~v = ~v1 + ~v2 donde ~v1 es la proyección ortogonal de ~v sobre el subespacio generado por w
~ 1, w
~ 2,
1
~v1 = P~v = (973, 322, −336, −651)T ,
287
mientras que
1
~v2 = ~v − ~v1 = (462, 252, −238, 938)T .
287
(b) ~v = ~v1 + ~v2 = − 12 (1, −1, 1, 1)T + (3/2, −1/2, −3/2, −1/2)T .

Ejercicio 11.
Primer sistema: x = −1/5, y = 11/10.
Segundo sistema: x = −1, y = 0, z = 0.

Ejercicio 12.
a) Una base es, por ejemplo: p1 (x) = −1 + x2 , p2 (x) = −x + x3 .
b) PKer(T ) (f )(x) = λ1 p1 (x) + λ2 p2 (x) donde λ1 , λ2 verifica el sistema de ecuaciones normales
µ ¶µ ¶ µ ¶
16/15 0 λ1 −11/24
= ,
0 16/105 λ2 −7/64
de donde λ1 = −55/128, λ2 = −735/1024.
30 12
Ejercicio 13. La recta y = 7 x − 7 .

98
4.7. Apéndice. Formas cuadráticas
4.7.1. Formas bilineales
Sea E un espacio vectorial real. Una forma bilineal en E es toda aplicación ϕ : E × E → R
que verifique:

ϕ(α1 ~x1 + α2 ~x2 , ~y ) = α1 ϕ(~x1 , ~y ) + α2 ϕ(~x2 , ~y ) (4.8)


para cualesquiera ~x1 , ~x2 , ~y ∈ E y α1 , α2 ∈ R y

ϕ(~x, β1 ~y1 + β2 ~y2 ) = β1 ϕ(~x, ~y1 ) + β2 ϕ(~x, ~y2 ) (4.9)


para cualesquiera ~x, ~y1 , ~y2 ∈ E y β1 , β2 ∈ R.
Una forma bilineal ϕ en E se dice que es simétrica cuando ϕ(~x, ~y ) = ϕ(~y , ~x) para cualesquiera
~x, ~y ∈ E.
Supongamos que E es de dimensión finita y sea B = {~bk }nk=1 una base de E. Dada una forma
bilineal ϕ : E × E → R se define la matriz de dicha forma en la base B como la matriz

M (ϕ, B) = {ϕ(bk , bl )}nk,l=1 .

Sean ~x, ~y ∈ E y pongamos

X = [x1 , x2 , . . . , xn ]T = M (~x, B),

Y = [y1 , y2 , . . . , yn ]T = M (~y , B).


Tendremos n n
X X
ϕ(~x, ~y ) = ϕ( xk~bk , yl~bl )
k=1 l=1
n
X n
X
= xk yl ϕ(~bk , ~bl ) = X T · M (ϕ, B) · Y,
k=1 l=1
es decir,
ϕ(~x, ~y ) = M (~x, B)T · M (ϕ, B) · M (~y , B).
Se puede ver que ϕ está unı́vocamente determinada por su matriz M (ϕ, B). Más precisamente,
se puede probar que dada A ∈ Mn,n (K) y dada una base B de E existe exactamente una forma
bilineal ϕ : E × E → R tal que A = M (ϕ, B). Se cumple también que ϕ es simétrica si, y sólo si,
A es simétrica.
Consideremos ahora dos bases B y B 0 de E y llamemos P = M (B 0 , B). Dada una forma
bilineal ϕ : E × E → R, tendremos las matrices

A = M (ϕ, B), A0 = M (ϕ, B 0 ).

Tomemos dos vectores cualesquiera ~x, ~y ∈ E y denotemos

X = M (~x, B), Y = M (~y , B), X 0 = M (~x, B 0 ), Y 0 = M (~y , B 0 ).

Recordando las relaciones de cambio de base

X = P X 0, Y = P Y 0,

99
podremos escribir
ϕ(~x, ~y ) = X T AY = X 0T A0 Y 0 ,
luego
X 0T A0 Y 0 = X T AY = (P X 0 )T AP Y 0
= X 0T P T AP Y 0 = X 0T (P T AP )Y 0 ,
y al poder ser X 0 , Y 0 ∈ Mn1 (R) arbitrarios, se deduce que necesariamente

A0 = P T AP.

Esta es pues la fórmula del cambio de base para las formas bilineales.
Dos matrices cuadradas A, B ∈ Mn,n (R) se llaman congruentes cuando existe P ∈ Mn,n (R)
regular con
B = P T · A · P.
Como acabamos de ver, las distintas matrices que representan a una misma forma bilineal son
dos a dos congruentes.

4.7.2. Formas cuadráticas


Sea E un espacio vectorial real y sea ϕ : E × E → R una forma bilineal simétrica. La forma
cuadrática generada por ϕ es la nueva aplicación Φ : E → R definida por

Φ(~x) = ϕ(~x, ~x), (~x ∈ E).

Sea ϕ : E × E → R una forma bilineal simétrica. Dados ~x, ~y ∈ E, tenemos

Φ(~x + ~y ) = ϕ(~x + ~y , ~x + ~y )
= ϕ(~x, ~x) + ϕ(~x, ~y ) + ϕ(~y , ~x) + ϕ(~y , ~y )
= Φ(~x) + 2ϕ(~x, ~y ) + Φ(~y ),

Φ(~x − ~y ) = ϕ(~x − ~y , ~x − ~y )
= ϕ(~x, ~x) + ϕ(~x, −~y ) + ϕ(−~y , ~x) + ϕ(−~y , −~y )
= Φ(~x) − 2ϕ(~x, ~y ) + Φ(~y ),

de donde se deduce la fórmula de polarización real


1
ϕ(~x, ~y ) = (Φ(~x + ~y ) − Φ(~x − ~y )).
4
A la vista de la fórmula de polarización es obvio que la correspondencia entre formas bilineales
simétricas y las formas cuadráticas es biyectiva. Si Φ es la forma cuadrática que corresponde a
una forma bilineal simétrica ϕ, entonces se dice que ϕ es la forma polar de Φ. La matriz de una
forma cuadrática Φ : E → E en una base B de E se define como la matriz de la forma polar ϕ
de Φ en dicha base. Tendremos

Φ(~x) = M (~x, B)T · M (Φ, B) · M (~x, B), (~x ∈ E).

100
4.7.3. Bases ortogonales
Sea E un espacio vectorial real de dimensión finita, sea ϕ : E × E → R una forma bilineal
simétrica y sea Φ : E → R la forma cuadrática asociada a ϕ. Se dice que un par de vectores
~x, ~y ∈ E son ortogonales para ϕ o para Φ, cuando

ϕ(~x, ~y ) = 0.

Se dice que una base B = {~bk }nk=1 de E es ortogonal para ϕ, cuando los vectores de B son dos a
dos ortogonales, es decir, cuando

ϕ(~bk , ~bl ) = 0, k 6= l, 1 ≤ k, l ≤ n.

Si A = M (ϕ, B), es condición necesaria y suficiente para que B sea una base ortogonal para ϕ
que A sea diagonal.
Vamos a demostrar que siempre existen bases ortogonales. En efecto, tomemos una base
arbitraria B de E y sea A = M (ϕ, B). La matriz A es simétrica. La teorı́a de la lección anterior
garantiza que existe una matriz P ortogonal tal que

AP = P D

siendo D diagonal y real. Se puede escribir

D = P T AP

luego en la nueva base B 0 definida por

M (B 0 , B) = P

se tendrá que M (ϕ, B 0 ) = D, y por tanto que B 0 es una base ortogonal para ϕ.
En lenguaje matricial, acabamos de establecer que cada matriz A que sea simétrica es con-
gruente con una matriz diagonal y real.
En la práctica, y en contra de lo sugerido por la demostración anterior, no es necesario
recurrir a la diagonalización ortogonal de A. Se utiliza el método de Gauss. Este método se
puede implementar de dos maneras equivalentes. La primera consiste en completar cuadrados
con sentido común. La segunda es una variante del proceso de reducción de una matriz a forma
triangular superior mediante operaciones elementales sobre las filas. Estas ideas se desarrollarán
en la clase de problemas.
Supongamos que hemos encontrado una base ortogonal B para una forma cuadrática Φ. Dado
un vector ~x ∈ E, tendremos
n
X
T
Φ(~x) = X DX = dk (xk )2 ,
k=1

siendo
D = diag(d1 , d2 , . . . , dn ) = M (Φ, B)
[x1 , x2 , . . . , xn ]T = X = M (~x, B).
A la vista de esta expresión es habitual decir que Φ se ha reducido a una suma de cuadrados en
la base B.

101
4.7.4. Ley de Inercia de Sylvester. Signatura y rango
Cuando dos matrices son congruentes no comparten su polinomio caracterı́stico, a diferencia
de lo que sucedı́a en el caso de la semejanza. Dada una forma cuadrática Φ : E → R en un espacio
vectorial real de dimensión finita E, nos planteamos la cuestión de investigar qué pueden tener en
común las distintas matrices diagonales que representan a Φ en las diferentes bases ortogonales
de E. La respuesta la da el siguiente teorema, denominado Ley de inercia o Teorema de Sylvester.

Teorema 1 Sean B1 y B2 dos bases ortogonales para una misma forma cuadrática Φ : E → R.
Entonces las matrices diagonales D1 = M (Φ, B1 ) y D2 = M (Φ, B2 ) comparten
(a) el rango, que es igual al número r de elementos no nulos,
(b) el número p de elementos estrictamente positivos y
(c) el número q de elementos estrictamente negativos.
(Observemos que los elementos de D1 y de D2 son números reales y por tanto podemos hablar
de su signo).

A la vista del teorema tiene sentido definir


(a) El rango de una forma cuadrática, que es el número de elementos no nulos que aparecen
en cualquiera de sus diagonalizaciones.
(b) La signatura de la forma cuadrática, que es el par (p, q), donde p (resp. q) es el número
de elementos estrictamente positivos (resp. negativos) que aparecen en cualquiera de sus diago-
nalizaciones.
Notemos que el rango se puede obtener como p + q.
La noción de signatura se extiende también a las matrices reales simétricas.
Supongamos que B es una base ortogonal para una forma cuadrática Φ y sea

D = M (Φ, B) = diag(d1 , d2 , . . . , dn ).

Tomemos ahora una nueva base B 0 formada por vectores que van siendo proporcionales a los de
B de suerte que

P = M (B 0 , B) = diag(λ1 , λ2 . . . , λn ), λk 6= 0, 1 ≤ k ≤ n.

Podemo escribir

D0 = M (Φ, B 0 ) = P T DP = diag((λ1 )2 d1 , (λ2 )2 d2 , . . . , (λn )2 dn ).

Vemos claramente que podemos cambiar arbitrariamente la escala de los elementos diagonales,
pero los que eran nulos lo seguirán siendo y tampoco podemos alterar los signos. Esto es conforme
a la Ley de inercia.
Permutando si fuera preciso el orden de los elementos de la base B 0 y eligiendo adecuadamente
los factores de escala se concluye que siempre es posible encontrar una base donde Φ se reduce a
una matriz diagonal del tipo

diag(1, . . . , 1, −1, . . . , −1, 0, . . . , 0),

donde los “1’s los “(-1)’s .aparecen tantas veces como indique la signatura de Φ. Esto es análogo
2

a la construcción de las bases ortonormales en los espacios euclı́deos, construcción esta última
que es un caso particular de la anterior.

102
Ahora es fácil comprobar que dos matrices del mismo orden son congruentes si, y sólo si, poseen
la misma signatura: Si son congruentes, la ley de inercia afirma que la signatura es común. Si
comparten la signatura, el proceso descrito anteriormente muestra que ambas son congruentes
con una matriz común (la formada por los “1’s los “(-1)’s ”), de donde se concluye que serán
2

congruentes entre sı́.


Clasificar una forma cuadrática o una matriz real simétrica es dar su signatura.

4.7.5. Formas definidas y semidefinidas


Sea ϕ : E × E → R una forma bilineal simétrica en un espacio vectorial real de dimensión n
y sea Φ : E → R la forma cuadrática asociada. Se dirá que ϕ o que Φ es
(a) definida positiva, cuando su signatura es (n, 0),
(b) semidefinida positiva, cuando su signatura es (p, 0), p < n,
(c) definida negativa, cuando su signatura es (0, n),
(d) semidefinida negativa, cuando su signatura es (0, q), q < n.
(e) indefinida, cunado su signatura es (p, q), p > 0, q > 0.
Estas nociones se extienden a las matrices reales simétricas.

Proposición 1 La forma ϕ o Φ es definida positiva si, y sólo si, se satisfacen las dos condiciones
(C1) y (C2) siguientes:
(C1) Φ(~x) ≥ 0, para cualquier ~x ∈ E.
(C2) Si un vector ~x ∈ E cumple que Φ(~x) = 0, entonces necesariamente ~x = ~0.

Proposición 2 La forma ϕ o Φ es semidefinida positiva si, y sólo si, se satisface la condición


(C1) siguiente:
(C1) Φ(~x) ≥ 0, para cualquier ~x ∈ E.

Vamos a demostrar ambas proposiciones en paralelo. Comenzamos tomando una base ortog-
onal B = {~bk }nk=1 para la forma Φ y llamemos

D = M (Φ, B) = diag(d1 , d2 , . . . , dn ),

donde observemos que dk = ϕ(~bk , ~bk ) = Φ(~bk ), 1 ≤ k ≤ n.


(1) Si la condición (C1) está satisfecha, entonces en particular dk = Φ(~bk ) ≥ 0, 1 ≤ k ≤ n, y
la signatura es (p, 0) para cierto p ≥ 0.
(2) Si la signatura es (p, 0), entonces tendremos dk ≥ 0, 1 ≤ k ≤ n. Dado un vector genérico
~x ∈ E, llamemos X = [x1 , x2 , . . . , xn ]T = M (~x, B). Podemos escribir
n
X
Φ(~x) = X T DX = dk (xk )2 ≥ 0,
k=1

y la condición (C1) queda satisfecha.


Cuando además se cumple (C2), es claro que dk = Φ(~bk ) > 0, pues ~bk 6= ~0, 1 ≤ k ≤ n, y la
signatura es por tanto (n, 0).
Recı́procamente, si la signatura es (n, 0), entonces dk > 0, 1 ≤ k ≤ n. Sea ~x ∈ E tal que
Φ(~x) = 0. Si denotamos X = [x1 , x2 , . . . , xn ]T = M (~x, B), tendremos
n
X
dk (xk )2 ≥ 0 = Φ(~x) = 0,
k=1

103
y al ser cada sumando positivo, necesariamente dk (xk )2 = 0, 1 ≤ k ≤ n, de donde xk = 0, pues
dk > 0, 1 ≤ k ≤ n, y en consecuencia ~x = ~0. Ası́ pues, (C2) está satisfecha.
Hay caracterizaciones análogas del carácter definido negativo y semidefinido negativo. Las
propiedades (C1) y (C2) pueden adoptarse como definición de las formas definidas positivas (es
lo que hicimos en la lección de los espacios euclı́deos). La ventaja es que (C1) y (C2) tienen
sentido incluso en espacios de dimensión infinita, donde no disponemos de la noción de signatura.

Teorema 2 Sea A = {akl }nk,l=1 un matriz real simétrica y formemos la sucesión de menores
principales ∆1 , ∆2 , . . . , ∆n . Entonces
(a) Es condición necesaria y suficiente para que A sea definida positiva, que

∆m > 0, m = 1, 2, . . . , n.

(b) Es condición necesaria y suficiente para que A sea definida negativa, que

(−1)m ∆m > 0, m = 1, 2, . . . , n.

Nótese que ∆m es el producto de los m primeros pivots que se obtienen al aplicar eliminación
gaussiana sin intercambios de filas a la matriz A.

Ejercicios

Ejercicio 1. Reduce a suma de cuadrados por el método de Gauss las formas cuadráticas sigu-
ientes:      
1 −2 4 x 1 −2 3 x

(x, y, z) −2 2 0    
y , (x, y, z) −2 6 −9   y .
4 0 −7 z 3 −9 4 z
Encontrar bases en las cuales dichas formas cuadráticas diagonalicen.
Ejercicio 2. Dadas las formas cuadráticas cuyas matrices en la base ordenada canónica de R4
son    
2 4 6 4 1 1 −2 −3
4 5 9 −4   1 2 −5 −1 
A= 6
,
 B= 
,
9 19 −8 −2 −5 6 9 
4 −4 −8 −24 −3 −1 9 11
encuentra transformaciones lineales que las reduzcan a una suma de cuadrados.
Ejercicio 3. Calcula una base ortogonal para las formas cuadráticas sobre R3 siguientes:
a) q(x, y, z) = x2 + 6y 2 + 7z 2 + 4xy − 4yz.
b) q(x, y, z) = −x2 − y 2 + z 2 − 2xy + 2xz + 2yz.
c) q(x, y, z) = y 2 + 3z 2 + xy + xz + 4yz.
d) q(x, y, z) = 2xy − 4xz + 2yz.
Ejercicio 4. Da una base de R3 en la cual la forma cuadrática

q(x, y, z) = x2 + y 2 + z 2 − 2xy + 2xz − 3λyz

(λ ∈ R) se reduzca a una suma de cuadrados. Determina los valores de λ para los que q(x, y, z)
es semidefinida positiva.

104
Ejercicio 5. Clasifica las siguientes formas cuadráticas sobre R3 en función de los valores del
parámetro a ∈ R.
a) (a − 3)x2 + ay 2 + 2xz
b) ax2 + ay 2 + z 2 + 4xy + 2yz
c) −4z 2 + 2axy
Ejercicio 6. Determina si las siguientes matrices son definidas positivas
   
7 7 −4 2 1 2 −1 1
 7 9 5 2  2 8 −6 4 
   .
 −4 5 10 6  ,  −1 −6 6 −6 
2 2 6 4 1 4 −6 15

Ejercicio 7. Determina los valores de a para los cuales las siguientes matrices son definidas
positivas    
1 a a 1 1 a
A = a 1 a, B = 1 1 1.
a a 1 a 1 1

105
Tema 5

Reducción de matrices. Caso


diagonalizable

El tercer problema que tratamos aparece en varias aplicaciones. Consiste en encontrar una
forma de una matriz cuadrada lo más sencilla posible, pero manteniendo una cierta estructura.
Ya veremos que esto es diferente a la eliminación gaussiana, en el sentido de que tenemos que
mantener unos elementos asociados a las matrices que son los autovalores. El primer tema discute
el problema de cuándo podemos expresar una matriz cuadrada en forma diagonal, es decir, con
todos los elementos nulos excepto los de la diagonal principal, y estos no pueden ser cualesquiera.
La segunda lección del bloque pretende responder al caso general: si no es posible diagonalizar,
entonces cómo podemos reducir la matriz. Presenta también algunas primeras aplicaciones de
estos resultados, como resolver recurrencias vectoriales y ecuaciones en diferencias.

Ejemplo introductorio. Un ejemplo que puede ilustrar ésta y la siguiente lección es la rep-
resentación vectorial de la sucesión de Fibonacci que, como es conocido, aparece de manera
insospechada en multitud de procesos. Un caso que puede resultar interesante es su formulación
en modelos de tráfico en canales de comunicación, por ejemplo lı́neas telefónicas, que surgen en
teorı́a de la información. Consideremos un canal de información y supongamos que dos informa-
ciones elementales S1 y S2 de duraciones, por ejemplo, t1 = 1 y t2 = 2 respectivamente (pensemos
en el punto y la lı́nea en el alfabeto Morse) pueden combinarse para obtener un mensaje. Uno
puede estar interesado en el número de mensajes Mn de longitud n. Estos mensajes pueden di-
vidirse en dos tipos: aquellos que terminan con S1 y los que terminan con S2 . El número de
mensajes de primer tipo es Mn−t1 y el número de mensajes de segunda clase es Mn−t2 . Entonces,
tenemos
Mn = Mn−1 + Mn−2 , n = 3, 4, . . .
o, igualmente
Mn+1 = Mn + Mn−1 , n = 2, 3, . . . .
La relación anterior es válida para cualquier número natural n mayor que 3 y se establece entre
el número de mensajes de longitud n y el de una y dos unidades de tiempo menos. Ésta es la
llamada ecuación de Fibonacci y es un ejemplo clásico de recurrencia. Para poder obtener el
valor de Mn para cualquier n, necesitamos dos datos iniciales correspondientes a M1 y M2 , que
se suponen conocidos.

106
Una manera de resolver el problema consiste en plantearlo en forma vectorial. Si ~vn =
(Mn , Mn−1 )T , entonces
µ ¶
1 1
~vn+1 = A~vn = ~v , n = 2, 3, . . . ,
1 0 n

con ~v2 = (M2 , M1 )T conocido (llamado condición inicial). Observemos que si aplicamos sucesiva-
mente la relación anterior, tenemos

~vn = A~vn−1 = A2~vn−2 = A3~vn−3 = · · · = An−2~v2 ,

de modo que para calcular ~vn (y por tanto Mn ) para cualquier n ≥ 3, necesitamos obtener una
expresión general de una potencia cualquiera de la matriz A, lo que en general no puede hacerse.
Entonces, hemos de buscar, si es posible, una representación de la matriz que permita resolver
el problema por otro camino. Imaginemos que la condición inicial ~v2 verificase

A~v2 = λ~v2 ,

para cierto escalar λ. Entonces la solución del problema serı́a sencilla de obtener, pues

~vn = An−2~v2 = λn−2~v2 .

La pregunta es ¿existen vectores especiales de esa forma, de manera que podamos escribir la
condición inicial como combinación de ellos?

5.1. Semejanza de matrices


Sean A, B ∈ Mn,n (K). Se dice que A es semejante con B si existe una matriz no singular
P ∈ Mn,n (K) tal que

B = P −1 AP.

Hay que notar que si A es semejante con B y λ ∈ K entonces λIn − A es semejante con λIn − B.
Ya hemos visto un ejemplo de semejanza de matrices al hablar de la matriz de una aplicación
lineal en una base. Imaginemos que V es un espacio vectorial de dimensión finita, B, B 0 son dos
bases de V y T : V → V es una aplicación lineal (cuando el espacio de partida y el de llegada es
el mismo, T se llama endomorfismo). Denotemos por

M (T, B, B) = M (T, B), M (T, B 0 , B 0 ) = M (T, B 0 ).

107
M (T, B, B) - VB
VB T (~x)
6 6

M (B 0 , B) M (B 0 , B)

M (T, B 0 , B 0 )
-
VB 0 VB 0
~x

Recordemos que la relación entre las dos matrices de la aplicación lineal T viene dada por la
matriz P = M (B 0 , B) de cambio de base:

M (T, B 0 ) = P −1 M (T, B)P.

Esto no es otra cosa que una relación de semejanza: todas las matrices que representan al endo-
morfismo T en las distintas bases son semejantes entre sı́.
Presentada la noción de semejanza de matrices, nos planteamos la cuestión de si dada una
matriz A ∈ Mn,n (K) puede haber una matriz semejante con ella cuya expresión sea sencilla, más
concretamente diagonal.

5.2. Autovalores y autovectores. Polinomio caracterı́stico


Sea una matriz cuadrada A ∈ Mn,n (K). La expresión

pA (z) = det(zIn − A), z ∈ C,

es un polinomio de grado n, de la forma

pA (z) = z n + an−1 z n−1 + · · · + a1 z + a0 ,

que se llama polinomio caracterı́stico de la matriz A. Las raı́ces de la ecuación pA (z) = 0 se


llaman raı́ces caracterı́sticas de la matriz A. Factorizando el polinomio según las distintas raı́ces,

pA (z) = (z − µ1 )m1 (z − µ2 )m2 · · · (z − µr )mr ,

108
el número mj , 1 ≤ j ≤ r se denomina multiplicidad algebraica de la raı́z caracterı́stica µj . Puesto
que pA tiene grado n, se cumple siempre que

n = m1 + m2 + · · · + mr .

Además det(A) = (−1)n a0 = µm mr


1 · · · µr .
1

El conjunto σ(A) = {µ1 , . . . , µr } se llama espectro de A.


Observemos que si A, B ∈ Mn,n (K) son semejantes, entonces comparten el polinomio car-
acterı́stico y, por tanto, el espectro y el determinante. En particular, como las matrices que
representan a un endomorfismo T en distintas bases son semejantes, es posible definir el deter-
minante, el polinomio, las raı́ces caracterı́sticas y el espectro de un endomorfismo T como los
correspondientes a una matriz que represente a T en alguna base.
Sea A ∈ Mn,n (K). Se dice que λ ∈ K es un valor propio o autovalor de A si existe algún vector
~v tal que

A~v = λ~v .

Tales vectores se llaman autovectores de A asociados al autovalor λ.

Teorema 1. En esta situación, las siguientes condiciones son equivalentes:


(1) λ es autovalor de A.
(2) Existe un vector ~v tal que A~v = λ~v .
(3) La matriz λIn − A es singular.
(4) pA (λ) = det(λIn − A) = 0.

Ası́ pues, los autovalores de A son las raı́ces caracterı́sticas de la matriz A que se encuentran
en el cuerpo K considerado. Si K = C, el conjunto de valores propios coincide con el espectro de
A, mientras que si K = R, los autovalores son las raı́ces caracterı́sticas que son números reales.
Normalmente, para determinar los autovalores de una matriz se suele hacer uso de la cuarta
condición del teorema, determinando si es posible los ceros del polinomio caracterı́stico que están
en el cuerpo considerado.
Dado un autovalor λ de A, es claro que los vectores del subespacio Ker(λIn − A) son los
autovectores asociados a λ y sólo ellos. El subespacio

E(A, λ) = Ker(λIn − A),

se llama subespacio propio asociado a λ y su dimensión

d(λ) = dimE(A, λ) ≥ 1,

es la multiplicidad geométrica del autovalor λ.

Ejemplos.

(1) Para la matriz


 
2 2 −6
A =  2 −1 −3  ,
−2 −1 1

109
el polinomio caracterı́stico es
 
z − 2 −2 6
pA (z) = det(zI3 − A) = det  −2 z + 1 3  = (z + 2)2 (z − 6).
2 1 z−1
De modo que los autovalores con sus multiplicidades algebraicas son
λ1 = −2, m1 = 2
λ2 = 6 m2 = 1.
Buscamos ahora los subespacios propios de cada autovalor y su correspondiente multiplicidad
geométrica. Para λ1 = −2
  
−4 −2 6 x
E(A, λ1 ) = Ker(−2I3 − A) = {(x, y, z)T /  −2 −1 3   y  = ~0}
2 1 −3 z
= {(x, y, z)T /2x + y − 3z = 0} = span((1, −2, 0)T , (0, 3, 1)T )
⇒ d(λ1 ) = 2.
Mientras que para el otro autovalor
  
4 −2 6 x
E(A, λ2 ) = Ker(6I3 − A) = {(x, y, z)T /  −2 7 3   y  = ~0}
2 1 5 z
= {(x, y, z)T /2x − y + 3z = 0, y + z = 0} = span((−2, −1, 1)T )
⇒ d(λ2 ) = 1.

(2) Para la matriz


 
1 −1 0

A = −1 2 −1  ,
0 −1 1
el polinomio caracterı́stico es
 
z−1 1 0
pA (z) = det(zI3 − A) = det  1 z−2 1  = z(z − 1)(z − 3).
0 1 z−1
De modo que los autovalores con sus multiplicidades algebraicas son
λ1 = 0, m1 = 1
λ2 = 1 m2 = 1
λ3 = 3 m3 = 1.
Buscamos ahora los subespacios propios de cada autovalor y su correspondiente multiplicidad
geométrica. Para λ1 = 0
  
−1 1 0 x
 T
E(A, λ1 ) = Ker(−A) = {(x, y, z) / −1 −2 1   y  = ~0}
0 1 −1 z
= {(x, y, z)T /x = y = z} = span((1, 1, 1)T ) ⇒ d(λ1 ) = 1.

110
Mientras que para el segundo autovalor
  
0 1 0 x
E(A, λ2 ) = Ker(I3 − A) = {(x, y, z)T /  1 −1 1   y  = ~0}
0 1 0 z
= {(x, y, z)T /y = 0, z = −x} = span((1, 0, −1)T ) ⇒ d(λ2 ) = 1,

y, para el tercero,
  
2 1 0 x
T 
E(A, λ3 ) = Ker(3I3 − A) = {(x, y, z) / 1 1 1   y  = ~0}
0 1 2 z
= {(x, y, z)T /x = z, y = −2z} = span((1, −2, 1)T ) ⇒ d(λ3 ) = 1.

(3) Para la matriz


 
0 −1 0

A= 1 0 1
0 0 2
el polinomio caracterı́stico es
 
z 1 0
pA (z) = det(zI3 − A) = det  −1 z −1  = (z − 2)(z 2 + 1).
0 0 z−2
De modo que, como matriz de elementos complejos, los autovalores con sus multiplicidades alge-
braicas son

λ1 = 2, m1 = 1
λ2 = i m2 = 1
λ3 = −i m3 = 1.

Como matriz real, sólo hay un valor propio λ1 , mientras que el espectro lo forman las tres raı́ces.
Buscamos ahora los subespacios propios de cada autovalor y su correspondiente multiplicidad
geométrica, suponiendo que la matriz es compleja. Para λ1 = 2
  
2 1 0 x
E(A, λ1 ) = Ker(2I3 − A) = {(x, y, z)T /  −1 2 −1   y  = ~0}
0 0 0 z
= {(x, y, z)T /y = (2/5)z, x = −(1/5)z} = span((−1, 2, 5)T )
⇒ d(λ1 ) = 1.

Mientras que para el segundo autovalor


  
i 1 0 x
 T
E(A, λ2 ) = Ker(iI3 − A) = {(x, y, z) / −1 i −1   y  = ~0}
0 0 i−2 z
= {(x, y, z)T /z = 0, x = iy} = span((1, −i, 0)T ) ⇒ d(λ2 ) = 1,

111
y, para el tercero,
  
−i 1 0 x
E(A, λ3 ) = Ker((−i)I3 − A) = {(x, y, z)T /  −1 −i −1   y  = ~0}
0 0 −i − 2 z
= {(x, y, z)T /z = 0, x = −iy} = span((1, i, 0)T ) ⇒ d(λ3 ) = 1.

Nota: como λ2 y λ3 son conjugados, los vectores que generan cada subespacio propio también
lo son. Cuando la matriz tiene elementos reales, esta propiedad es general (¿por qué?).

5.3. Diagonalización
A la vista de los comentarios del ejemplo introductorio y de los elementos que acabamos
de definir, es clara la importancia de los autovalores y los autovectores en la determinación de
la solución a nuestro problema. El objetivo es por tanto encontrar una manera de tratar de
transformar una matriz cuadrada A en una matriz diagonal o triangular sin cambiar sus valores
propios. Esto no se cumple para la eliminación gaussiana: los autovalores de la matriz triangular
superior final del proceso de eliminación no son los de la matriz original.
Comenzamos dando un criterio para determinar cuándo podemos transformar una matriz en
otra diagonal.
Sea A ∈ Mn,n (K) una matriz cuadrada. Se dice que A es diagonalizable si existe una matriz
semejante con ella que es diagonal. Esto significa que existe una matriz P ∈ Mn,n (K) no singular
tal que

D = P −1 AP

es diagonal.
Como los autovalores de una matriz diagonal son precisamente los elementos de la diagonal
principal, es claro que la matriz diagonal semejante a la matriz A tiene por entradas diagonales
los autovalores de A.

Teorema 2. Sea A ∈ Mn,n (K) y λ1 , . . . , λr los autovalores de A. Entonces

(a) Los subespacios E(A, λ1 ), . . . , E(A, λr ) son independientes.

(b) La multiplicidad geométrica d(λj ) de cada autovalor es a lo sumo su multiplicidad algebraica


m(λj ).

(c) La matriz A es diagonalizable si y sólo si se verifican las dos condiciones siguientes:

(i) λj ∈ K, ∀j = 1, . . . , r (esta condición siempre se cumple si K = C).


(ii) d(λj ) = m(λj ), ∀j = 1, . . . , r.

(d) La matriz A es diagonalizable si y sólo si

Kn = E(A, λ1 ) ⊕ · · · ⊕ E(A, λr ).

Esto equivale a decir que A es diagonalizable si y sólo si existe una base en Kn formada por
vectores propios de A.

112
El criterio práctico para determinar si una matriz A es diagonalizable es el siguiente:

(1) Determinar los autovalores de A a través de las raı́ces de su polinomio caracterı́stico pA (z) =
det(zIn − A). Si alguna de sus raı́ces ya no está en K, la matriz ya no es diagonalizable.

(2) Supongamos que todas las raı́ces caracterı́sticas λ1 , . . . , λr están en K. La determinación


de estas raı́ces λj (los autovalores) nos permite conocer cada una de las multiplicidades
algebraicas m(λj ) (que recordemos es la multiplicidad de λj como cero del polinomio carac-
terı́stico). A continuación determinamos la dimensión de cada subespacio propio E(A, λj ) =
Ker(λj In − A), es decir, la multiplicidad geométrica d(λj ). Para cada autovalor λj com-
probamos si se cumple la segunda condición: d(λj ) = m(λj ). Si para alguno falla, la matriz
no es diagonalizable.

(3) Caso de que todos los autovalores verifiquen las dos condiciones (i) y (ii) del apartado (c)
del Teorema 2, determinamos una base Bj de cada subespacio propio E(A, λj ) y juntamos
todas las bases para formar una base de Kn : B = B1 ∪ · · · ∪ Br . Entonces, si P es la matriz
cuyas columnas son los vectores de la base B, se tiene que P −1 AP es diagonal con los
elementos de la diagonal principal siendo los autovalores de A.

Ejemplos.

(1) Para la matriz


 
2 2 −6
A =  2 −1 −3  ,
−2 −1 1

ya hemos visto que los autovalores con sus multiplicidades son

λ1 = −2, mλ1 = 2, dλ1 = 2


λ2 = 6 mλ2 = 1, dλ2 = 1.

luego la matriz es diagonalizable en R. También calculamos anteriormente una base de cada


subespacio propio:

E(A, λ1 ) = span((1, −2, 0)T , (0, 3, 1)T )


E(A, λ2 ) = span((−2, −1, 1)T ).

Entonces, si
 
1 0 −2
P =  −2 3 −1  ,
0 1 1

se tiene que
 
−2 0 0
P −1 AP =  0 −2 0  .
0 0 6

113
(2) Para la matriz
 
1 −1 0
A =  −1 2 −1  ,
0 −1 1
se tiene

λ1 = 0, mλ1 = 1, dλ1 = 1
λ2 = 1 mλ2 = 1, dλ2 = 1
λ3 = 3 mλ3 = 1, dλ3 = 1.

La matriz es diagonalizable en R. La base de autovectores es la siguiente:

E(A, λ1 ) = span((1, 1, 1)T )


E(A, λ2 ) = span((1, 0, −1)T )
E(A, λ3 ) = span((1, −2, 1)T ).

Luego si
 
1 1 1
P =  1 0 −2  ,
1 −1 1
se tiene que
 
0 0 0
P −1 AP =  0 1 0.
0 0 3
Este es un ejemplo de un caso particular de matrices diagonalizables: aquéllas cuyos autovalores
están en el cuerpo considerado y son todas distintas.

(3) Para la matriz


 
0 −1 0
A = 1 0 1
0 0 2
se tiene

λ1 = 2, mλ1 = 1, dλ1 = 1
λ2 = i mλ2 = 1, dλ2 = 1
λ3 = −i mλ3 = 1, dλ3 = 1.

Como matriz real, A no es diagonalizable, pues tiene dos autovalores que no son reales. Pero
como matriz compleja, A es diagonalizable. La base de autovectores es la siguiente:

E(A, λ1 ) = span((−1, 2, 5)T )


E(A, λ2 ) = span((1, −i, 0)T )
E(A, λ3 ) = span((1, i, 0)T ).

114
Luego si
 
−1 1 1
P =  2 −i i ,
5 0 0
se tiene que
 
2 0 0
−1 
P AP = 0 i 0 .
0 0 −i

5.4. Triangularización
Ya sabemos que cuando no se cumplen las dos condiciones (i) y (ii) del teorema anterior,
la matriz A no es diagonalizable. Cuando la segunda de las condiciones de diagonalización falla
manteniéndose la primera (los autovalores están en el cuerpo considerado) la matriz aún puede
reducirse a forma triangular superior por semejanza.

Teorema 3. Sea A ∈ Mn,n (K). Entonces existen una matriz U ∈ Mn,n (K) no singular y una
matriz triangular superior S ∈ Mn,n (K) tales que S = U −1 AU si y sólo si los autovalores de
A están en K (esta condición se satisface siempre cuando K = C). La matriz U puede elegirse
unitaria (U ∗ = U −1 ).

La demostración es constructiva y por tanto da la forma de actuar en los ejemplos. Si se


verifica que S = U −1 AU , entonces los autovalores de A están en K, pues son los elementos de
la diagonal principal de S. Recı́procamente, supongamos que los autovalores de A están en K
y procedamos por inducción sobre n. La propiedad es cierta para n = 1 (toda matriz 1 × 1 es
triangular). Supongamos entonces que la propiedad es cierta para todas las matrices de tamaño
(n − 1) × (n − 1) y veamos que también es cierta si A tiene tamaño n × n.
Tomemos un autovalor λ1 de A y ~v1 un autovector asociado con norma uno. Consideremos
una base ortonormal B = {~v1 , ~v2 , . . . , ~vn } que tenga a ~v1 como primer vector. Entonces, si P es
la matriz cuyas columnas son los vectores de la base, la matriz A0 = P −1 AP tiene como primera
columna al vector (λ1 , 0, 0, . . . , 0)T , de modo que
 
λ1 ∗ ∗ ··· ∗
 0 
 
A0 =  .. ,
 . A1 
0
donde A1 es una matriz de tamaño (n − 1) × (n − 1) y ∗ denota escalares cuyo valor es irrelevante
para nuestro razonamiento.
Como A0 es semejante con A, tienen los mismos autovalores, que son λ1 y los de A1 . Luego los
autovalores de A1 son los de A menos λ1 una vez. Por hipótesis de inducción, existe una matriz
regular y unitaria U1 de tamaño (n − 1) × (n − 1) tal que S1 = U1−1 A1 U1 es triangular superior.
Sea U la matriz
 
1 ∗ ∗ ··· ∗
0 
 
U = P  .. ,
. U1 
0

115
entonces U es unitaria por ser producto de matrices unitarias y además
 −1  
1 ∗ ∗ ··· ∗ 1 ∗ ∗ ··· ∗
0  0 
   
U −1 AU =  ..  P −1 AP  .. 
. U1  . U1 
0 0
 −1  
1 ∗ ∗ ··· ∗ 1 ∗ ∗ ··· ∗
0  0 
   
=  ..  A0  .. 
. U1  . U1 
0 0
    
1 ∗ ∗ · · · ∗ −1 λ1 ∗ ∗ ··· ∗ 1 ∗ ∗ ··· ∗
0   0 0 
    
=  ..   ..   .. 
. U1−1   . A1  . U1 
0 0 0
 
λ1 ∗ ∗ ··· ∗
 0 
 
=  .. −1 
 . U1 A1 U1 
0
 
λ1 ∗ ∗ · · · ∗
 0 
 
=  .. ,
 . S1 
0
que es una matriz triangular superior.

Ejemplo. La matriz
 
3 1 0
A= 0 2 1,
−1 −1 1
tiene un único autovalor λ1 = 2 con multiplicidad m(λ1 ) = 3. Veamos que es triangularizable en
R. El subespacio propio asociado es
  
−1 −1 0 x
E(A, λ1 ) = Ker(2I3 − A) = {(x, y, z) /  0 T
0 −1   y  = ~0}
1 1 1 z
√ √
= {(x, y, z) /z = 0, y = −x} = span((1/ 2, −1/ 2, 0)T ) ⇒ d(λ1 ) = 1.
T

Como
√ las multiplicidades
√ no coinciden, la matriz no es diagonalizable en R. Consideremos ~v1 =
(1/√2, −1/ T
√ 2, 0) y completemos hasta formar una base ortonormal, por ejemplo con ~v2 =
(1/ 2, 1/ 2, 0)T , ~v3 = (0, 0, 1)T . Entonces
 √ 
2 1 −1/√ 2
A0 = P −1 AP =  0 3
√ 1/ 2  .
0 − 2 1
La matriz A1 es
µ √ ¶
3
√ 1/ 2
A1 = .
− 2 1

116
A1 tiene un único autovalor λ = 2 con multiplicidad m(λ) = 2. El subespacio propio asociado es
µ √ ¶µ ¶
−1 −1/ 2 x
E(A1 , λ) = Ker(2I3 − A1 ) = {(x, y) / T √ = ~0}
2 1 y
√ √ √ √
= {(x, y)T /y = − 2x} = span((1/ 3, − 2/ 3)T ) ⇒ d(λ) = 1,
√ √ √ T
que no es diagonalizable. Tomamos w ~1 =
√ √(1/ 3, −
√ 2/ 3) y completamos hasta una base
ortogonal de R2 , por ejemplo, con w~ 2 = ( 2/ 3, 1/ 3)T . Sea
µ √ √ √ ¶
1/
√ √ 3 2/√ 3
U1 = .
− 2/ 3 1/ 3
Entonces
µ p ¶
2 9/2
U1−1 A1 U1 = .
0 2
Sea
 
1 0√ √ 0√
U = P 0 1/
√ √ 3 2/√ 3  .
0 − 2/ 3 1/ 3
Por tanto
√ √ 
2 2/ 3 p
1/ 6
U −1 AU =  0 2 9/2  .
0 0 2

5.5. Diagonalización ortogonal


Hemos visto que la diagonalización de una matriz, o de un endomorfismo, es un problema
que no siempre tiene solución. Hay, sin embargo, un caso particular de matrices que son siempre
diagonalizables y para las que las bases de diagonalización tienen estructura especial.
Recordemos que la adjunta A∗ ∈ Mn,m (K) de una matriz dada A ∈ Mm,n (K) se define como
la traspuesta conjugada (A∗ = AT ). Además, es importante la relación con el producto interno

hA~x, ~y i = h~x, A∗ ~y i, ~x ∈ Kn , ~y ∈ Km .

La adjunta se comporta con la suma y el producto por un escalar en el sentido siguiente:

(A + B)∗ = A∗ + B ∗ , (λA)∗ = λ̄A∗ .

Además, (A∗ )∗ = A.
Se dice que una matriz A ∈ Mn,n (R) es

simétrica si AT = A∗ = A,

antisimétrica si AT = A∗ = −A,

ortogonal si A es no singular y AT = A∗ = A−1 .

Análogamente, una matriz A ∈ Mn,n (C) es

117
hermı́tica si A∗ = A,
antihermı́tica si A∗ = −A,
unitaria si A es no singular y A∗ = A−1 .
Recordemos también que A ∈ Mn,n (R) (resp. A ∈ Mn,n (C)) es ortogonal (resp. unitaria) si
sus columnas forman una base ortonormal de Rn (resp. C n ).
Las matrices destacables son las simétricas en el caso real y las hermı́ticas en el caso complejo.
Ambas son siempre diagonalizables. Además, la matriz formada por la base de autovectores es
ortogonal en el caso real y unitaria en el caso complejo.

Teorema 4. Sea A ∈ Mn,n (R) una matriz simétrica. Entonces


(1) Todos los autovalores λ1 , . . . , λr de A son reales.
(2) Si λ y µ son autovalores de A distintos, los correspondientes subespacios propios E(A, λ),
E(A, µ) son ortogonales.
(3) Existe una matriz ortogonal P ∈ Mn,n (R) tal que P T AP = P −1 AP es diagonal.

IMPORTANTE: en la práctica, se procede como en una diagonalización normal, con la única


diferencia de que para cada subespacio propio se elige una base ortonormal.

Ejemplo. Vamos a diagonalizar ortogonalmente la matriz


 
3 1 1
A = 1 3 1.
1 1 3
El polinomio caracterı́stico es
pA (z) = (z − 2)2 (z − 5),
de manera que los autovalores con sus multiplicidades algebraicas son
λ1 = 2, m(λ1 ) = 2
λ2 = 5, m(λ2 ) = 1.
Los subespacios propios son los siguientes. Para λ1 = 2
  
−1 −1 −1 x
E(A, λ1 ) = Ker(2I3 − A) = {(x, y, z)T /  −1 −1 −1   y  = ~0}
−1 −1 −1 z
= {(x, y, z)T /x + y + z = 0}
√ √ √ √ √
= span((1/ 2, 0, −1/ 2)T , (1/ 6, −2/ 6, 1/ 6)T ) ⇒ d(λ1 ) = 2.
Fijémonos en que hemos elegido una base ortonormal del subespacio. Esta es la única diferencia.
Para el otro autovalor
  
2 −1 −1 x
E(A, λ2 ) = Ker(5I3 − A) = {(x, y, z)T /  − − 1 2 −1   y  = ~0}
−1 −1 2 z
= {(x, y, z)T /x − 2y + z = 0, y − z = 0}
√ √ √
= span((1/ 3, 1/ 3, 1/ 3)T ) ⇒ d(λ2 ) = 1.

118
Los autovectores asociados a autovalores distintos ya son ortogonales entre sı́. Como las mul-
tiplicidades coinciden, la matriz es diagonalizable. La base elegida al juntar las bases de cada
subespacio propio, es ortonormal, de modo que la matriz
 √ √ √ 
1/ 2 1/ √6 1/√3
P =  0√ −2/√ 6 1/√3  ,
−1/ 2 1/ 6 1/ 3
es ortogonal. Además,
 
2 0 0
T −1 
P AP = P AP = 0 2 0.
0 0 5

Teorema 5. Sea A ∈ Mn,n (C) una matriz hermı́tica. Entonces

(1) Todos los autovalores de A son reales.

(2) Si λ y µ son autovalores de A distintos, los correspondientes subespacios propios E(A, λ),
E(A, µ) son ortogonales.

(3) Existe una matriz unitaria U ∈ Mn,n (C) tal que U ∗ AU = U −1 AU es diagonal.

Ejercicio. Diagonaliza unitariamente la matriz


 √ √ 
2
√ −i 2 −i 2
A =  i√2 3 −1  .
i 2 −1 3

EJERCICIOS DEL TEMA 5

Ejercicio 1. Se considera la aplicación lineal T : R3 → R3 siguiente


T ([x, y, z]T ) = [2x + z, x + y + z, x − y + 3z]T .
Se considera en R3 la base B 0 = {[3, −1, 0]T , [−1, 3, 0]T , [0, 0, 1]T }.
a) Halla la matriz de T respecto de la nueva base B 0 .
b) Halla una base B 00 de R3 en la cual la matriz de la aplicación lineal sea diagonal.

Ejercicio 2. Sea T : R3 → R3 una aplicación lineal que admite por vectores propios a
v1 = (1, 1, 0)T , v2 = (1, −1, 0)T , v3 = (0, 0, 1)T .
Se sabe además que la imagen del vector w = (3, 1, 1)T es el vector (8, 0, 2)T . Halla los valores
propios de T .

Ejercicio 3. Encuentra los autovalores y autovectores de las siguientes matrices:


     
1 0 0 0 2 1 −1 0 4 1 −2 −1
 0 1 0 0  0 1 0 0  2 2 −2 −1 
 ,  ,  
 0 0 1 0  1 1 0 0  4 2 −2 −2  .
−1 −1 1 2 −1 −1 1 2 1 0 −1 1

119
Ejercicio 4. Demuestra que las matrices
   
4−a 1 −1 1−a 1 0
A=  −6 −1 − a 2  B=  0 1−a 0 
2 1 1−a 0 0 2−a
son semejantes independientemente del valor de a, pero que las matrices
   
2 0 0 2 0 3
C = 0 2 0 D =  0 2 −1 
0 0 2 0 0 2
no son semejantes.

Ejercicio 5. Estudia para qué valores de los parámetros reales a y b son diagonalizables las
siguientes matrices    
5 0 3 2 0 0
A =  0 −1 0  , B = 0 1 a.
0 a b 1 1 1
Halla un sistema completo de autovectores cuando sea posible.

Ejercicio 6. Encuentra autovalores, autovectores, forma diagonal y matriz de paso para las
siguientes matrices    
0 −1 2 1 0 1
 1 0 3, 0 1 −2  .
−2 −3 0 0 0 2

Ejercicio 7. Determina si las siguientes matrices son o no diagonalizables. En caso afirmativo,


encuentra la matriz de paso y la forma diagonal asociada.
     
1 1 −2 2 1 0 3 −1 −1
 −1 2 1 , 0 0 1, 1 1 −1  ,
0 1 −1 0 0 0 1 −1 1
   
  −2 −2 0 0 4 1 0 1
7 −2 −4  −5
3  1 0 0  ,
 2
 3 0 1 .
0 −2  ,  0 0 2 −1   −2 1 2 −3 
6 −2 −3
0 0 5 −2 2 −1 0 5

Ejercicio 8. Se consideran las matrices complejas siguientes:


 √ √   
√2 −i 2 −i 2 5 −2i −4
A =  i√2 3 −1  , B =  2i 8 2i  .
i 2 −1 3 −4 −2i 5
Halla matrices unitarias U , V tales que U −1 AU , V −1 BV sean diagonales, y halla dichos produc-
tos.

Ejercicio 9. Diagonaliza ortogonalmente las matrices simétricas


     
4 0 2 3 −1 0 −1 2 1
A =  0 10 0, B =  −1 3 0  , C= 2 2 2 ,
2 0 4 0 0 2 1 2 −1

120
encontrando matrices ortogonales P , Q y R tales que P −1 AP , Q−1 BQ y R−1 CR sean diagonales.
Idem para la matriz  
1 2 3
D = 2 4 6.
3 6 9

Ejercicio 10. Sea  


2 1 0
A = 1 1 1.
0 1 2
Halla una matriz ortogonal P con det(P )=1 y tal que P T AP sea una matriz diagonal con los
elementos diagonales dispuestos en orden decreciente.

ALGUNOS EJERCICIOS RESUELTOS DEL TEMA 5

Ejercicio 1.
a)  
5/2 −1 2 1/2
M (T, B 0 , B 0 ) =  3/2 1/2 1/2 .
4 −4 3
b) Los autovalores con sus multiplicidades algebraicas son

λ1 = 1, m1 = 1
λ2 = 2 m2 = 1
λ3 = 3 m3 = 1.

Y los autoespacios asociados son

E(A, λ1 ) = Ker(I3 − A) = span((−1, 1, 1)T ),


E(A, λ2 ) = Ker(2I3 − A) = span((1, 1, 0)T ),
E(A, λ3 ) = Ker(3I3 − A) = span((1, 1, 1)T ).

Entonces, por ejemplo B 00 ) = {(−1, 1, 1)T , (1, 1, 0)T , (1, 1, 1)T } y la matriz de T en esta base es
 
1 0 0
M (T, B 00 , B 00 ) =  0 2 0.
0 0 3

Ejercicio 3.  
1 0 0 0
 0 1 0 0
A=
 0
.
0 1 0
−1 −1 1 2
pA (z) = (z − 2)(z − 1)3

121
λ1 = 2, m1 = 1, d1 = 1
λ2 = 1 m2 = 3.

E(A, λ1 ) = Ker(2I4 − A) = {(x, y, z, t)T /x = y = z = 0} = span((0, 0, 0, 1)T ),


E(A, λ2 ) = Ker(I4 − A) = {(x, y, z, t)T /x + y − z − t = 0}
= span((1, 0, 0, 1)T , (0, 1, 0, 1)T , (0, 0, 1, −1)T ) → d2 = 3.

A diagonaliza.
 
2 1 −1 0
 0 1 0 0
A=
 1
.
1 0 0
−1 −1 1 2
pA (z) = (z − 2)(z − 1)3

λ1 = 2, m1 = 1, d1 = 1
λ2 = 1 m2 = 3.

E(A, λ1 ) = Ker(2I4 − A) = {(x, y, z, t)T /x = y = z = 0} = span((0, 0, 0, 1)T ),


E(A, λ2 ) = Ker(I4 − A) = {(x, y, z, t)T /z = x + y, t = 0}
= span((1, 0, 1, 0)T , (0, 1, 1, 0)T ) → d2 = 2.

A no diagonaliza.
 
4 1 −2 −1
2 2 −2 −1 
A=
4
.
2 −2 −2 
1 0 −1 1
pA (z) = (z − 2)(z − 1)3

λ1 = 2, m1 = 1, d1 = 1
λ2 = 1 m2 = 3.

E(A, λ1 ) = Ker(2I4 − A) = span((1, 0, 1, 0)T ),


E(A, λ2 ) = Ker(I4 − A) = span((0, 1, 0, 1)T ) → d2 = 1.

A no diagonaliza.

Ejercicio 4. Dos matrices son semejantes si tienen los mismos autovalores y con las mismas
multiplicidades, tanto algebraica como geométrica. Para A y B, basta ver que aI + A y aI + B
son semejantes. Para las dos, los autovalores con sus multiplicidades son

122
λ1 = 1, m1 = 2, d1 = 1
λ2 = 2 m2 = 1, d2 = 1.

Luego son semejantes. Por otro lado, si C y D fuesen semejantes, también lo serı́an 2I − C y
2I − D, pero    
0 0 0 0 0 −3
2I − C =  0 0 0  , 2I − D =  0 0 1  ,
0 0 0 0 0 0
que nunca pueden ser semejantes.

Ejercicio 5. A es diagonalizable en los siguientes casos


b 6= 5, b 6= −1. Base de autovectores:

E(A, 5) = Ker(5I3 − A) = span((1, 0, 0)T ),


E(A, −1) = Ker(−I3 − A) = span((a, 2(1 + b), −2a)T ),
E(A, b) = Ker(bI3 − A) = span((3, 0, b − 5)T ).

b = −1, a = 0. Base de autovectores:

E(A, 5) = Ker(5I3 − A) = span((1, 0, 0)T ),


E(A, −1) = Ker(−I3 − A) = span((0, 1, 0)T , (1, 0, −2)T ).

B es diagonalizable sólo en el caso:


a 6= 0, a 6= 1. Base de autovectores:

E(B, 2) = Ker(2I3 − B) = span((1 − a, a, 1)T ),


√ √ √
E(B, 1 + a) = Ker((1 + a)I3 − B) = span((0, a, 1)T ),
√ √ √
E(B, 1 − a) = Ker((1 − a)I3 − B) = span((0, −2 − a, 1)T ).

Ejercicio 6.  
0 −1 2
A= 1 0 3  . pA (z) = z(z 2 + 14).
−2 −3 0
Los autovalores con sus multiplicidades algebraicas son

λ1 = 0, m1 = 1

λ2 = i 14 m2 = 1

λ3 = −i 14 m3 = 1.

Y los autoespacios asociados son

E(A, λ1 ) = Ker(−A) = span((−3, 2, 1)T ),


√ √ √
E(A, λ2 ) = Ker(i 14I3 − A) = span((16 − 2i 14, −2 − 3i 14, 13)T ),
√ √ √
E(A, λ3 ) = Ker(−i 14I3 − A) = span((16 + 2i 14, −2 + 3i 14, 13)T ).

123
 √ √   
−3 16 − 2i √14 16 + 2i √14 0 √0 0
P =  2 −2 − 3i 14 −2 + 3i 14  , D =  0 i 14 0

.
1 13 13 0 0 −i 14
 
1 0 1

A= 0 1 −2  . pA (z) = (z − 2)(z − 1)2 .
0 0 2
Los autovalores con sus multiplicidades algebraicas son

λ1 = 1, m1 = 2
λ2 = 2, m2 = 1.

Y los autoespacios asociados son

E(A, λ1 ) = Ker(I3 − A) = span((1, 0, 0)T , (0, 1, 0)T ),


E(A, λ2 ) = Ker(2I3 − A) = span((1, −2, 1)T ).
   
1 0 1 01 0 0
P = 0 1 −2  , D= 0 1 0.
0 0 1 0 0 2

Ejercicio 7.  
1 1 −2
A =  −1 2 1  . pA (z) = (z − 1)(z + 1)(z − 2).
0 1 −1
A diagonaliza. Base de autovectores:

E(A, 1) = Ker(I3 − A) = span((3, 2, 1)T ),


E(A, −1) = Ker(−I3 − A) = span((1, 0, 1)T ),
E(A, 2) = Ker(2I3 − A) = span((1, 3, 1)T ).
   
3 1 1 1 0 0

P = 2 0 3, D = 0 −1 0  .

1 1 1 0 0 2
 
2 1 0
A = 0 0 1. pA (z) = z 2 (z − 2).
0 0 0

λ1 = 0, m1 = 2,
λ2 = 2 m2 = 1, d2 = 1.

 
−2 −1 0
E(A, 0) = Ker(−A) = Ker  0 0 −1  → d1 = 1,
0 0 0

A no diagonaliza.

124
 
3 −1 −1
A =  1 1 −1  . pA (z) = (z − 1)(z − 2)2 .
1 −1 1

λ1 = 2, m1 = 2,
λ2 = 1 m2 = 1, d2 = 1.

E(A, 2) = Ker(2I3 − A) = {(x, y, z)T /x = y + z} = span((1, 0, 1)T , (1, 1, 0)T ) → d1 = 2,


E(A, 1) = Ker(I3 − A) = span((−1, −2, 1)T ).

A diagonaliza.    
1 1 −1 2 0 0
P = 0 1 −2  , D = 0 2 0.
1 0 1 0 0 1
 
4 1 0 1
 2 3 0 1 
A=  . pA (z) = (z − 4)(z − 6)(z − 2)2 .
 −2 1 2 −3 
2 −1 0 5

λ1 = 2, m1 = 2
λ2 = 4 m2 = 1 = d2
λ3 = 6 m3 = 1 = d3 .

E(A, 2) = Ker(2I4 − A) = span((0, 0, 1, 0)T , (−2, 1, 0, 1)T ),


E(A, 4) = Ker(4I4 − A) = span((−2, −1, −1, 1)T ),
E(A, 6) = Ker(6I4 − A) = span((2, 2, −1, 2)T ).

A diagonaliza.    
0 −2 −2 2 2 0 0 0
0 1 −1 2  0 2 0 0
P =
1
, D= .
0 −1 −1  0 0 4 0
0 1 1 2 0 0 0 6

Ejercicio 8.
pA (z) = (z − 4)2 z.

λ1 = 4, m1 = 2
λ2 = 0 m2 = 1 = d2 .

√ √
E(A, 4) = Ker(4I3 − A) = span((−i 2/2, 1, 0)T , (−i 2/2, 0, 1)T ),

E(A, 0) = Ker(−A) = span((i 2, 1, 1)T ).

125
q √ q √
2
Base ortonormal de E(A, 4): ~e1 = 3 (−i2/2, 1, 0)T , ~e2 = 34 (−i 2/3, −1/3, 1)T .

Base ortonormal de E(A, 0): ~e3 = (i 2/2, 1/2, 1/2)T .
q √ q √ √ 
2 3  
 3 (−i
q
2/2) 4 (−i 2/3) i 2/2
q  4 0 0
 
U = 2
3
3
4 (−1/3) 1/2  , U −1 AU =  0 4 0.
 q 
3 0 0 0
0 4 1/2

Ejercicio 9.  
3 −1 0
B =  −1 3 0, pB (z) = (z − 2)2 (z − 4).
0 0 2

λ1 = 2, m1 = 2
λ2 = 4 m2 = 1.

Bases ortonormales de los autoespacios:


√ √
E(B, 2) = Ker(2I3 − B) = span((1/ 2, 1/ 2, 0)T , (0, 0, 1)T ),
√ √
E(B, 4) = Ker(4I3 − B) = span((1/ 2, −1/ 2, 0)T ).
 √ √   
1/√2 0 1/ √2 2 0 0
Q =  1/ 2 0 −1 2  , Q−1 AQ =  0 2 0  .
0 1 0 0 0 4

Ejercicio 10.  
2 1 0
A = 1 1 1, pB (z) = z(z − 2)(z − 3).
0 1 2

λ1 = 3, m1 = 1
λ2 = 2 m2 = 1
λ3 = 0 m3 = 1.

Bases ortonormales de los autoespacios:


√ √ √
E(A, 3) = Ker(3I3 − A) = span((1/ 3, 1/ 3, 1/ 3)T ),
√ √
E(A, 2) = Ker(2I3 − A) = span((−1/ 2, 0, 1/ 2)T ),
√ √ √
E(A, 0) = Ker(−A) = span((1/ 6, −2/ 6, 1/ 6)T ).
 √ √ √   
1/√3 −1/ 2 1/ √6 3 0 0
Q =  1/√3 0√ −2√ 6  , Q−1 AQ =  0 2 0  .
1/ 3 1/ 2 1/ 6 0 0 0

126
Tema 6

Reducción de matrices. Caso no


diagonalizable

Ejemplo introductorio. Un curso de Algebra y Ecuaciones Diferenciales se imparte en dos


1 1
grupos, A y B. Cada semana dejan el curso de los que están en el grupo A y de los que
4 3
1 1 1
están en B. Además, del grupo B se pasa al grupo A y de A pasa a B. Finalmente, de los
6 4 6
1
que abandonaron en la semana anterior se incorporaron al grupo A y al grupo B. Calcula la
6
recurrencia vectorial asociada al problema. Si inicialmente hay 108 matriculados en el grupo A,
90 en B y 12 que se matriculan pero abandonan el curso, ¿ cuál será la distribución de las clases
y los abandonos transcurridos dos meses de curso?
Denotemos por A[n] los alumnos que hay en el grupo A en la semana n, B[n] los alumnos
que están en el grupo B en la semana n y C[n] los alumnos que dejan el curso tras la semana n.
Inicialmente A[0] = 108, B[0] = 90, C[0] = 12. las relaciones entre una semana y la siguiente es,
según el enunciado,
1 1 1
A[n + 1] = A[n] + B[n] + C[n]
2 6 6
1 1 1
B[n + 1] = A[n] + B[n] + C[n]
4 2 6
1 1 2
C[n + 1] = A[n] + B[n] + C[n]
4 3 3
Matricialmente, si ~v [n] = (A[n], B[n], C[n])T , tenemos el sistema
 
1/2 1/6 1/6
~v [n + 1] = A~v [n] =  1/4 1/2 1/6  ~v [n],
1/4 1/3 2/3
~v [0] = (108, 90, 12)T .

La distribución tras dos meses de curso, es ~v [8] = A8~v [0]. Nuestro problema ahora es que no
podemos aplicar los resultados de la lección anterior porque la matriz A no es digonalizable.
En el tema anterior establecimos condiciones para la diagonalización de una matriz cuadrada.
Cuando una de las condiciones de diagonalización fallaba, aún podı́amos triangularizar la matriz,
hacerla semejante a una matriz triangular superior. Ésta no es, sin embargo, la representación más

127
simple de la matriz en el caso de que ésta no diagonalice por no cumplir la segunda condición. Para
las aplicaciones que nos interesan, que serán las que aparecen en este tema y los dos siguientes,
buscaremos una representación a través de una base de los llamados autovectores generalizados.
Esta representación viene dada por el teorema de descomposición primaria. El primer bloque de
aplicaciones de estos resultados será tratado también en este tema y corresponde a las llamadas
recurrencias vectoriales; en particular las ecuaciones en diferencias.

6.1. Autoespacios generalizados


Sea A ∈ Mn,n (K) una matriz cuadrada, que puede corresponder a un endomorfismo sobre
un espacio vectorial de dimensión finita. Sea λ un autovalor de A. Sabemos que el autoespacio
asociado a λ es el subespacio E(A, λ) = Ker(λIn − A). Cuando la matriz no diagonaliza por no
cumplir la segunda condición de diagonalización, es porque para algún autovalor la multiplicidad
geométrica d(λ) = dimE(A, λ) no coincide con la algebraica m(λ) (orden de λ como raı́z del
polinomio caracterı́stico). Si eso ocurre para nuestro λ, la idea es tratar de encontrar un subespacio
relacionado con E(A, λ) cuya dimensión sea justamente m(λ). Este subespacio puede encontrarse
a través de las potencias de λIn − A.

Lema 1. Sea A ∈ Mn,n (K) y λ un autovalor de A. Se verifica:

(a) Cada subespacio Ker(λIn − A)k , k ≥ 0 es invariante frente a A.

(b) Ker(λIn − A)k ⊂ Ker(λIn − A)k+1 , k ≥ 0.

(c) Si para un entero k0 se da la igualdad

Ker(λIn − A)k0 = Ker(λIn − A)k0 +1 ,

entonces

Ker(λIn − A)k = Ker(λIn − A)k+1 , k ≥ k0 .

Fijado λ, se puede demostrar que la sucesión de subespacios

Ker(λIn − A) ⊂ Ker(λIn − A)2 ⊂ Ker(λIn − A)3 ⊂ · · ·

estabiliza en alguna potencia de (λIn − A). Esto significa que hay un primer entero k(λ) para el
cual

Ker(λIn − A)k(λ) = Ker(λIn − A)k(λ)+1 ,

y, por el apartado (c) del lema 1, todos los siguientes subespacios coinciden. El subespacio

Eg (A, λ) = Ker(λIn − A)k(λ)

se llama autoespacio generalizado correspondiente a λ. Sus elementos se llaman autovectores


generalizados asociados a λ. Nótese que si m ≥ k(λ) se tiene que

Eg (A, λ) = Ker(λIn − A)m .

128
También, si A es diagonalizable, Eg (A, λ) = E(A, λ).

Ejemplo. Vamos a buscar los autoespacios generalizados de la matriz


 
1 −2 3 −4
0 1 −1 −2 
A=
0
.
0 1 4 
0 0 0 −3
Los autovalores con sus multiplicidades algebraicas son
λ1 = 1, m(λ1 ) = 3
λ2 = −3, m(λ2 ) = 1.
Para el primer autovalor
  
0 2 −3 4 x
 0 0 1 2 y 
 
E(A, λ1 ) = Ker(I3 − A) = {(x, y, z, t)T /   = ~0}
0 0 0 −4   z 
0 0 0 4 t
= {(x, y, z, t)T /t = 0, z = 0, y = 0} = span((1, 0, 0, 0)T ) ⇒ d(λ1 ) = 1.
  
0 0 2 32 x
 0 0 0 4  y
Ker(I3 − A)2 = {(x, y, z, t)T /     = ~0}
0 0 0 −16   z 
0 0 0 16 t
= {(x, y, z, t)T /t = 0, z = 0} = span((1, 0, 0, 0)T , (0, 1, 0, 0)T ).
  
0 0 0 120 x
 0 0 0 16  y
Ker(I3 − A)3 = {(x, y, z, t)T /     = ~0}
0 0 0 −64   z 
0 0 0 64 t
= {(x, y, z, t)T /t = 0}
= span((1, 0, 0, 0)T , (0, 1, 0, 0)T , (0, 0, 1, 0)T ).
  
0 0 0 480 x
 0 0 0 64  y
Ker(I3 − A)4 = {(x, y, z, t)T /     = ~0}
0 0 0 −256   z 
0 0 0 256 t
= {(x, y, z, t)T /t = 0}
= span((1, 0, 0, 0)T , (0, 1, 0, 0)T , (0, 0, 1, 0)T ).
Luego Eg (A, λ) = Ker(I3 − A)3 . Para el segundo autovalor
  
−4 2 −3 4 x
 0 −4 1 2   
E(A, λ2 ) = Ker(−3I3 − A) = {(x, y, z, t)T /    y  = ~0}
 0 0 −4 −4   z 
0 0 0 0 t
= {(x, y, z, t)T /x = (15/8)t, y = t/4, z = −t}
= span((15, 2, −8, 8)T ) ⇒ d(λ2 ) = 1.

129
  
16 −16 26 0 x
 0 16 −8 −12  y
Ker(−3I3 − A)2 = {(x, y, z, t)T /     = ~0}
 0 0 16 16   z 
0 0 0 0 t
= {(x, y, z, t)T /x = (15/8)t, y = t/4, z = −t}
= span((15, 2, −8, 8)T ).

Luego Eg (A, λ) = E(A, λ) = Ker(−3I3 − A).

6.2. Teorema de descomposición primaria


El teorema que nos da una reducción de la matriz a través de los autovectores generalizados
es el siguiente. Más adelante veremos ejemplos.

Teorema 1. Sea A ∈ Mn,n (K) y supongamos que todos los autovalores de A, λ1 , . . . , λr , están
en K. Para cada j = 1, . . . , r pongamos d(λj ) = dimE(A, λj ) la multiplicidad geométrica, m(λj )
la multiplicidad algebraica y k(λj ) el primer entero donde se estabiliza la sucesión de núcleos
{Ker(λj In − A)k }k≥1 . Se cumple entonces que

(1) k(λj ) ≤ m(λj ), 1 ≤ j ≤ r.

(2) dimEg (A, λj ) = m(λj ), 1 ≤ j ≤ r.

(3) El espacio Kn es suma directa de los autoespacios generalizados:

Kn = Eg (A, λ1 ) ⊕ Eg (A, λ2 ) ⊕ · · · ⊕ Eg (A, λr ).

(4) Tomemos una base arbitraria Bj de cada autoespacio generalizado Eg (A, λj ), 1 ≤ j ≤ r.


Entonces B = B1 ∪ · · · ∪ Br es una base de Kn . Si P es la matriz cuyas columnas son los
vectores de B, entonces P −1 AP es diagonal por bloques, es decir,

P −1 AP = diag(T1 , . . . , Tr ),

donde Tj es una matriz de tamaño m(λj ) × m(λj ) de la forma

Tj = λj Im(λj )×m(λj ) + Nj ,

con Nj ∈ Mm(λj )×m(λj ) (K) una matriz tal que para alguna potencia s, Njs = 0 es la matriz
nula.

Para las aplicaciones que ahora veremos y las de los temas siguientes, es más importante
obtener la base de autovectores generalizados que la forma diagonal por bloques semejante.

Ejemplos. Buscamos una base de autovectores generalizados para las siguientes matrices.

(1)
 
5 4 3
A =  −1 0 −3  .
1 −2 1

130
El polinomio caracterı́stico es pA (z) = (z − 4)2 (z + 2), de modo que los autovalores con sus
multiplicidades algebraicas son

λ1 = 4, m(λ1 ) = 2
λ2 = −2, m(λ2 ) = 1.

Para el primer autovalor


    
−1 −4 −3 x 0
E(A, λ1 ) = Ker(4I3 − A) = {(x, y, z)T /  1 4 3   y  =  0 }
−1 2 3 z 0
= {(x, y, z)T /x = z, y = −z} = span((1, −1, 1)T ) ⇒ d(λ1 ) = 1.

Luego
    
0 −18 −18 x 0
2 T   
Eg (A, λ1 ) = Ker(4I3 − A) = {(x, y, z) / 0 18 18 
y = 0 }

0 18 18 z 0
= {(x, y, z)T /y = −z} = span((1, −1, 1)T , (1, 0, 0)T ).

Para el segundo autovalor


    
−7 −4 −3 x 0
E(A, λ2 ) = Ker(−2I3 − A) = {(x, y, z)T /  1 −2 3   y  =  0 }
−1 2 −3 z 0
= {(x, y, z)T /y = z, x = −z} = span((−1, 1, 1)T ) ⇒ d(λ2 ) = 1.

Luego los vectores ~v1 = (1, −1, 1)T , ~v2 = (1, 0, 0)T , ~v3 = (−1, 1, 1)T forman una base de autovec-
tores generalizados, de los cuales son autovectores ~v1 y ~v3 . Si P es la matriz cuyas columnas son
~v1 , ~v2 , ~v3 , la forma reducida semejante a A tiene la forma
 
4 1 0
P −1 AP =  0 4 0 .
0 0 −2

donde las columnas de P −1 AP están formadas por las coordenadas de A~v1 , A~v2 y A~v3 en la base
nueva. Se tiene

A~v1 = 4~v1
A~v2 = (A − 4I3 )~v2 + 4~v2 = ~v1 + 4~v2
A~v3 = −2~v3

(2)
 
1 0 −1 0
 −3 −2 −7 5 
A=
 0
.
0 1 0
−1 −1 −4 2

131
Calculamos los autovalores de A. Su polinomio caracterı́stico es, desarrollando por la tercera fila,
¯ ¯
¯z − 1 0 0 ¯¯
¯
pA (z) = det(zI4 − A) = (z − 1) ¯¯ 3 z + 2 −5 ¯¯ = (z − 1)2 (z 2 + 1).
¯ 1 1 z − 2¯
De modo que, los autovalores de A, con sus multiplicidades algebraicas, son:

λ1 = 1, m(λ1 ) = 2; λ2 = i, m(λ2 ) = 1; λ3 = −i, m(λ3 ) = 1.

Buscamos ahora una base de los autoespacios generalizados asociados a cada autovalor de A.
Para λ1 , tenemos,
    
0 0 1 0 x 0
 3 3 7 −5   y   0 
   
E(A, λ1 ) = Ker(I − A) = {(x, y, z, t)T : 
0 = }
0 0 0 z  0
1 1 4 −1 t 0
= {(x, y, z, t)T : z = 0, 3x + 3y − 5t = 0, x + y − t = 0}
= {(x, y, z, t)T : z = t = 0, y = −x} = h(1, −1, 0, 0)T i.

Como la multiplicidad algebraica es 2 y la del autoespacio es 1, para obtener el autoespacio


generalizado tendremos que elevar al cuadrado la matriz (I − A),
    
0 0 0 0 x 0
 4 4 4 −10  y  0
Eg (A, λ1 ) = Ker(I − A)2 = {(x, y, z, t)T : 
0
   =  }
0 0 0 z  0
2 2 4 −4 t 0
= {(x, y, z, t)T : 2x + 2y + 2z − 5t = 0, x + y + 2(z − t) = 0}
= {(x, y, z, t)T : t = −2z, x = −y − 6z}
= h(1, −1, 0, 0)T , (−6, 0, 1, −2)T i.

Para el segundo autovalor,

Eg (A, λ2 ) = Ker(iI − A) = {(x, y, z, t)T :


    
i−1 0 1 0 x 0
 3 i + 2 7 −5 y  0
    =  }
 0 0 i−1 0 z  0
1 1 4 i−2 t 0
= {(x, y, z, t)T : (i − 1)x + z = 0, 3x + (i + 2)y + 7z − 5t = 0,
(i − 1)z = 0, x + y + 4z + (i − 2)t = 0.}
= {(x, y, z, t)T : z = x = 0, y = (2 − i)t} = h(0, 2 − i, 0, 1)T i.

Y como el tercer autovalor es conjugado del segundo y A es real, su autoespacio generalizado


está generado por el conjugado del vector anterior,

Eg (A, λ3 ) = Ker(−iI − A) = h(0, 2 + i, 0, 1)T i.

Tenemos ya calculada una base de autovectores generalizados,

~v1 = (1, −1, 0, 0)T , ~v2 = (−6, 0, 1, −2)T , ~v3 = (0, 2 − i, 0, 1)T , ~v4 = (0, 2 + i, 0, 1)T .

132
donde, recordemos que ~v1 , ~v3 y ~v4 son autovectores. Si P es la matriz cuyas columnas son
~v1 , ~v2 , ~v3 , ~v4 , la forma reducida semejante a A tiene la forma
 
1 −1 0 0
 0 1 0 0 
P −1 AP = 
0
.
0 i 0 
0 0 0 −i

donde las columnas de P −1 AP están formadas por las coordenadas de A~v1 , A~v2 , A~v3 y y A~v4 en
la base nueva. Se tiene

A~v1 = ~v1
A~v2 = (A − I4 )~v2 + ~v2 = −~v1 + ~v2
A~v3 = i~v3
A~v4 = −i~v4

6.3. Recurrencias vectoriales


Dada una matriz A ∈ Mn.n (C) planteamos el problema de dar la solución de la recurrencia
vectorial

~x[m + 1] = A~x[m], ~x[m] ∈ C n , m ≥ 0. (6.1)

Ya hemos visto un ejemplo de recurrencia vectorial en la introducción del tema anterior o en


el ejemplo introductorio de este tema. Conocido el valor inicial ~x[0] = ~x ∈ C n , la solución es
~x[m] = Am ~x[0]. El problema (6.1) quedarı́a entonces resuelto si obtuviéramos la potencia Am ,
algo que en general no es posible. En su lugar se busca expresar la solución ~x[m] como una
superposición de los llamados modos normales.
Los modos normales son las soluciones especiales de (6.1) que corresponden a datos iniciales
en alguno de los autoespacios generalizados de A. Veamos cómo se puede expresar cada uno
de estos modos normales. Sea λ un autovalor de A y ~x ∈ Eg (A, λ) = Ker(λIn − A)k(λ) . Para
m ≥ k(λ), podemos escribir
m µ
X ¶
m m m
A ~x = (λIn + (A − λIn )) ~x = λm−j (A − λIn )j ~x
j=0
j
k(λ)−1 µ ¶
X m
= λm−j (A − λIn )j ~x
j=0
j
m(m − 1) m−2
= λm ~x + mλm−1 (A − λIn )~x + λ (A − λIn )2 ~x
µ ¶ 2
m
+··· + λm−(k(λ)−1) (A − λIn )k(λ)−1 ~x, (6.2)
k(λ) − 1

pues al ser ~x ∈ Eg (A, λ) = Ker(λIn −A)k(λ) , entonces (λIn −A)k(λ) ~x = ~0 y por tanto (λIn −A)j ~x =
~0 para j ≥ k(λ). Hemos dado ası́ una expresión general para los modos normales. En particular,
si ~x es un autovector, el modo normal es simplemente

Am ~x = λm ~x.

133
El procedimiento para resolver (6.1) con una condición inicial ~x[0] arbitraria es entonces de la
siguiente forma:

(1) Obtener una base de C n formada por autovectores generalizados: {~x1 , . . . , ~xn }.

(2) Expresar la condición inicial como suma de autovectores generalizados, calculando las co-
ordenadas de ~x[0] en la base formada por autovectores generalizados:

~x[0] = α1 ~x1 + · · · + αn ~xn .

Entonces

Am ~x[0] = α1 Am ~x1 + · · · + αn Am ~xn . (6.3)

(3) Calcular cada modo normal Am ~xj , 1 ≤ j ≤ n según la fórmula (6.2) y sumar para obtener
(6.3).

En el caso de necesitar calcular Am , si llamamos P a una matriz cuyas columnas sean autovectores
generalizados de A y formen una base de C n . Por lo que hemos visto, sabemos expresar en forma
cerrada

Am P = S (m) ,

que es la matriz cuyas columnas son los modos normales asociados. De aquı́ podemos despejar
Am = S (m) P −1 .

Ejemplos

(1) Para la matriz


 
−4 0 0 0
 −3 −1 0 0 
A=
 −3

2 −4 0 
−3 3 1 −4

y el vector ~x = (1, 10, 7, 12)T , vamos a calcular A10 ~x.


Los autovalores con su multiplicidad correspondiente son:

λ1 = −1, m(λ1 ) = d(λ1 ) = 1


λ2 = −4, m(λ2 ) = 3.

Buscamos una base de autovectores generalizados. Para el primer autovalor


    
3 0 0 0 x 0
 3 0 0 0     
Eg (A, λ1 ) = Ker(−I4 − A) = {(x, y, z, t)T :     =  0 }
y
 3 −2 3 0   z   0
3 −3 −1 3 t 0
= {(x, y, z, t)T : x = 0, z = (2/3)y, t = (11/9)y} = span((0, 9, 6, 11)T ).

134
Para el segundo autovalor,
    
0 0 0 0 x 0
 3 −3 0 0     
E(A, λ2 ) = Ker(−4I − A) = {(x, y, z, t)T :     =  0 }
y
 3 −2 0 0   z   0
3 −3 −1 0 t 0
= {(x, y, z, t)T : x = y = z = 0} = span((0, 0, 0, 1)T ) ⇒ d(λ2 ) = 1.

    
0 0 0 0 x 0
 −9 9 0 0 y  0
Ker(−4I − A)2 = {(x, y, z, t)T : 
 −6
   =  }
6 0 0z  0
−12 11 0 0 t 0
= {(x, y, z, t)T : x = y = 0} = span((0, 0, 0, 1)T , (0, 0, 1, 0)T ).

    
0 0 0 0 x 0
 27 −27 0 0     
Eg (A, λ2 ) = Ker(−4I − A)3 = {(x, y, z, t)T :    0
y
 18 −18 0 0   z  =  0 }
33 −33 0 0 t 0
= {(x, y, z, t)T : x = y} = span((0, 0, 0, 1)T , (0, 0, 1, 0)T , (1, 1, 0, 0)T ).

Una base de autovectores generalizados para esta matriz es entonces:

~v1 = (0, 9, 6, 11)T , ~v2 = (0, 0, 0, 1)T , ~v3 = (0, 0, 1, 0)T , ~v4 = (1, 1, 0, 0)T ,

donde ~v1 , ~v2 son autovectores.


Tenemos que obtener las coordenadas de la condición inicial ~x[0] = ~x = (1, 10, 7, 12)T
en la nueva base. Sabemos que éstas son P −1 ~x, donde P es la matriz cuyas columnas son
~v1 , ~v2 , ~v3 , ~v4 . No se calcula P −1 , sino que se resuelve el sistema con matriz P y término inde-
pendiente (1, 10, 7, 12)T . Si ~x[0] = α1~v1 + α2~v2 + α3~v3 + α4~v4 , entonces
      
α1 0 0 0 1 α1 1
 α2   9 0 0 1  α2   10 
P  
 α3  =  6
  =  .
0 1 0   α3   7 
α4 11 1 0 0 α4 12

De donde α1 = 1, α2 = 1, α3 = 1, α4 = 1. Entonces ~x[0] = ~v1 + ~v2 + ~v3 + ~v4 luego

A10 ~x[0] = A10~v1 + A10~v2 + A10~v3 + A10~v4


= (−1)10~v1 + (−4)10~v2 + (−4)10~v3
+10(−4)9 (A + 4I4 )~v3 + (−4)10~v4
+10(−4)9 (A + 4I4 )~v4 + 45(−4)8 (A + 4I4 )2~v4
= (−1)10~v1 + (−4)10~v2 + (−4)10~v3
+10(−4)9~v2 + (−4)10~v4 − 10(−4)9~v3 + 45(−4)8~v2 .

135
(2) Para la matriz
 
1 0 −1 0
 −3 −2 −7 5 
A=
 0
,
0 1 0
−1 −1 −4 2

y el vector ~x = (−2, 0, 1, 0)T vamos a calcular la solución de la recurrencia vectorial

~x[m + 1] = A~x[m], ~x[0] = ~x.

Ya hemos encontrado, en el ejemplo (2) de la sección anterior, una base formada por autovectores
generalizados para esta matriz:

~v1 = (1, −1, 0, 0)T , ~v2 = (−6, 0, 1, −2)T , ~v3 = (0, 2 − i, 0, 1)T , ~v4 = (0, 2 + i, 0, 1)T ,

donde

A~v1 = ~v1
A~v2 = (A − I4 )~v2 + ~v2 = −~v1 + ~v2
A~v3 = i~v3
A~v4 = −i~v4

Tenemos que obtener las coordenadas de la condición inicial ~x[0] = ~x = (−2, 0, 1, 0)T en la nueva
base. Sabemos que éstas son P −1 ~x, donde P es la matriz cuyas columnas son ~v1 , ~v2 , ~v3 , ~v4 . No se
calcula P −1 , sino que se resuelve el sistema con matriz P y término independiente (−2, 0, 1, 0)T .
Si ~x[0] = α1~v1 + α2~v2 + α3~v3 + α4~v4 , entonces
      
α1 1 −6 0 0 α1 −2
 α2   −1 0 2−i 2 + i  α2   0 
P  
 α3  =  0
 = .
1 0 0   α3   1 
α4 0 −2 1 1 α4 0
De donde α1 = 4, α2 = 1, α3 = 1, α4 = 1. Entonces ~x[0] = 4~v1 + ~v2 + ~v3 + ~v4 luego

~x[m] = Am ~x[0] = 4Am~v1 + Am~v2 + Am~v3 + Am~v4


= 4~v1 + ~v2 + m(A − I4 )~v2 + im~v3 + (−i)m~v4
= 4~v1 + ~v2 − m~v1 + 2Re(im~v3 ).

6.4. Ecuaciones en diferencias


La segunda aplicación tiene mucha relación con la primera. Son las ecuaciones en diferencias,
que son ecuaciones de la forma

xj+n + an−1 xj+n−1 + · · · + a1 xj+1 + a0 xj = fj , j ≥ 0, (6.4)

donde a0 , . . . , an−1 ∈ K son los coeficientes de la ecuación y {fj }∞


j=0 es una sucesión conocida.
Por ejemplo, la ecuación de Fibonacci del tema anterior

Mj+2 = Mj+1 + Mj ,

136
es una ecuación en diferencias.
Las soluciones de (6.4) son sucesiones {yj }∞
j=0 que convierten (6.4) en una identidad cuando
cada xm se sustituye por ym , m ≥ 0.
No trataremos la resolución general de (6.4). Nos interesan el caso homogéneo, es decir

xj+n + an−1 xj+n−1 + · · · + a1 xj+1 + a0 xj = 0, j ≥ 0, (6.5)

y algunos casos de (6.4) con términos no homogéneos {fj }∞


j=0 que aparecen en varios ejemplos y
que se analizarán en los ejercicios.

6.4.1. Ecuación homogénea


Denotamos por S al conjunto de todas las soluciones de (6.5). Es fácil ver que S es un espacio
vectorial respecto de las operaciones definidas por componentes. Fijémonos en que (6.5) puede
escribirse

xj+n = −an−1 xj+n−1 − · · · − a1 xj+1 − a0 xj , j ≥ 0,

de modo que la ecuación posee solución única una vez que se especifican los n valores iniciales
de la sucesión x0 , x1 , . . . , xn−1 . De esta manera, las n soluciones correspondientes a los n datos
iniciales

x0 = 1, x1 = 0, x2 = 0, . . . , xn−1 = 0
x0 = 0, x1 = 1, x2 = 0, . . . , xn−1 = 0
···
x0 = 0, x1 = 0, x2 = 0, . . . , xn−1 = 1,

constituyen una base del espacio de soluciones S y por tanto dim(S) = n.


Para la descripción de las soluciones suele ser útil la formulación matricial de (6.5). Dada una
sucesión {xj }∞
j=0 , se construye la sucesión de vectores

~x[j] = (xj , xj+1 , . . . , xj+n−1 )T , j ≥ 0.

Entonces, {xj }∞
j=0 es solución de (6.5) si y sólo si

~x[j + 1] = A~x[j], j ≥ 1, (6.6)

donde
 
0 1 0 0 ··· 0 0
 0 0 1 0 ··· 0 0 
 
 
A =  ··· ··· ··· ··· ··· ··· ··· .
 
 0 0 0 0 ··· 0 1 
−a0 −a1 −a2 −a3 · · · −an−2 −an−1

Ası́, la resolución de (6.5) se reduce a la obtención de los modos normales de (6.6). Sin embargo,
en la práctica, puede darse la solución de (6.5) utilizando la formulación matricial sólo a efectos
teóricos.

137
El polinomio p(z) = z n + an−1 z n−1 + · · · + a1 z + a0 se llama polinomio caracterı́stico de (6.5).
Sus raı́ces se llaman raı́ces caracterı́sticas. No es difı́cil ver que

p(z) = det(zIn − A),

de modo que las raı́ces caracterı́sticas de (6.5) coinciden, junto con su multiplicidad, con los
autovalores de A.
Para la obtención de los soluciones de (6.5) consideremos la factorización de p(z):

p(z) = (z − λ1 )m(λ1 ) · · · (z − λr )m(λr ) ,

según sus diferentes raı́ces λj con multiplicidades (algebraicas) m(λj ), con m(λ1 )+· · ·+m(λr ) = n.
Las soluciones de (6.5) son las primeras componentes de los vectores solución de (6.6)

x0 → Primera componente de ~x[0]


x1 → Primera componente de ~x[1]
.. ..
. .
xj → Primera componente de ~x[j]
.. ..
. .

y, como sabemos, toda solución de (6.6) es combinación de modos normales. De aquı́ se deduce
que toda solución de (6.5) es combinación lineal de las sucesiones obtenidas por las primeras
componentes de los modos normales. Cada modo normal genera una sucesión de vectores

~x, A~x, A2 ~x, . . . ,

donde ~x ∈ Ker(λs In − A)m(λs ) .


Ahora bien, dada la forma de un modo normal cualquiera proporcionada por (6.2), tenemos
que la sucesión de las primera componentes de {Aj ~x}∞
j=0 es combinación lineal de las sucesiones

{λjs }∞ j ∞
j=0 , {jλs }j=0 , . . . , {j
m(λs )−1 j ∞
λs }j=0 .

Recorriendo entonces todos los modos normales, tenemos que el espacio de soluciones S está con-
tenido en el espacio de sucesiones S ∗ formado por las combinaciones lineales de las n sucesiones

{j l λjs }∞
j=0 , 1 ≤ s ≤ r, 0 ≤ l ≤ ms − 1.

Por otro lado, al ser dim(S) = n, entonces necesariamente S = S ∗ y las n sucesiones anteriores
forman una base de S. De este modo, para obtener las soluciones de (6.5) se procede de la siguiente
manera:
(1) Obtener las raı́ces caracterı́sticas λ1 , . . . , λr y sus multiplicidades m1 , . . . , mr .

(2) Formar las n sucesiones de la base

{λj1 }∞ j ∞
j=0 , {jλ1 }j=0 , . . . , {j
m1 −1 j ∞
λ1 }j=0
{λj2 }∞ j ∞
j=0 , {jλ2 }j=0 , . . . , {j
m2 −1 j ∞
λ2 }j=0
·········
{λjr }∞ j ∞
j=0 , {jλr }j=0 , . . . , {j
mr −1 j ∞
λr }j=0 .

138
(3) Escribir la solución {yj }∞
j=0 como combinación lineal de las sucesiones anteriores. Los coe-
ficientes de esta combinación quedan determinados al imponer las n condiciones iniciales.

Ejemplos.

(1) Vamos a obtener la solución de la ecuación en diferencias

xj+2 − 2xj+1 − 3xj = 0,

con condiciones iniciales x0 = 0, x1 = 1. El polinomio caracterı́stico es p(z) = z 2 − 2z − 3 =


(z − 3)(z + 1), de modo que las raı́ces caracterı́sticas con sus multiplicidades son

λ1 = 3, m1 = 1
λ2 = −1, m2 = 1.

Según esto, la base de soluciones es

{λj1 }∞ j ∞
j=0 = {3 }j=0 ,

{λj2 }∞ j ∞
j=0 = {(−1) }j=0 .

de manera que la solución general {yj }∞


j=0 es de la forma

yj = A3j + B(−1)j , j = 0, 1, 2, . . . ,

para constantes A y B. Estas constantes se determinan a partir de las condiciones iniciales:

x0 = 0 ⇒ y0 = A + B = 0,
x1 = 1 ⇒ y1 = 3A − B = 1.

Se obtiene un sistema lineal para las constantes, de solución A = 1/4, B = −1/4. Luego la
solución del problema es {yj }∞
j=0 con

1 1
yj = 3j − (−1)j , j = 0, 1, 2, . . . .
4 4
(2) Vamos a obtener la solución general de la ecuación en diferencias

xj+3 − 3xj+1 − 2xj = 0.

El polinomio caracterı́stico es p(z) = z 3 − 3z − 2 = (z − 2)(z + 1)2 , de modo que las raı́ces


caracterı́sticas con sus multiplicidades son

λ1 = 2, m1 = 1
λ2 = −1, m2 = 2.

Según esto, la base de soluciones es

{λj1 }∞ j ∞
j=0 = {2 }j=0 ,

{λj2 }∞ j ∞
j=0 = {(−1) }j=0

{jλj2 }∞ j ∞
j=0 = {j(−1) }j=0 .

139
de manera que la solución general {yj }∞
j=0 es de la forma

yj = A3j + B(−1)j + Cj(−1)j , j = 0, 1, 2, . . . ,

para constantes A, B y C.
(3) Vamos a obtener la solución de la ecuación en diferencias

xj+3 − 3xj+2 + 3xj+1 − xj = 0,

con condiciones iniciales x0 = 1, x1 = 0, x2 = 1. El polinomio caracterı́stico es p(z) = z 3 − 3z 2 +


3z − 1 = (z − 1)3 , de modo que las raı́ces caracterı́sticas con sus multiplicidades son

λ1 = 1, m1 = 3.

Según esto, la base de soluciones es

{λj1 }∞ j ∞
j=0 = {1 }j=0 ,

{jλj1 }∞ ∞
j=0 = {j}j=0

{j 2 λj1 }∞ 2 ∞
j=0 = {j }j=0 .

de manera que la solución general {yj }∞


j=0 es de la forma

yj = A + Bj + Cj 2 , j = 0, 1, 2, . . . ,

para constantes A, B y C. Estas constantes se determinan a partir de las condiciones iniciales:

x0 = 1 ⇒ y0 = A = 1,
x1 = 0 ⇒ y1 = A + B + C = 0
x2 = 1 ⇒ y2 = A + 2B + 4C = 1.

Se obtiene un sistema lineal para las constantes, de solución A = 1, B = −2, C = 1. Luego la


solución del problema es {yj }∞
j=0 con

yj = 1 − 2j + j 2 , j = 0, 1, 2, . . . .

(4) Vamos a obtener la solución de la ecuación en diferencias

xj+3 − 4xj+2 + 5xj+1 − 2xj = 0,

con condiciones iniciales x0 = 0, x1 = 1, x2 = 0. El polinomio caracterı́stico es p(z) = z 3 − 4z 2 +


5z − 2 = (z − 1)2 (z − 2), de modo que las raı́ces caracterı́sticas con sus multiplicidades son

λ1 = 1, m1 = 2
λ2 = 2, m2 = 1.

Según esto, la base de soluciones es

{λj1 }∞ j ∞
j=0 = {1 }j=0 ,

{jλj1 }∞ ∞
j=0 = {j}j=0

{λj2 }∞ j ∞
j=0 = {2 }j=0 .

140
de manera que la solución general {yj }∞
j=0 es de la forma

yj = A + Bj + C2j , j = 0, 1, 2, . . . ,

para constantes A, B y C. Estas constantes se determinan a partir de las condiciones iniciales:

x0 = 0 ⇒ y0 = A + C = 0,
x1 = 1 ⇒ y1 = A + B + 2C = 1
x2 = 0 ⇒ y2 = A + 2B + 4C = 0.

Se obtiene un sistema lineal para las constantes, de solución A = 2, B = 3, C = −2. Luego la


solución del problema es {yj }∞
j=0 con

yj = 2 + 3j − 2j+1 , j = 0, 1, 2, . . . .

(5) Vamos a obtener la solución de la ecuación en diferencias

xj+2 = −xj ,

con condiciones iniciales x0 = 1, x1 = 1. El polinomio caracterı́stico es p(z) = z 2 +1 = (z−i)(z+i),


de modo que las raı́ces caracterı́sticas con sus multiplicidades son

λ1 = i, m1 = 1
λ2 = −i, m2 = 1.

Según esto, la base de soluciones es

{λj1 }∞ j ∞
j=0 = {i }j=0 ,

{λj2 }∞ j ∞
j=0 = {(−i) }j=0 .

de manera que la solución general {yj }∞


j=0 es de la forma

yj = Aij + B(−i)j , j = 0, 1, 2, . . . ,

para constantes A y B. Estas constantes se determinan a partir de las condiciones iniciales:

x0 = 1 ⇒ y0 = A + B = 1,
x1 = 1 ⇒ y1 = iA − iB = 1.

Se obtiene un sistema lineal para las constantes, de solución A = (1 − i)/2, B = (1 + i)/2. Luego
la solución del problema es {yj }∞
j=0 con

1−i j 1+i 1−i j


yj = i + (−i)j = 2Re( i ),
2 2 µ 2 ¶
1 − i πij/2 1−i
= 2Re( e ) = 2Re (cos(πj/2) + i sin(πj/2))
2 2
= cos(πj/2) + sin(πj/2) j = 0, 1, 2, . . . .

La solución ha de ser real, pues las condiciones iniciales lo son.

141
6.4.2. Ecuación no homogénea
Como ya hemos indicado anteriormente, no trataremos la resolución general de la ecuación
no homogénea (6.4). Sin embargo, es interesante explicar la estructura de las soluciones, pues se
utilizarán razonamientos parecidos posteriormente, en el contexto de las ecuaciones diferenciales.
Ası́mismo, discutiremos también la resolución para algunos casos particulares de términos no
homogéneos {fj }∞j=0 .
En lo que se refiere a la estructura de soluciones, conviene resaltar una primera propiedad,
que podrı́a llamarse principio de superposición.
[1]
(R1) Supongamos que el término no homogéneo {fj }∞
j=0 es suma de dos sucesiones fj = fj +
[2] [1] [2]
fj , j = 0, 1, . . . y sean {xj }∞ ∞
j=0 , {xj }j=0 soluciones de (6.4) con términos no homogéneos
[1] [2] [1] [2]
{fj }∞ ∞ ∞
j=0 y {fj }j=0 respectivamente. Entonces, la sucesión {xj }j=0 con xj = xj + xj es
solución de (6.4) con término no homogéneo fj .
El resultado parece razonable por la linealidad de la ecuación en diferencias. La primera conse-
cuencia es la siguiente:
(R2) Si {xj }∞ ∞ ∞
j=0 e {yj }j=0 son soluciones de (6.4), entonces la sucesión {zj }j=0 , con zj = xj − yj
es solución de la ecuación homogénea (6.5).
De este modo, la diferencia de dos soluciones de (6.4) es una solución de la ecuación homogénea
asociada. Esto permite la siguiente descripción:
(R3) La solución general de (6.4) se puede escribir como la suma de una solución particular más
la solución general de la ecuación homogénea asociada (6.5).
Hay entonces una reducción del problema en el siguiente sentido: para calcular todas las solu-
ciones de (6.4) es suficiente con obtener una sola, pues todas las demás se determinan añadiendo
a la obtenida soluciones de la ecuación homogénea asociada.
Vamos a utilizar esta reducción para resolver algunos casos particulares de ecuaciones no ho-
mogéneas que aparecen con frecuencia en diversas aplicaciones. Buscamos una solución particular
para ecuaciones en diferencias de la forma

xj+n + an−1 xj+n−1 + · · · + a1 xj+1 + a0 xj = fj , j ≥ 0,

donde fj es de la forma fj = q(j)bj , siendo b una constante b ∈ C y q(j) un polinomio en j de un


determinado grado m,

q(j) = q0 + q1 j + · · · qm j m .

El método que utilizaremos parte de la idea de que cuando el término no homogéneo es de


esta forma, puede esperarse que exista una solución del mismo tipo. Consideremos una sucesión
{xj }∞ j
j=0 de la forma xj = s(j)b . Si sustituimos en la ecuación en diferencias se puede obtener la
siguiente fórmula
à !
n) (b) n−1) (b) p0 (b)
j np n−1 p
b b gj,n + b gj,n−1 + · · · b gj,1 + p(b)gj,0 = q(j)bj , (6.7)
n! (n − 1)! 1!

donde

p(z) = a0 + a1 z + · · · + an−1 z n−2 + an z n ,

142
es el polinomio caracterı́stico de la ecuación, mientras que

gj,0 = s(j),
gj,1 = s(j + 1) − s(j),
gj,2 = s(j + 2) − 2s(j + 1) + s(j),
.. .
. = µ .. ¶ µ ¶ µ ¶ µ ¶
k k k k
gj,k = s(j + k) − s(j + k − 1) + · · · + (−1)k−1 s(j + 1) + (−1)k s(j),
0 1 k−1 k
.. .
. = µ .. ¶ µ ¶ µ ¶ µ ¶
n n n n
gj,n = s(j + n) − s(j + n − 1) + · · · + (−1)n−1 s(j + 1) + (−1)n s(j).
0 1 n−1 n

La ecuación (6.7) permite el siguiente razonamiento. Supongamos que se ensaya una solución
particular de la forma xj = s(j)bj , con s un polinomio de un grado a determinar. Fijémonos
entonces que gj,0 es un polinomio con el mismo grado que s, gj,1 tiene un grado menos, gj,2 dos
grados menos, etc.
De este modo, si b no es raı́z del polinomio caracterı́stico, entonces p(b) 6= 0 y el polinomio en
j de mayor grado que aparece a la izquierda en (6.7) es gj,0 = s(j), el cual debe coincidir con el
grado m del polinomio de la derecha q(j). Por tanto, podemos ensayar como solución particular
una sucesión cuyo término general es producto de bj por un polinomio del mismo grado m del
polinomio del término no homogéneo.
Supongamos ahora que b es raı́z caracterı́stica simple. Entonces p(b) = 0 y el polinomio en
j de mayor grado que aparece a la izquierda en (6.7) es ahora gj,1 , el cual debe coincidir con el
grado m del polinomio de la derecha q(j). Como gj,1 tiene un grado menos que s(j), entonces
debemos ensayar s(j) con grado m + 1. Si b es raı́z doble, entonces p(b) = p0 (b) = 0 y s(j) debe
tener grado m + 2. Ası́, en general, si b es raı́z caracterı́stica de multiplicidad d, podemos ensayar
como s(j) un polinomio de grado menor o igual que m + d,

s(j) = A0 + A1 j + · · · + Ad−1 j d−1 + Ad j d + · · · + Am+d j m+d .

Aún se puede avanzar un poco más; teniendo en cuenta que b es raı́z con esa multiplicidad, la
parte de la solución correspondiente al polinomio de grado menor o igual que d−1 es una solución
de la ecuación homogénea. De este modo, podemos ensayar a partir del coeficiente de j d . Este
método, llamado de coeficientes indeterminados, puede resumirse entonces de la siguiente forma:

(A) Si p(b) 6= 0, entonces s(t) = s0 + s1 t + · · · + sm tm y existe una solución particular de la


forma
xj = (s0 + s1 j + · · · + sm j m )bj .

(B) Si p(z) = (z−b)d p0 (z) con p0 (b) 6= 0, entonces s(t) = s0 + · · · + sd−1 td−1 + sd td + · · · + sd+m td+m
y existe una solución particular de la forma

xj = j d (sd + sd+1 j + · · · + sd+m j m )bj .

(C) En ambos casos, los coeficientes de s se obtienen imponiendo que xj sea solución del prob-
lema.

143
Ejemplos.

[1]. Buscamos una solución particular de

xj+2 − 2xj+1 − 3xj = j2j .

Las raı́ces caracterı́sticas son λ1 = 3, λ2 = −1. Como b = 2 no es raı́z caracterı́stica y el polinomio


de la derecha q(j) = j tiene grado uno, ensayamos como solución particular xj = (A + Bj)2j .
Imponiendo esta función como solución e igualando en las potencias de j, tenemos el sistema

4B − 3A = 0
−3B = 1.

de donde xj = ((−4/9) − (j/3))2j .

[2]. Buscamos una solución particular de

xj+2 − 2xj+1 − 3xj = j(−1)j .

Ahora, b = −1 es raı́z simple del polinomio caracterı́stico. Buscamos entonces una solución
particular de la forma xj = j(A + Bj)(−1)j . Imponiendo la función como solución e igualando
coeficientes en j, se tiene

6B + 4A = 0
8B = 1.

De donde B = 1/8, A = −3/16. La ecuación tiene una solución particular de la forma xj =


j((−3/16) + (1/8)j)(−1)j . La solución general es de la forma c1 3j + c2 (−1)j + j((−3/16) +
(1/8)j)(−1)j , con c1 , c2 constantes arbitrarias.

EJERCICIOS DEL TEMA 6

Ejercicio 1. Halla una base de los autoespacios generalizados de las matrices siguientes
   
−2 0 3 0 −4 0 0 0
 3 2 −2 −1   −3 −1 0 0 
A=
 0
, B= .
0 1 0   −3 2 −4 0 
3 0 −2 −2 −3 3 1 −4

Halla A10 x y B 10 x donde x es el vector [1, 1, 0, 0]T .

Ejercicio 2. Se consideran las matrices


   
1 1 0 0 2 0 0 0
 −1 −1 0 0  4 2 1 −5 
A=
 2
, B= .
−1 2 4  −3 0 4 2 
1 3 −1 2 1 0 −2 0
Halla una base de los autoespacios generalizados de A y B.

144
Ejercicio 3. Para la matriz  
3 1 −2 −1
0 3 0 0 
A=
 0 −5

6 −3 
0 2 3 0
halla A30 x donde x = [1, 2, −3, 5]T .

Ejercicio 4. Calcula la expresión de An v donde v es el vector (1, 2, 3, 4)T y A es la matriz


   
1 0 −1 0 −1 1 −1 −1
0 0 0 −1   2 −1 0 2 
 ,  .
1 0 1 0   0 −1 0 −1 
0 1 0 0 2 −1 1 2

Ejercicio 5. Se considera la matriz A(r), dependiente de un parámetro real r ∈ R,


 
4 3−r −4
A(r) =  −1 r 0 .
0 0 1

(i) Determina los valores de r para los cuales A(r) es diagonalizable.

(ii) Se considera la matriz A = A(2). Determina una base de autovectores generalizados para la
matriz A.

(iii) Calcula la solución de la recurrencia vectorial

~x[n + 1] = A~x[n], n = 2, 3, . . .
T
~x[2] = (3, 0, 1) .

Ejercicio 6. Halla la solución general de las siguientes ecuaciones en diferencias:

a) uj+3 − 3uj+2 + 3uj+1 − uj = 0, e) uj+2 + 8uj+1 + 15uj = 0.


b) uj+3 − 3uj+2 + 3uj+1 − uj = j, f) uj+2 + 8uj+1 + 15uj = 2j .
c) uj+2 − 2uj+1 − 3uj = j, g) uj+2 + 8uj+1 + 15uj = (−3)j .
d) uj+2 − 2uj+1 + uj = j + j 2 , h) uj+2 − 2uj+1 + 2uj = 0.

Ejercicio 7. Se considera la ecuación en diferencias

xj+3 − 3xj+1 − 2xj = j + 2j . (6.8)

(i) Calcula una solución particular de la ecuación (6.8).

(ii) Calcula la solución general de la ecuación (6.8).

(ii) Encuentra todas las soluciones {xj }∞


j=0 de la ecuación (6.8) tales que x0 = 0.

145
ALGUNOS EJERCICIOS RESUELTOS DEL TEMA 6

Ejercicio 1.
 
−2 0 3 0
 3 2 −2 −1 
A=
 0
, pA (z) = (z − 1)(z + 2)2 (z − 2).
0 1 0 
3 0 −2 −2

Los autovalores con sus multiplicidades algebraicas son

λ1 = 1, m1 = 1
λ2 = −2 m2 = 2
λ3 = 2 m3 = 1.

Y los autoespacios generalizados son

Eg (A, λ1 ) = Ker(I4 − A) = span(~v1 ), ~v1 = (3, −2, 3, 1)T ,


Eg (A, λ2 ) = Ker(−2I4 − A)2 = span(~v2 , ~v3 ), ~v2 = (0, 1, 0, 4)T , ~v3 = (4, 0, 0, 9)T ,
Eg (A, λ3 ) = Ker(2I4 − A) = span(~v4 ), ~v4 = (0, 1, 0, 0)T ).

Hemos elegido el primer vector de E(A, λ2 ) como autovector. Escribimos ~x = α1~v1 + α2~v2 +
α3~v3 + α4~v4 en la base de autovectores generalizados, resolviendo el sistema
    
3 0 4 0 α1 1
 −2 1 0 1  α2   1 
   =  ,
 3 0 0 0   α3   0 
1 4 9 0 α4 0

ası́
~x = −(9/16)~v2 + (1/4)~v3 + (25/16)~v4 ,
y por tanto

A10 ~x = −(9/16)A10~v2 + (1/4)A10~v3 + (25/16)A10~v4 ,


A10~v2 = (−2)10~v2 ,
A10~v3 = (−2)10~v3 + 10(−2)9 (A + 2I4 )~v3 = (−2)10~v3 + 10(−2)9 (0, 3, 0, 12)T ,
A10~v4 = 210~v4 .

 
−4 0 0 0
 −3 −1 0 0 
B=
 −3
.
2 −4 0 
−3 3 1 −4
Los autovalores con sus multiplicidades algebraicas son

λ1 = −1, m1 = 1
λ2 = −4 m2 = 3.

146
Y los autoespacios generalizados son

Eg (B, λ1 ) = Ker(−I4 − B) = span(~v1 ), ~v1 = (0, 9, 6, 11)T ,


Eg (B, λ2 ) = Ker(−4I3 − B)3 = span(~v2 , ~v3 , ~v4 ),
~v2 = (0, 0, 1, 0)T , ~v3 = (0, 0, 0, 1)T , ~v4 = (1, 1, 0, 0)T ).

Escribimos ~x = α1~v1 + α2~v2 + α3~v3 + α4~v4 en la base de autovectores generalizados; pero en este
caso ~x = ~v4 luego

B 10 ~x = B 10~v4 ,
= (−4)10~v24 + (−4)9 (B + 4I4 )~v4 + (−4)8 (B + 4I4 )2~v4
= (−4)10~v4 + (−4)9 (0, 0, −1, 0)T + (−4)8 (0, 0, 0, 1)T .

Ejercicio 2.
 
1 1 0 0
 −1 −1 0 0
A=
 2
, pA (z) = (z − 1)(z + 2)2 (z − 2).
−1 2 4
1 3 −1 2
Los autovalores con sus multiplicidades algebraicas son

λ1 = 0, m1 = 2
λ2 = 2 + 2i m2 = 1
λ3 = 2 − 2i m3 = 1.

Y los autoespacios generalizados son

Eg (A, λ1 ) = Ker(A2 ) = span(~v1 , ~v2 ), ~v1 = (0, 1, 5/4, −13/16)T , ~v2 = (1, 0, −1/2, −11/16)T
Eg (A, λ2 ) = Ker((2 + 2i)I4 − A) = span(~v3 ), ~v3 = (0, 0, −2i, 1)T ,
Eg (A, λ3 ) = Ker((2 − 2i)I4 − A) = span(~v4 ), ~v4 = (0, 0, 2i, 1)T ).

 
2 0 0 0
 4 2 1 −5 
B=
 −3
, pB (z) = (z − 2)4 .
0 4 2 
1 0 −2 0
Los autovalores con sus multiplicidades algebraicas son

λ1 = 2, m1 = 4.

Y los autoespacios generalizados son

Eg (A, λ1 ) = Ker(2I4 − A)4 = span((1, 0, 0, 0)T , (0, 1, 0, 0)T , (0, 0, 1, 0)T , (0, 0, 0, 1)T ).

Ejercicio 3. pA (z) = (z − 3)4 y se tiene que (3I4 − A)4 = 0 luego


µ ¶ µ ¶ µ ¶
30 30 30
A30 ~x = 330 ~x + 329 (A − 3I4 )~x + 328 (A − 3I4 )2 ~x + 3297 (A − 3I4 )3 ~x.
1 2 3

147
Ejercicio 4.  
1 0 −1 0
0 0 0 −1 
A=
1 0
, pA (z) = (z 2 + 1)(z 2 − 2z + 2).
1 0 
0 1 0 0
Los autovalores con sus multiplicidades algebraicas son

λ1 = i, m1 = 1
λ2 = −i m2 = 1
λ3 = 1 + i m3 = 1
λ4 = 1 − i m4 = 1.

Y los autoespacios generalizados son

Eg (A, λ1 ) = Ker(iI4 − A) = span(~v1 ), ~v1 = (0, i, 0, 1)T ,


Eg (A, λ2 ) = Ker(−iI4 − A)2 = span(~v2 ), ~v2 = (0, −i, 0, 1)T ,
Eg (A, λ3 ) = Ker((1 + i)I4 − A) = span(~v3 ), ~v3 = (i, 0, 1, 0)T ),
Eg (A, λ4 ) = Ker((1 − i)I4 − A) = span(~v4 ), ~v4 = (−i, 0, 1, 0)T ).

Todos son autovectores, pues los autovalores tienen todos multiplicidad uno. Escribimos ~v =
α1~v1 + α2~v2 + α3~v3 + α4~v4 en la base de autovectores, resolviendo el sistema
    
0 0 i −i α1 1
 i −i 0 0   α2   2 
    
 0 0 1 1   α3  =  3  ,
1 1 0 0 α4 4

ası́
3−i 3+i
~v = (2 − i)~v1 + (2 + i)~v2 + ~v3 + ~v4 ,
2 2
y por tanto
3−i n 3+i n
An~v = (2 − i)An~v1 + (2 + i)An~v2 + A ~v3 + A ~v4 ,
2 2
An~v1 = (i)n~v21 ,
An~v2 = (−i)n~v2 ,
An~v3 = (1 + i)n~v3 ,
An~v4 = (1 + i)n~v4 ,
An~v = 2Re((2 − i)in~v1 ) + 2Re((2 + i)(i + i)n~v3 ).

 
−1 1 −1 −1
 2 −1 0 2 
A=
 0
, pA (z) = (z 2 + 1)(z 2 − 2z + 2).
−1 0 −1 
2 −1 1 2

148
Los autovalores con sus multiplicidades algebraicas son

λ1 = −1, m1 = 1
λ2 = i m2 = 1
λ3 = −i m3 = 1
λ4 = 1 m4 = 1.

Y los autoespacios generalizados son

Eg (A, λ1 ) = Ker(−I4 − A) = span(~v1 ), ~v1 = (0, 1, 1, 0)T ,


Eg (A, λ2 ) = Ker(iI4 − A)2 = span(~v2 ), ~v2 = (−1, 0, i, 1)T ,
Eg (A, λ3 ) = Ker(−iI4 − A) = span(~v3 ), ~v3 = (−1, 0, −i, 1)T ),
Eg (A, λ4 ) = Ker(I4 − A) = span(~v4 ), ~v4 = (1, 1, −1, 0)T ).

Todos son autovectores, pues los autovalores tienen todos multiplicidad uno. Escribimos ~v =
α1~v1 + α2~v2 + α3~v3 + α4~v4 en la base de autovectores, resolviendo el sistema
    
0 −1 −1 1 α1 1
1 0 0 1   α2   2 
   =  ,
1 i −i −1   α3   3 
0 1 1 0 α4 4

ası́
~v = −3~v1 + (2 + (11/2)i)~v2 + (2 + (11/2)i)~v3 + 5~v4 ,
y por tanto

An~v = . − 3(−1)n~v1 + 2Re((2 + (11/2)i)in~v2 ) + 5~v4 .

Ejercicio 6.
a) uj = A + Bj + Cj 2 .
b) uj = A + Bj + Cj 2 − (1/4)j 3 + (1/24)j 4 .
c) uj = A(−1)j + B3j − (1/4)j.
d) uj = A + Bj − (1/12)j 2 − (1/6)j 3 + (1/12)j 4 .
e) uj = A(−3)j + B(−5)j .
f) uj = A(−3)j + B(−5)j + (1/35)2j .
g) uj = A(−3)j + B(−5)j − (1/6)j(−3)j .
h) uj = A(1 + i)j + B(1 − i)j .

149
Tema 7

Sistemas de EDOs lineales y de


coeficientes constantes

El cuarto problema del que trata la asignatura es la resolución de ecuaciones diferenciales


ordinarias. Decir esto es demasiado general. Como primer paso nos plantearemos el estudio de
los sistemas de primer orden lineales y de coeficientes constantes, ası́ como el de ecuaciones de
orden superior lineales de coeficientes constantes.

Introducción. La ecuación lineal de primer orden. La formulación de una ecuación dife-


rencial como modelo matemático de una cierta realidad fı́sica responde, en general, al siguiente
planteamiento: x = x(t) representa la medida realizada en el instante t de una magnitud que
describe, a lo largo del tiempo, un cierto sistema fı́sico, biológico, económico, etc. Por ejemplo, la
posición de un móvil que se desplaza en un medio unidimensional, la temperatura de un objeto,
la cantidad de radiactividad de un lugar determinado, la densidad de una población, etc; x(t)
representa pues, el estado de cierto sistema en el instante t. Por otro lado, la variación instantánea
de la variable x(t) está dada por su función derivada x0 (t). Si la ley fı́sica que rige la evolución
del fenómeno bajo estudio queda expresada (por conjeturas basadas en la experimentación y la
observación) por una relación matemática, válida para todo instante t, entre x(t) y su variación
instantánea x0 (t), obtendremos una ecuación diferencial ordinaria que ha de ser satisfecha por la
función incógnita x(t). La ecuación más simple que puede responder a esta formulación es
x0 (t) = ax(t),
con a un número real. Las soluciones de esta ecuación son de la forma x(t) = Ceat con C
una constante arbitraria (¿por qué?). Si se especifica a priori el valor que ha de tener x(t) en
un instante inicial t0 , entonces queda determinada una única solución de la ecuación: entre las
funciones x(t) = Ceat , la única que satisface la condición inicial x(t0 ) = x0 es aquélla tal que
x(t0 ) = Ceat0 = x0 , es decir, la correspondiente a la constante C = e−at0 x0 , o sea x(t) =
ea(t−t0 ) x0 .
En algunos modelos es necesario introducir más funciones incógnita, de manera que la ecuación
anterior se generaliza a una relación vectorial
~x0 (t) = A~x(t),
entre el vector de incógnitas ~x y su correspondiente vector de derivadas ~x0 y donde A es una
matriz. Para este caso la resolución no es tan sencilla y se requiere utilizar la teorı́a explicada en
los dos últimos temas.

150
Esta lección queda más o menos dividida en dos partes. En la primera, se explicarán nociones
elementales de la teorı́a de sistemas lineales de primer orden con coeficientes constantes, plante-
ando el problema de valores iniciales y estudiando la estructura del espacio de soluciones. La
segunda parte estará dedicada a la búsqueda de soluciones, tanto para ecuaciones homogéneas
como no homogéneas.

7.1. Presentación
Un sistema lineal de n ecuaciones diferenciales ordinarias y coeficientes constantes es una
expresión de la forma siguiente:
~x0 (t) = A~x(t) + ~b(t). (7.1)
En la expresión (7.1), A es una matriz cuadrada de orden n × n, ~b(t) es un vector conocido de
n componentes que son funciones que dependen de una variable muda t. Todas las componentes
están definidas en un intervalo real J y son continuas como funciones de t en ese intervalo. Por
su parte, el vector ~x(t) tiene también n componentes. Es el vector incógnita del sistema. La
expresión ~x0 (t) representa el vector de las derivadas con respecto a t de las componentes de ~x(t).
El problema que se plantea consiste en, dados A y ~b(t), encontrar el o los vectores ~x(t) que
verifiquen (7.1).
Escrito en forma de ecuaciones, (7.1) se suele expresar como
x01 (t) = a11 x1 (t) + a12 x2 (t) + · · · + a1n xn (t) + b1 (t)
x02 (t) = a21 x1 (t) + a22 x2 (t) + · · · + a2n xn (t) + b2 (t)
.. .
. = ..
x0n (t) = an1 x1 (t) + an2 x2 (t) + · · · + ann xn (t) + bn (t),
donde ~x(t) = (x1 (t), x2 (t), . . . , xn (t))T , ~b(t) = (b1 (t), b2 (t), . . . , bn (t))T y A = (aij )1≤i,j≤n . Se dice
que A es la matriz de coeficientes de (7.1) y ~b(t) el término no homogéneo o término fuente.
Cuando ~b(t) no aparece, el sistema (7.1) se llama homogéneo. En otro caso se dice que es no
homogéneo.
Se llama solución de (7.1) a cualquier aplicación diferenciable φ ~ : J → Kn definida en un
intervalo J de R y verificando (7.1) cuando ~x se sustituye por φ. ~
Dados un instante inicial t0 ∈ R y un valor inicial ~x0 ∈ Kn , se puede plantear el llamado
problema de valores iniciales (PVI)
~x0 (t) = A~x(t) + ~b(t). (7.2)
~x(t0 ) = ~x0 .
Se dice que t0 y ~x0 son las condiciones iniciales del problema. Una solución del mismo no es otra
cosa que una solución φ~ de (7.1) tal que t0 ∈ J y además φ(t
~ 0 ) = ~x0 .
Vamos a dividir nuestro estudio en el caso homogéneo (~b(t) = ~0) y el no homogéneo.

7.2. Sistemas lineales homogéneos


Veamos qué podemos decir de un sistema homogéneo
~x0 (t) = A~x(t), (7.3)

151
y del correspondiente PVI

~x0 (t) = A~x(t), (7.4)


~x(t0 ) = ~x0 .

La primera cuestión a tener en cuenta es la existencia y unicidad de soluciones de (7.4).

Teorema 1. Dada una condición inicial cualquiera t0 ∈ R, ~x0 ∈ Kn se tiene que el correspondiente
PVI (7.4) posee una única solución definida en todo R.

El segundo punto a considerar es la estructura de las soluciones de (7.3). Esto será importante
para después analizar la resolución.
P P
Teorema 2. Denotemos por al conjunto de soluciones de (7.3). Entonces es un espacio
vectorial de dimensión n, el tamaño del sistema.
P
Ver que es un espacio vectorial no es difı́cil. En efecto, si ~x1 (t), ~x2 (t) son dos soluciones de
(7.3), entonces (~x1 + ~x2 )0 (t) = ~x01 (t) + ~x02 (t) = A~x1 (t) + A~x2 (t) = A(~x1 + ~x2 )(t), luego ~x1 (t) + ~x2 (t)
es solución de (7.3). Por otro lado, si ~x(t) es solución de (7.3) y λ ∈ K, entonces (λ~x)0 (t) =
λ~x0 (t) = λA~x(t) = A(λ~x)(t) y (λ~x)(t) es solución.
Veamos ahora la dimensión. Sea ~ej = (0, 0, . . . , 0, 1, 0, . . . , 0)T el j-ésimo vector de la base
canónica y consideremos, para t0 ∈ R cualquiera, el problema de valores iniciales

~x0 (t) = A~x(t)


~x(t0 ) = ej .

Sabemos que existe una única solución ~xj (t) de este problema. Veamos que las soluciones

~x1 (t), ~x2 (t), . . . , ~xn (t),

ası́ obtenidas son independientes. Planteada una combinación lineal nula

α1 ~x1 (t) + α2 ~x2 (t) + · · · + αn ~xn (t) = 0, t ∈ J,

tomando en particular t = t0 se tiene

α1~e1 + α2~e2 + · · · + αn~en = 0,

y trivialmente α1 = · · · = αn = 0, de modo que {~x1 (t), ~x2 (t), . . . , ~xn (t)} constituye un sistema
libre de soluciones del sistema homogéneo. Además, cualquier otra solución ~x(t) depende de
~x1 (t), ~x2 (t), . . . , ~xn (t) , pues si ~x(t0 ) = (c1 , . . . , cn )T = c1~e1 + c2~e2 + · · · + cn~en entonces ,necesari-
P
amente ~x(t) = c1 ~x1 (t) + c2 ~x2 (t) + · · · + cn ~xn (t). Ası́, {~x1 (t), ~x2 (t), . . . , ~xn (t)} es una base de y
P
por tanto dim = n.

Este resultado contiene dos afirmaciones importantes: en primer lugar, el llamado principio
P
de superposición de soluciones. El hecho de que sea un espacio vectorial significa que cualquier
P
combinación lineal de soluciones de (7.3) es una solución. En segundo lugar, dado que tiene
dimensión n, esto implica que el sistema (7.3) tiene exactamente n soluciones linealmente in-
dependientes. Constituyen lo que se llama un sistema fundamental de soluciones del sistema
homogéneo (7.3). cualquier solución es combinación lineal de n soluciones independientes, de un
sistema fundamental.

152
~ 1 (t), φ
Corolario. Sea {φ ~ n (t)} una base de P. La solución general de (7.3) es de la
~ 2 (t), . . . , φ
forma
~ = C1 φ
φ(t) ~ 1 (t) + C2 φ
~ 2 (t) + · · · + Cn φ
~ n (t),

con C1 , C2 , . . . , Cn constantes arbitrarias.


En términos matriciales, se llama matriz fundamental del sistema homogéneo a toda aplicación
matricial Φ : R → Mn,n (K) tal que para todo t ∈ R, las columnas de Φ(t) constituyen una base
P
de . Para que Φ sea una matriz fundamental, es necesario y suficiente que
(i) Φ0 (t) = AΦ(t) (las columnas son soluciones).

(ii) Existe t0 ∈ R tal que Φ(t0 ) es una matriz no singular.


En términos de matrices fundamentales, estamos diciendo que si Φ es una matriz fundamental del
sistema homogéneo, generamos todas las soluciones del mismo multiplicando Φ(t) por cualquier
vector de Kn .
Veamos cómo obtener entonces una matriz fundamental a través de los llamados modos nor-
males (no confundir con el concepto tratado en el tema anterior).

Ejemplo 1. Consideremos el sistema

x01 (t) = 3x1 (t) + x2 (t) + x3 (t)


x02 (t) = x1 (t) + 3x2 (t) + x3 (t)
x03 (t) = x1 (t) + x2 (t) + 3x3 (t).

En términos matriciales, ~x0 (t) = A~x(t) donde


 
3 1 1
A = 1 3 1.
1 1 3
Vamos a obtener una base de soluciones del sistema a partir de los autovalores de A: Estos son

λ1 = 2, m(λ1 ) = 2
λ2 = 5, m(λ2 ) = 1.

Buscamos una base de los autoespacios de cada valor propio. Para λ1 = 2 tenemos

E(A, λ1 ) = {(x, y, z)T /x + y + z = 0} = span(~v1 , ~v2 ),

donde ~v1 = (−1, 1, 0)T , ~v2 = (−1, 0, 1)T . Para λ2 = 5,

E(A, λ2 ) = {(x, y, z)T /x = y = z} = span(~v3 ),

donde ~v3 = (1, 1, 1)T .


Como d(λ1 ) = 2, la matriz es diagonalizable. Consideremos la función vectorial

~x1 (t) = eλ1 t~v1 = (−e2t , e2t , 0)T .

Como ~v1 es autovector,

A~x1 (t) = eλ1 t A~v1 = λ1 eλ1 t~v1 = λ1 ~x1 (t).

153
Por otro lado

~x01 (t) = λ1 eλ1 t~v1 = λ1 ~x1 (t).

Luego ~x1 (t) es solución del sistema. Con el mismo razonamiento, se tiene que

~x2 (t) = eλ1 t~v2 = (−e2t , 0, e2t )T ,


~x3 (t) = eλ2 t~v3 = (e5t , e5t , e5t )T ,

son también soluciones. Como el sistema tiene tamaño tres, la dimensión del espacio de soluciones
es tres. Nuestras soluciones ~x1 (t), ~x2 (t), ~x3 (t) son candidatas a formar una base del espacio de
soluciones; bastará con ver que son independientes.
Ahora bien, si α1 ~x1 (t) + α2 ~x2 (t) + α3 ~x3 (t) = 0, en particular α1 ~x1 (0) + α2 ~x2 (0) + α3 ~x3 (0) = 0;
esto significa que

α1~v1 + α2~v2 + α3~v3 = 0.

pero nosotros sabemos que los autovectores ~v1 , ~v2 , ~v3 forman una base de R3 , luego α1 = α2 =
α3 = 0 y las soluciones ~x1 (t), ~x2 (t), ~x3 (t) forman una base. Cualquier solución es combinación
lineal de esta tres,

~x(t) = C1 ~x1 (t) + C2 ~x2 (t) + C3 ~x3 (t),

y la matriz
 
−e2t −e2t e5t
Φ(t) = [~x1 (t), ~x2 (t), ~x3 (t)] =  e2t 0 e5t 
0 e2t e5t
es una matriz fundamental del sistema.

Nuestro primer ejemplo se basa en lo comentado en la introducción. Si tenemos la función


y(t) = eλt para algún λ, entonces y 0 (t) = λy(t). Este hecho se traslada a sistemas con matrices: si
la matriz de coeficientes es diagonalizable, para formar una base de soluciones, basta con formar
las exponenciales de los autovalores por los autovectores correspondientes.

Ejemplo 2. Vamos a calcular una base de soluciones del sistema

x0 (t) = 2x(t) + z(t)


y 0 (t) = 2y(t)
z 0 (t) = y(t) + 3z(t).

La matriz del sistema es


 
2 0 1

A= 0 2 0.
0 1 3
Sus autovalores son

λ1 = 3, m(λ1 ) = 1
λ2 = 2, m(λ2 ) = 2.

154
Se puede comprobar que la matriz no es diagonalizable, pues d(λ2 ) = 1. Formamos una base de
autovectores generalizados. Se puede comprobar que
Eg (A, λ1 ) = E(A, λ1 ) = span(~v1 ), ~v1 = (1, 0, 1)T
Eg (A, λ1 ) = Ker(2I3 − A)2 = span(~v2 , ~v3 ), ~v2 = (1, 0, 0)T , ~v3 = (0, 1, −1)T ,
donde hemos elegido ~v2 ∈ E(A, λ2 ). Puesto que ~v1 , ~v2 son autovectores, como en el ejemplo
anterior, se generan dos soluciones
~x1 (t) = eλ1 t~v1 = (e3t , 0, e3t )T ,
~x2 (t) = eλ2 t~v2 = (e2t , 0, 0)T .
Necesitamos otra solución para formar una base. No puede ser eλ2 t~v3 pues ~v3 no es autovector y
por tanto no serı́a solución. La idea consiste en añadir una expresión
~x3 (t) = eλ2 t~v3 + teλ2 t w,
~
para cierto vector w.
~ ¿Quién tiene que ser w
~ para que ~x3 (t) ası́ expresado sea solución? Si
derivamos
~x03 (t) = λ2 eλ2 t~v3 + eλ2 t w
~ + teλ2 t λ2 w,
~
y, por otro lado
A~x3 (t) = eλ2 t A~v3 + teλ2 t Aw.
~
De aquı́ podemos deducir que
(A − λ2 I3 )~v3 = w~
(A − λ2 I3 )w ~ = ~0.
La primera ecuación nos indica ya que w
~ = (A − λ2 I3 )~v3 . A partir de ella se deduce la segunda,
puesto que ~v3 ∈ Ker(2I3 − A)2 . Entonces, la tercera solución es
~x3 (t) = eλ2 t~v3 + teλ2 t (A − λ2 I3 )~v3 .
Finalmente, ~x1 (t), ~x2 (t), ~x3 (t) forman una base del espacio de soluciones puesto que ~v1 , ~v2 , ~v3
forman una base de R3 .

La soluciones formadas como en los ejemplos anteriores, a partir de autovalores y autovectores


generalizados, se llaman modos normales del sistema. Lo importante es que podemos formar una
base de soluciones del sistema homogéneo (7.3) a partir de los modos normales. El segundo
ejemplo era una introducción a la técnica. El caso general es el siguiente.
Dada una matriz A ∈ Mn,n (C) sea σ(A) el conjunto de autovalores de A. Para cada λ ∈ σ(A)
sea m(λ) su multiplicidad algebraica y k(λ) el primer entero que estabiliza la sucesión de núcleos
{Ker(λIn − A)j }j≥0 .

Teorema 3. En las condiciones anteriores, dado un autovector generalizado ~x ∈ Eg (A, λ) =


Ker(λIn − A)k(λ) , entonces la función vectorial
 
k(λ)−1 j
X t
~x(t) = eλt  (A − λIn )j ~x
j=0
j!
à !
λt t2 tk(λ)−1
= e ~x + t(A − λIn )~x + (A − λIn )2 ~x + · · · + (A − λIn )k(λ)−1 ~x
2! (k(λ) − 1)!

155
es la solución del PVI

~x0 (t) = A~x(t),


~x(0) = ~x.

En particular, si ~x es un autovector asociado a λ, la solución correspondiente es ~x(t) = eλt ~x.

Observemos que todo vector es combinación lineal de autovectores generalizados, luego toda
solución es combinación lineal de modos normales. Las reglas prácticas para resolver un PVI del
sistema homogéneo como (7.4) son las siguientes.

1. Obtener una base {~v1 , ~v2 , . . . , ~vn } de autovectores generalizados asociados a la matriz A.

2. Expresar la condición inicial ~x0 como combinación lineal de los autovectores generalizados

~x0 = α1~v1 + α2~v2 + · · · + αn~vn .

3. Construir el modo normal ~xk (t) que corresponde a cada autovector generalizado ~vk que
aparece en la condición inicial.

4. Formar la superposición

~x(t) = α1 ~x1 (t) + α2 ~x2 (t) + · · · + αn ~xn (t).

5. Si el instante inicial es t0 = 0, ~x(t) es la solución. Si t0 6= 0, la solución es ~y (t) = ~x(t − t0 ).

Ejemplos.

[1] Vamos a resolver el sistema homogéneo (7.3) con matriz


 
−11 −9 0
A =  12 10 0  .
−8 −3 3

y condición inicial ~x(0) = (1, −1, 2)T . El polinomio caracterı́stico de A es pA (z) = (z − 1)(z +
2)(z − 3). Los autovalores son

λ1 = 3, m(λ1 ) = 1
λ2 = 1, m(λ2 ) = 1
λ3 = −2, m(λ3 ) = 1.

Buscamos una base de autovectores generalizados. Se tiene:

Eg (A, λ1 ) = E(A, λ1 ) = Ker(3I3 − A) = {(x, y, z)T /


    
14 9 0 x 0
 −12 −7 0   y  =  0 
8 3 0 z 0
= span(~v1 ), ~v1 = (0, 0, 1)T ,

156
    
12 9 0 x 0
Eg (A, λ2 ) = Ker(I3 − A) = {(x, y, z)T /  −12 −9 0   y  =  0 
8 3 −2 z 0
= span(~v2 ), ~v2 = (1, −4/3, 2)T ,
    
9 9 0 x 0
T   
Eg (A, λ3 ) = Ker(−2I3 − A) = {(x, y, z) / −12 −12 0 y = 0
 
8 3 −5 z 0
= span(~v3 ), ~v3 = (1, −1, 1)T .

Buscamos ahora las coordenadas de la condición inicial (1, −1, 2)T en la base de autovectores
generalizados, resolviendo el sistema
      
α1 0 1 1 α1 1
  
P α2 = 0 −4/3 −1   α2 = −1 
 
α3 1 2 1 α3 2

que tiene por solución α1 = 1, α2 = 0, α3 = 1, luego

(1, −1, 2)T = ~v1 + ~v3 .

Construimos ahora la expresión de los modos normales, siguiendo la fórmula dada en el teorema
3.
 
k(λ1 )−1 j
X t
~x1 (t) = eλ1 t  (A − λ1 I3 )j ~v1  = e3t~v1 = (0, 0, e3t )T
j=0
j!
 
k(λ2 )−1 j
X t
~x2 (t) = eλ2 t  (A − λ2 I3 )j ~v2  = et~v2 = (et , (−4/3)et , 2et )T
j=0
j!
 
k(λ3 )−1 j
X t
~x3 (t) = eλ3 t  (A − λ3 I3 )j ~v3  = e−2t~v3 = (e−2t , −e−2t , e−2t )T .
j=0
j!

Finalmente, sea ~x(t) = ~x1 (t) + ~x3 (t) = (e−2t , −e−2t , e−2t + e3t )T . Como la condición inicial
está impuesta en t0 = 0, la solución es ~x(t).

[2] Vamos a resolver el sistema homogéneo (7.3) con matriz


 
−1 1 −2
A=  1 2 1 .
3 0 4

y condición inicial ~x(2) = (2, −1, −5)T . El polinomio caracterı́stico de A es pA (z) = (z −1)2 (z −3).
Los autovalores son

λ1 = 3, m(λ1 ) = 1
λ2 = 1, m(λ2 ) = 2.

157
Buscamos una base de autovectores generalizados. Se tiene:

Eg (A, λ1 ) = E(A, λ1 ) = Ker(3I3 − A) = {(x, y, z)T /


    
4 −1 2 x 0
 −1 1 −1   y = 0
 
−3 0 −1 z 0
= span(~v1 ), ~v1 = (1, −2, −3)T
    
−1 −1 −1 x 0
2 T   
Eg (A, λ2 ) = Ker(I3 − A) = {(x, y, z) / 2 2 2 y = 0
 
3 3 3 z 0
= span(~v2 , ~v3 ), ~v2 = (1, 0, −1)T , ~v3 = (0, 1, −1)T ,

donde hemos elegido ~v2 ∈ E(A, λ2 ). Buscamos ahora las coordenadas de la condición inicial
(2, −1, −5)T en la base de autovectores generalizados, resolviendo el sistema
      
α1 1 1 0 α1 2
  
P α2 = −2 0 1   α2 = −1 
 
α3 −3 −1 −1 α3 −5

que tiene por solución α1 = α2 = α3 = 1, luego

(2, −1, −5)T = ~v1 + ~v2 + ~v3 .

Construimos ahora la expresión de los modos normales, siguiendo la fórmula dada en el teorema
3.
 
k(λ1 )−1 j
X t
~x1 (t) = eλ1 t  (A − λ1 I3 )j ~v1  = e3t~v1 = (e3t , −2e3t , −3e3t )T
j=0
j!
 
k(λ2 )−1 j
X t
~x2 (t) = eλ2 t  (A − λ2 I3 )j ~v2  = et~v2 = (et , 0, −et )T
j=0
j!
 
k(λ2 )−1 j
X t
~x3 (t) = eλ2 t  (A − λ2 I3 )j ~v3  = et (~v3 + t(A − I3 )~v3 ) = (3tet , et , −et − 3tet )T .
j=0
j!

Finalmente, sea ~x(t) = ~x1 (t) + ~x2 (t) + ~x3 (t) = (e3t + (1 + 3t)et , −2e3t + et , −3e3t − (2 + 3t)et )T .
Como la condición inicial está impuesta en t0 = 2, la solución es ~y (t) = ~x(t − 2).

[3] Ejercicio: resuelve el sistema homogéneo (7.3) con matriz


 
3 0 1 0
 −1 1 2 −1 
A=
 −1
.
0 1 0 
2 1 −1 1

y condición inicial ~x(1) = (1, 2, 0, 2)T .

158
7.3. Sistemas no homogéneos
Tratamos ahora el caso no homogéneo (7.1)

~x0 (t) = A~x(t) + ~b(t),

y su problema de valores iniciales (7.2)

~x0 (t) = A~x(t) + ~b(t),


~x(t0 ) = ~x0 ,

donde, como se comentó anteriormente, ~b : J → Kn es continua, t0 ∈ J. La cuestión de la


existencia y unicidad también está resuelta.
~ : J → Kn definida en todo el
Teorema 4. El problema (7.2) posee exactamente una solución φ
intervalo J.
~1, φ
En cuanto a la resolución, fijémonos en que si tenemos dos soluciones φ ~ 2 del sistema no
~ ~ ~
homogéneo (7.1), entonces φ = φ1 − φ2 es solución del sistema homogéneo (7.3). Ası́ pues, el
conocimiento de una solución particular de (7.1) y la estructura de las soluciones del sistema
homogéno asociado nos permiten obtener todas las soluciones de (7.1):

Teorema 5. la solución general de (7.1) es de la forma


~ = ~xp (t) + C1 φ
φ(t) ~ 1 (t) + C2 φ
~ 2 (t) + · · · + Cn φ
~ n (t),

donde {φ ~ 1 (t), φ
~ 2 (t), . . . , φ
~ n (t)} es una base de soluciones del sistema homogéneo asociado (7.3),
C1 , C2 , . . . , Cn son constantes arbitrarias y ~xp (t) denota una solución particular cualquiera de
(7.1).

Busquemos una expresión para la solución del problema de valores iniciales (7.2). Denotemos
por Φ(t) la matriz fundamental del sistema homogéneo (7.3) formada por los modos normales
que hemos obtenido en la sección anterior. Tenemos entonces la llamada fórmula de variación de
las constantes.

Teorema 6. La solución de (7.2) puede escribirse


Z t
~x(t) = Φ(t − t0 )Φ(0) −1
~x0 + Φ(t − s)Φ(0)−1~b(s)ds.
t0

Varios comentarios a esta fórmula.

(1) La matriz Φ(0) no es más que la matriz de cambio a la base de autovectores generalizados.
De este modo, Φ(0)−1 ~x0 no es más que la expresión de la condición inicial ~x0 en la base
de autovectores generalizados. Por otro lado, Φ(0)−1~b(s) se puede obtener resolviendo el
sistema Φ(0)f~(s) = ~b(s).

(2) El primer sumando de la fórmula no es otra cosa que la solución del problema

~x0 (t) = A~x(t), ~x(t0 ) = ~x0 ,

159
mientras que el segundo sumando es solución del problema

~x0 (t) = A~x(t) + ~b(t), ~x(t0 ) = ~0.

De este modo, se tiene el resultado del teorema 5: la solución del problema es la suma de
una solución particular más la solución del problema homogéneo asociado.
Veamos cómo se aplica la fórmula en la práctica.

Ejemplo. Vamos a resolver el sistema no homogéneo (7.2) con matriz


 
0 1 0

A= 0 0 1,
0 −1 0

condición inicial ~x(0) = (1, −1, 2)T y término fuente ~b(t) = (sin t, 0, cos t)T . La primera parte de
la fórmula es la solución del sistema homogéneo con la condición inicial ~x(0) = (1, −1, 2)T . La
descomposición primaria de A es la siguiente. Los autovalores son

λ1 = 0, m(λ1 ) = 1
λ2 = i, m(λ2 ) = 1
λ3 = −i, m(λ3 ) = 1.

Buscamos una base de autovectores generalizados. Se tiene:

Eg (A, λ1 ) = E(A, λ1 ) = Ker(A) = span(~v1 ), ~v1 = (1, 0, 0)T ,


Eg (A, λ2 ) = Ker(iI3 − A) = span(~v2 ), ~v2 = (1, i, −1)T ,
Eg (A, λ3 ) = Ker(−iI3 − A) = span(~v3 ), ~v3 = (1, −i, −1)T .

Buscamos ahora las coordenadas de la condición inicial (1, −1, 2)T en la base de autovectores
generalizados, resolviendo el sistema
      
α1 1 1 1 α1 1
P  α2  =  0 i −i   α2  =  −1 
α3 0 −1 −1 α3 2
que tiene por solución α1 = 3, α2 = (i − 2)/2, α3 = (−i − 2)/2, luego
(i − 2) (−i − 2)
(1, −1, 2)T = 3~v1 + ~v2 + ~v3 .
2 2
Construimos ahora la expresión de los modos normales, siguiendo la fórmula dada en el
teorema 3.
 
k(λ1 )−1 j
X t
~x1 (t) = eλ1 t  (A − λ1 I3 )j ~v1  = e0t~v1 = (1, 0, 0)T
j=0
j!
 
k(λ2 )−1 j
X t
~x2 (t) = eλ2 t  (A − λ2 I3 )j ~v2  = eit~v2 = (eit , ieit , −eit )T
j=0
j!
 
k(λ3 )−1 j
X t
~x3 (t) = eλ3 t  (A − λ3 I3 )j ~v3  = e−it~v3 = (e−it , −ie−it , −e−it )T .
j=0
j!

160
³ ´
Finalmente, sea ~x(t) = 3~x1 (t) + (i−2)
2 ~x2 (t) + (−i−2)
2 ~x3 (t) = 3~x1 (t) + 2Re (i−2)
2 ~ x2 (t) . Como la
condición inicial está impuesta en t0 = 0, la solución del problema homogéneo es ~x(t). La matriz
fundamental es
 
1 eit e−it
Φ(t) =  0 ieit −ie−it  .
0 −eit −e−it

Vamos con la segunda parte de la fórmula. El vector f~(s) es solución del sistema Φ(0)f~(s) = ~b(s),
que resolviendo queda  
sin s + cos s
Φ(0)−1~b(s) =  − cos2 s .
cos s
− 2
Entonces
    
1 ei(t−s) e−i(t−s) sin s + cos s sin s + cos s − cos s cos(t − s)
−1~
Φ(t − s)Φ(0) b(s) =  0 iei(t−s) −ie−i(t−s)   − cos2 s = cos s sin(t − s) ,
cos s
0 −ei(t−s) −e −i(t−s) − 2 cos s cos(t − s)
y por tanto

Rt 
Z t 0 (sin s +
Rt
cos s − cos s cos(t − s))ds
~xp (t) = Φ(t − s)Φ(0)−1~b(s)ds =  R 0t
cos s sin(t − s)ds .
0
0 cos s cos(t − s)ds

Por tanto, la solución del problema es


µ ¶
(i − 2)
~x(t) = 3~x1 (t) + 2Re ~x2 (t) + ~xp (t).
2

EJERCICIOS DEL TEMA 7

Ejercicio 1. (a) Halla la solución general del sistema de ecuaciones diferenciales ordinarias
x0 = Ax donde A es la matriz  
0 −1 −2
1 0 1 .
2 −1 0

Ejercicio 2. Halla la solución general de los sistemas de ecuaciones diferenciales siguientes:


x0 = 4x + y − z x0 = 4x − 7y + 24z x0 = 3x − 2y + 4z
y 0 = 6x + 3y − 4z y 0 = 4x − 14y + 56z y 0 = 4x − 3y + 8z
z 0 = 6x + 2y − 3z z 0 = x − 4y + 16z z 0 = x − y + 3z

Ejercicio 3. Da la solución de los problemas de Cauchy siguientes:


    
x 1 0 0 x x(0) = 0
d   
y = 2 1 −2   y  , y(0) = 1
dt
z 3 2 1 z z(0) = 1

161
    
x 0 1 0 x x(0) = 1
d   
y = 0 0 1y , y(0) = −1
dt
z 0 −1 0 z z(0) = 2
    
x 1 1 4 x x(0) = 1
d     
y = 0 2 0 y , y(0) = 3
dt
z 1 1 1 z z(0) = 0

Ejercicio 4. Halla la solución de los problemas de valores iniciales siguientes:


    
x 1 1 1 0 x x(2) = 0
d  y   −1
 = 1 0 1 y
 , y(2) = 0
dt  z   0 0 1 1 z  z(2) = 1
w 0 0 −1 1 w w(2) = −1
    
x 0 2 0 0 x x(0) = 1
d  y   −2
 = 0 0 0  y
 , y(0) = 1
dt  z   0 0 0 −3   z  z(0) = 1
w 0 0 3 0 w w(0) = 0
    
x 1 0 −1 0 x x(0) = −2
d  y   −3 −2 −7 5   y 
 =  , y(0) = 0
dt  z   0 0 1 0 z  z(0) = 1
w −1 −1 −4 2 w w(0) = 0
    
x 3 1 −6 1 x x(0) = 2
 
d  y  2  0 0 −2   y 
  y(0) = 1
= ,
dt  z   4 2 −6 0   z  z(0) = 0
w 1 1 −2 −1 w w(0) = 3

Ejercicio 5. Consideremos dos especies que compiten entre sı́ en un mismo hábitat y sean x1 (t)
y x2 (t) las poblaciones de cada una de las especies que cohabitan en el instante de tiempo t.
Supongamos que las poblaciones iniciales son x1 (0) = 500 y x2 (0) = 200. Si el crecimiento de las
especies viene dado por el sistema diferencial

x01 = −3x1 + 6x2


x02 = x1 − 2x2

¿Cual es la población de cada especie en cualquier instante de tiempo t?

Ejercicio 6. Halla la solución de los siguientes problemas de valores iniciales:


      
x 1 −1 1 x e2t x(1) = 1
d     
y = 1 0 0 y + et  ,
  y(1) = 1
dt
z 0 1 0 z 0 z(1) = 1
      
x 4 1 −1 x et x(0) = 1
d   
y = 6 3 −4   y  +  0  , y(0) = −2
dt
z 6 2 −3 z −et z(0) = 1

162
      
x 0 1 0 x sin t x(0) = 1
d   
y = 0 0 1y  +  0 , y(0) = −1
dt
z 0 −1 0 z cos t z(0) = 2
      
x 3 −2 4 x 1 x(0) = 1
d   
y = 4 −3 8   y  +  2t  , y(0) = 1
dt
z 1 −1 3 z t z(0) = 1
      
x 3 1 0 x t2 x(1) = 2
d   
y = 0 3 1y  +  t , y(1) = 1
dt
z 0 0 3 z 1 z(1) = −1

Ejercicio 7. Se considera el sistema de ecuaciones diferenciales


       
0 1 1 x0 (t) 2 1 3 x(t) e−2t

(∗) 1 0 2   y 0 (t)  −  1 −2 −3   y(t)  =  0  .
1 0 0 z 0 (t) 1 −2 1 z(t) 0
(a) Reescribe el sistema en forma estándar ~x0 = A~x + ~g .
(b) Se considera la matriz  
1 −2 1
A = 2 1 5 .
0 0 −2
Halla la solución real del problema de Cauchy

~x0 = A~x + ~g .

con ~g = (0, e−2t , 0)T y condiciones iniciales x(1) = −2, y(1) = 0, z(1) = 2.
(c) Halla la solución del problema de Cauchy dado por el sistema (∗) y la condición inicial
x(1) = −2, y(1) = 0, z(1) = 2.

Ejercicio 8. Se considera la matriz A(r), dependiente de un parámetro real r ∈ R,


 
4 3−r −4
A(r) =  −1 r 0 .
0 0 1
(i) Determina los valores de r para los cuales A(r) es diagonalizable.

(ii) Se considera la matriz A = A(2). Determina una base de autovectores generalizados para la
matriz A.

(iii) Calcula la solución del problema de valores iniciales


d
~x(t) = A~x(t),
dt
~x(2) = (3, 0, 1)T .

Ejercicio 9. Se considera la matriz


 
0 1 0
A = 0 0 1.
1 −3 3

163
(i) Calcula la solución del problema de valores iniciales

~x0 (t) = A~x(t),


~x(0) = (2, 2, 0)T .

(ii) Se considera la función vectorial f~(t) = (−2e2t , e2t , 2e2t )T . Determina quién debe ser el vector
~ para que la función ~x(t) = e2t w
w ~ sea solución del sistema no homogéneo

~x0 (t) = A~x(t) + f~(t).

ALGUNOS EJERCICIOS RESUELTOS DEL TEMA 7

Ejercicio 1. Modos normales:

~x1 (t) = e0t~v1 = (−1, −2, 1)T ,


√ √ √ √
~x2 (t) = eti 6
~v2 = eti6
(1 + 2 6i, 2 − 6i, 5)T ,

−ti 6
√ √ √
~x3 (t) = e ~v3 = e−ti 6 (1 − 2 6i, 2 + 6i, 5)T .

Solución general:
~x(t) = c1 ~x1 (t) + c2 ~x2 (t) + c3 ~x3 (t).

Ejercicio 2. Primer sistema:


Modos normales:

~x1 (t) = et~v1 = et (1, −3, 0)T ,


~x2 (t) = e−t~v2 = e−t (0, 1, 1)T ,
~x3 (t) = e4t~v3 = e4t (5, 6, 6)T .

Solución general:
~x(t) = c1 ~x1 (t) + c2 ~x2 (t) + c3 ~x3 (t).
Segundo sistema: Modos normales:

~x1 (t) = e2t~v1 = e2t (2, 4, 1)T ,


~x2 (t) = e2t~v2 + te2t (A − 2I)~v2 = e2t (0, 4, 1)T + te2t (4, 8, 2)T ,
t2
~x3 (t) = e2t~v3 + te2t (A − 2I)~v3 + e2t (A − 2I)2~v3
2
t2
= e2t (0, 0, 1)T − te2t (−24, −56, −14)T − e2t (−8, −16, −4)T .
2
Solución general:
~x(t) = c1 ~x1 (t) + c2 ~x2 (t) + c3 ~x3 (t).

164
Tercer sistema: Modos normales:

~x1 (t) = et~v1 = et (1, 1, 0)T ,


~x2 (t) = et~v2 = et (0, 2, 1)T ,
~x3 (t) = et~v3 + tet (A − I)~v3 = et (1, 0, 0)T + tet (2, 4, 1)T .

Solución general:
~x(t) = c1 ~x1 (t) + c2 ~x2 (t) + c3 ~x3 (t).

Ejercicio 3. Primer sistema.


Modos normales:

~x1 (t) = et~v1 = et (2, −3, 2)T ,


~x2 (t) = e(1+2i)t~v2 = e(1+2i)t (0, i, 1)T ,
~x3 (t) = e(1−2i)t~v3 = e(1−2i)t (0, −i, 1)T .

Solución: µ ¶
1−i
~x(t) = 2Re ~x2 (t) .
2
Segundo sistema. Modos normales:

~x1 (t) = e0t~v1 = (1, 0, 0)T ,


~x2 (t) = eit~v2 = eit (−1, −i, 1)T ,
~x3 (t) = e−it~v3 = e−it (−1, i, 1)T .

Solución:
~x(t) = 3~x1 (t) + 2Re (1 − i/2~x2 (t)) .
Tercer sistema. Modos normales:

~x1 (t) = e3t~v1 = e3t (2, 0, 1)T ,


~x2 (t) = e−t~v2 = e−t (−2, 0, 1)T ,
~x3 (t) = e2t~v3 = e2t (5, −3, 2)T .

Solución:
~x(t) = (5/2)~x1 (t) − (1/2)~x2 (t) − ~x3 (t).

Ejercicio 4. Primer sistema. Modos normales:

~x1 (t) = e(1+i)t~v1 = e(1+i)t (1, i, 0, 0)T ,


~x2 (t) = e(1+i)t~v2 + te(1+i)t (A − (1 + i)I)~v2 = e(1+i)t (0, 0, 1, i)T + te(1+i)t (1, i, 0, 0)T ,
~x3 (t) = e(1−i)t~v3 = e(1−i)t (1, −i, 0, 0)T ,
~x4 (t) = e(1−i)t~v4 + te(1−i)t (A − (1 − i)I)~v4 = e(1−i)t (0, 0, 1, −i)T + te(1−i)t (1, −i, 0, 0)T .

Solución:
~x(t) = Re ((1 + i)~x2 (t − 2)) .

165
Segundo sistema. Modos normales:
~x1 (t) = e2it~v1 = e2it (−i, 1, 0, 0)T ,
~x2 (t) = e(−2i)t~v2 = e(−2i)t (i, 1, 0, 0)T ,
~x3 (t) = e3it~v3 = e3it (0, 0, 1, −i)T ,
~x4 (t) = e(−3i)t~v4 = e(−3i)t (0, 0, 1, i)T .
Solución:
~x(t) = 2Re ((1 + i)~x1 (t)) + 2Re (~x3 (t)) .
Tercer sistema. Modos normales:
~x1 (t) = eit~v1 = eit (0, 2 − i, 0, 1)T ,
~x2 (t) = e(−i)t~v2 = e(−i)t (0, 2 + i, 0, 1)T ,
~x3 (t) = et~v3 = et (1, −1, 0, 0)T ,
~x4 (t) = et~v4 + tet (A − I)~v4 = et (0, −6, 1, −2)T + tet (−1, 1, 0, 0)T .
Solución:
~x(t) = 2Re (~x1 (t)) − 2~x3 (t) + ~x4 (t).
Cuarto sistema. Modos normales:
~x1 (t) = e−2t~v1 = e−2t (1, 0, 1, 1)T ,
~x2 (t) = e−2t~v2 + te−2t (A + 2I)~v2 == e−2t (0, 1, 0, 1)T + te−2t (2, 0, 2, 2)T ,
~x3 (t) = e2it~v3 = e2it (2i, 2, 1 + i, 0)T ,
~x4 (t) = e−2it~v4 = e−2it (−2i, 2, 1 − i, 0)T .
Solución: µ ¶
−1 − i
~x(t) = 3~x2 (t) + 2Re ~x3 (t) .
2

Ejercicio 5.
x1 (t) = 440 + 60e−5t , x2 (t) = 220 − 20e−5t .

Ejercicio 6. Primer sistema: ~x(t) = ~xh (t) + ~xp (t).


~xh (t) = e(t−1) (1, 1, 1)T ,
Z t t+s
e e2s
~xp (t) = ( + (cos(t − s) + sin(t − s)) − es sin(t − s)ds,
1 2 2
Z t t+s
e e2s
+ (cos(t − s) − sin(t − s)) + es cos(t − s)ds,
1 2 2
Z t t+s
e e2s
+ (− cos(t − s) − sin(t − s)) + es sin(t − s)ds )T .
1 2 2
Segundo sistema: ~x(t) = ~xh (t) + ~xp (t).
~xh (t) = et (1, −3 − 0)T + e−t (0, 1, 1)T ,
Z t s Z t s
e e
~xp (t) = ( (−5et−s + 20e4(t−s) )ds, (15et−s − 39e−(t−s) + 24e4(t−s) )ds,
0 15 0 15
Z t s
e
(−39e−(t−s) + 24e4(t−s) )ds)T .
0 15

166
Cuarto sistema: ~x(t) = ~xh (t) + ~xp (t).

~xh (t) = et (1 + 4t, 1 + 8t, 1 + 2t)T ,


µZ t Z t Z t ¶T
(t−s) (t−s) (t−s)
~xp (t) = e (1 + 2(t − s))ds, e (4(t − s) + 2s + 16s(t − s))ds, e (t)ds .
0 0 0

Quinto sistema: ~x(t) = ~xh (t) + ~xp (t).

(t − 1)2
~xh (t) = e3(t−1) (1 + t − , 2 − t, −1)T ,
2
ÃZ Z t Z t !T
t
( (t − s)2 3(t−s) 3(t−s)
~xp (t) = e 3t − s)((ts + )ds, e tds, e ds .
1 2 1 1

Ejercicio 7.
(a)    
1 −2 1 0

A= 2 1 5 , ~g (t) =  e−2t  .
0 0 −2 0
(b) ~x(t) = ~xh (t) + ~xp (t).
³ ´
~xh (t) = e−2(t−1)) (−1, −1, 1)T + 2Re e(1+2i)(t−1) (i, 1, 0)T ,
µZ t Z t ¶T
~xp (t) = −e( t − 3s)(sin(2(t − s)))ds, e(t−3s) cos(2(t − s))ds, 0 .
1 1

(c) La misma que en (b).

167
Tema 8

EDOs lineales de coeficientes


constantes y orden superior

Ejemplo introductorio. El estudio teórico del procesado de señales de tipo continuo se lleva a
cabo a través de la teorı́a de sistemas. Un sistema se puede definir como un dispositivo fı́sico o
lógico que realiza una operación sobre una señal.

f (t) x(t)
- SIST EM A -
P ROCESADO
ENTRADA SALIDA

Cuando una señal atraviesa un sistema se dice que se ha procesado. A la señal que introducimos
se denomina excitación y a la que obtenemos a la salida, respuesta.
El procesado de una señal puede consistir en una serie de operaciones básicas sobre ella. Se
puede amplificar una señal (multiplicarla por una constante mayor que uno) multiplicarla por
otra, integrarla, derivarla, etc, en función de las necesidades. Prácticamente, toda operación que
pueda realizarse sobre una función de variable continua, que represente a una señal, constituye
un sistema.
De todos los sistemas, los de mayor importancia son los llamados lineales. Estos verifican que la
respuesta a dos excitaciones de entrada es la suma de las respuestas a cada una de las excitaciones
por separado. La mayor parte de los sistemas contiene un número importante de componentes
lineales, o que al menos lo son aproximadamente, como para considerar el estudio de los sistemas
lineales de gran utilidad práctica.

168
En este sentido, una ecuación diferencial ordinaria lineal, en particular de coeficientes constantes,
puede interpretarse en términos de un sistema. El ejemplo clásico, que manejaremos a lo largo
de la lección, es el de un circuito eléctrico como el que aparece en la figura.

L
@
@
¡
¡
@
@ C
¡R
¡
@
@
¡
¡
L, C > 0, R ≥ 0
¾
E(t)
i(t)

Consta de una resistencia R, una inductancia L y una capacitancia C, ası́ como una baterı́a o
generador E(t) que suministra corriente al circuito. La intensidad de corriente i(t) que en cada
instante recorre el circuito puede entenderse como la respuesta a una excitación dada por el
generador a través de un sistema gobernado por la ecuación diferencial
d2 i di 1 dE
L +R + i=
dt2 dt C dt
Su deducción se basa en la segunda ley de Newton. El segundo sumando representa las fuerzas
de resistencia al movimiento.
Son también de interés algunas analogı́as del sistema eléctrico, como el sistema mecánico de
masa, resorte y amortiguamiento.

Esta lección trata de las ecuaciones diferenciales ordinarias lineales de coeficientes constantes
y orden superior a uno. Consiste en estudiar ecuaciones en las que aparecen derivadas de orden
mayor que uno. La correspondencia entre una EDO lineal de orden n > 1 y cierto sistema lineal de
EDOs de primer orden nos permite enfocar aspectos teóricos desde el punto de vista de la lección
anterior. Por tanto, aquı́ seguiremos esencialmente la misma estructura que aquélla. Discutiremos
entonces aspectos sobre la forma de las soluciones para más adelante centrarnos en la resolución
y su utilización en algunas aplicaciones.

8.1. Teorı́a básica


Una EDO lineal de orden n > 1 y coeficientes constantes es una expresión del tipo
xn) (t) + an−1 xn−1) (t) + · · · + a1 x0 (t) + a0 x(t) = f (t), (8.1)
con a0 , . . . , an−1 números complejos que son los coeficientes de la ecuación y f : I → K el llamado
término fuente, una función definida en algún intervalo real I con llegada en R ó C. La ecuación,

169
que se dice de orden n por ser éste el orden de la derivada de mayor grado presente, viene
definida por sus coeficientes y su término fuente. Cuando éste es nulo, se dice que la ecuación es
homogénea, siendo no homogénea en otro caso.
La función x(t) que aparece en (8.1) es una variable muda, siendo opcional el empleo de otras
letras tanto para denominar a la variable dependiente x como a la independiente t. Por solución
de (8.1) se entiende toda aplicación ϕ : I ⊂ R → K n veces diferenciable y que satisface la
igualdad (8.1) para todo t ∈ I al sustituir x(t) por ϕ(t).
Nuestro estudio tiene un hilo conductor ya tratado, que es la teorı́a de sistemas diferenciales
lineales de primer orden y coeficientes constantes. Observemos que en términos de estas nuevas
variables
dx(t) dn−1 x(t)
x1 = x, x2 = , . . . , xn = , ~x = (x1 , x2 , . . . , xn )T ,
dt dtn−1
podemos escribir la ecuación (8.1) en forma de un sistema de primer orden

~x0 (t) = A~x(t) + f~(t), (8.2)

donde
   
0 1 0 ··· ··· 0 0 0
 0 0 1 ··· ··· 0 0   0 

 . .. .. .. .. 

 . 

A =  .. . . ··· ··· . .  , f~(t) =  ..  .
   
 0 0 0 ··· ··· 0 1   0 
−a0 −a1 −a2 ··· · · · −an−2 −an−1 f (t)

El sistema (8.2) es equivalente a la ecuación (8.1) en el siguiente sentido. A cada solución ϕ de


(8.1) le corresponde la solución del sistema (8.2) dado por

~ = (ϕ, ϕ0 , . . . , ϕn−1) )T ,
ϕ

formado por ella y sus derivadas hasta el orden n − 1. Recı́procamente, la forma del sistema
asegura que las componentes de toda solución φ~ = (φ1 , φ2 , . . . , φn )T de (8.2) van siendo las
derivadas de la primera componente,

dj−1 φ1 (t)
φj (t) = , j = 2, . . . , n,
dtj−1
y, de esta forma, teniendo en cuenta la última ecuación del sistema, la primera componente φ1 es
solución de (8.1). Ası́ pues, toda solución de (8.2) tiene como primera componente una solución
de (8.1).
El sistema equivalente nos permite entonces aprovechar el resultado de existencia y unicidad
para el problema de valores iniciales de un sistema diferencial de este tipo y aplicarlo a nuestro
caso. Ahora, un problema de valores iniciales para la ecuación de orden n se construye con la
ecuación (8.1) y n condiciones iniciales, para la función x(t) y sus derivadas hasta el orden n − 1
en un punto,

xn) (t) + an−1 xn−1) (t) + · · · + a1 x0 (t) + a0 x(t) = f (t) , (8.3)


0 n−1)
x(t0 ) = α0 , x (t0 ) = α1 , . . . , x (t0 ) = αn−1 .

170
Esto equivale a imponer el siguiente PVI para el sistema,

~x0 (t) = A~x(t) + f~(t), (8.4)


T
~x(t0 ) = (α0 , α1 , . . . , αn−1 ) .

Teorema 1. Si f : I → K es continua, existe una única solución del problema de valores iniciales
(8.3).

De este modo, resolvemos un primer problema asegurando la existencia y unicidad de solu-


ción de todo PVI de la ecuación (8.1) con coeficientes constantes y término fuente f continuo.
Precisamente, la solución es la primera componente de la solución del correspondiente PVI (8.4)
para el sistema equivalente.
La interpretación de este resultado cuando manejamos la ecuación en el contexto de sistemas
de procesado de señales es clara. En este caso, el sistema consta de dos tipos de excitaciones de
entrada: la dada por las condiciones iniciales y la del término fuente, entendido como una señal de
variable continua. Entonces, el teorema de existencia y unicidad asegura que fijados los dos tipos
de excitación, con una señal de entrada continua, el sistema genera una y sólo una respuesta.

8.2. Representación de soluciones


Pasamos a un segundo punto de la teorı́a básica, el referente a la descripción de soluciones.

8.2.1. Ecuación homogénea


Nos detendremos primero en analizar las soluciones de la ecuación homogénea,

xn) (t) + an−1 xn−1) (t) + · · · + a1 x0 (t) + a0 x(t) = 0, (8.5)


P
Denotamos por al espacio de soluciones de la ecuación (8.5). El primer resultado es muy similar
al obtenido en el tema anterior.
P
Teorema 2. es un espacio vectorial de dimensión n.

La demostración es la siguiente. En primer lugar, la linealidad y el carácter homogéneo de esta


ecuación nos demuestran que el conjunto de sus soluciones es un espacio vectorial. Esto indica
un primer principio de superposición: toda combinación lineal de soluciones de (8.5) es a su vez
solución de (8.5).
Por otra parte, ya hemos visto la equivalencia de (8.5) con el sistema homogéneo

~x0 (t) = A~x(t), (8.6)

con A dada en (8.2). Sabemos que toda solución de (8.5) es la primera componente de una solución
P
de (8.6) y recı́procamente. De este modo, podemos identificar con el espacio de soluciones de
P
(8.6). Por el tema anterior, éste último tiene dimensión n, de manera que dim = n.

Por tanto, toda solución de (8.5) puede escribirse como una combinación de n soluciones
linealmente independientes.

171
Teorema 3. la solución general de (8.5) es de la forma

ϕ(t) = c1 ϕ1 (t) + · · · + cn ϕn (t),

donde c1 , . . . , cn son constantes arbitrarias en K y ϕ1 (t), . . . , ϕn (t) son n soluciones independientes


de (8.5). El conjunto {ϕ1 (t), . . . , ϕn (t)} se llama un sistema fundamental de soluciones.

Ya sabemos entonces que para determinar la solución general de una ecuación homogénea
necesitamos n soluciones linealmente independientes. Surge entonces la cuestión de cómo com-
probar de forma sencilla la independencia de n soluciones dadas. Esta independencia puede venir
caracterizada por la independencia de sus datos iniciales en cualquier punto. En efecto, consid-
eremos n funciones ϕ1 (t), . . . , ϕn (t) derivables hasta el orden n − 1 y formemos la matriz
 
ϕ1 (t) ϕ2 (t) ··· ϕn (t)
 ϕ01 (t) ϕ02 (t) ··· ϕ0n (t) 
 
W [ϕ1 , . . . , ϕn ](t) =  .. .. .. .
 . . ··· . 
n−1) n−1) n−1)
ϕ1 (t) ϕ2 (t) · · · ϕn (t)
A su determinante w[ϕ1 , . . . , ϕn ](t) = detW [ϕ1 , . . . , ϕn ](t) se le llama wronskiano de las n fun-
ciones ϕ1 (t), . . . , ϕn (t). La identificación con el sistema equivalente permite ver que si las n
funciones son soluciones de la ecuación, entonces las n columnas de la matriz W son soluciones
del sistema. Ahora, la independencia de las n funciones equivale a la de las columnas. Por último,
como ya se conoce del tema anterior, la independencia de éstas queda determinada por la de
sus valores en cualquier instante inicial (es la segunda condición de matriz fundamental). Esto
demuestra que para analizar la independencia de n soluciones de la ecuación homogénea de orden
n, basta con evaluar su wronskiano en un punto:
Sean t0 ∈ I, ϕ1 (t), . . . , ϕn (t) soluciones de (8.5). Entonces ϕ1 (t), . . . , ϕn (t) son linealmente
independientes si y sólo si w[ϕ1 , . . . , ϕn ](t0 ) 6= 0.

8.2.2. Ecuación no homogénea


Pasamos ahora a estudiar las soluciones de la ecuación no homogénea (8.1). En primer lugar,
tenemos aquı́ también un principio de superposición relacionado con el término fuente.
Pongamos f (t) = f1 (t) + · · · + fM (t) y sea ϕi (t) solución de (8.1) con fi (t) en lugar de f (t),
i = 1, . . . , M . Entonces, ϕ(t) = ϕ1 (t) + · · · + ϕM (t) es solución de (8.1) con término fuente
f (t).
En términos de sistemas, el principio afirma que la respuesta dada a una excitación que es
superposición de excitaciones más simples es la suma de las respuestas a las excitaciones por
separado.
Aplicando este principio, tenemos:
Si ϕ1 , ϕ2 son dos soluciones de (8.1), entonces ϕ = ϕ1 − ϕ2 es solución de la ecuación
homogénea (8.5).
De este modo, la combinación del principio de superposición con la representación general de las
soluciones de la ecuación homogénea permite dar una descripción de las soluciones de la ecuación
no homogénea.

172
La solución general de (8.1) puede escribirse

ϕ(t) = ϕp (t) + c1 ϕ1 (t) + · · · + cn ϕn (t),

donde

• ϕp (t) es una solución particular cualquiera de (8.1).


• c1 , . . . , cn ∈ K son constantes arbitrarias.
• {ϕ1 (t), . . . , ϕn (t)} es un sistema fundamental de soluciones de la ecuación homogénea
(8.5).

Las constantes determinan la generalidad, de manera que nuestro problema de calcular la


solución general de la ecuación no homogénea se reduce a la determinación de una solución
particular.

8.3. Cálculo efectivo de soluciones. Ecuación homogénea


Pasamos al cálculo de soluciones, siguiendo la estructura previamente descrita y comenzando
por tanto con la ecuación homogénea (8.5).
El polinomio p(z) = a0 +a1 z +· · ·+an−1 z n−1 +z n es el polinomio caracterı́stico de la ecuación
y sus raı́ces son las llamadas raı́ces caracterı́sticas de la misma.
En analogı́a con la ecuación lineal de primer orden x0 (t) = ax(t), uno puede esperar también
en este caso soluciones exponenciales. Fijémonos en que si x(t) = eλt y sustituimos en el primer
miembro de (8.5), tenemos

xn) (t) + an−1 xn−1) (t) + · · · + a1 x0 (t) + a0 x(t)


= (λn + an−1 λn−1 + · · · a1 λ + a0 )eλt = p(λ)eλt ,

de modo que para que x(t) = eλt sea solución, el factor λ ha de ser una raı́z caracterı́stica
p(λ) = 0. La terminologı́a del polinomio y sus raı́ces no es casual, puesto que en el sistema
equivalente (8.6) p es precisamente el polinomio caracterı́stico de la matriz A y por tanto sus
raı́ces son los autovalores de ésta.

Ejemplo. Para n = 3,
 
0 1 0
A=  0 0 1 ,
−a0 −a1 −a2

y se tiene
¯ ¯
¯ z −1 0 ¯¯
¯
det(zI3 − A) = ¯¯ 0 z −1 ¯¯ = z 3 + a2 z 2 + a1 z + a0 = p(z).
¯a a1 z + a2 ¯
0

Las raı́ces caracterı́sticas determinan pues soluciones de la ecuación. Para el ejemplo del
clásico circuito RLC, el valor de las raı́ces depende de los parámetros de resistencia, inductancia
y capacitancia. Para valores fijos de L y C, en la figura representamos la evolución de cada una

173
de las raı́ces en función de la resistencia R, con R decreciendo en la dirección de las flechas. Son
destacables varias cosas: en los casos prácticos las raı́ces tienen parte real menor o igual que cero,
colapsan para un cierto valor de la resistencia y a medida que ésta se acerca a cero, las raı́ces se
aproximan al eje imaginario. Ya veremos que esto influye en el tipo de respuesta que proporciona
el circuito.

lambda1

lambda2

La identificación de los autovalores de la matriz del sistema equivalente (8.6) con las raı́ces
caracterı́sticas de la ecuación (8.5) habilita el cálculo de un conjunto fundamental de soluciones.
En efecto, sabemos que el sistema (8.6) admite una base de soluciones formada por modos nor-
males que son funciones del tipo
 
k(λ)−1) j
X t
~ (t) = eλt 
ϕ (A − λIn )j ξ~ ,
j=0
j!

con k(λ) menor o igual que la multiplicidad algebraica del autovalor λ, ξ~ un autovector general-
izado asociado al autovalor. Lo que nos interesa de la fórmula es el hecho de que las componentes
de esta función vectorial,en particular la primera, son de la forma eλt q(t) con q(t) un polinomio
de grado a lo sumo la multiplicidad del autovalor menos uno. Factorizamos el polinomio carac-
terı́stico,

p(z) = (z − λ1)m1 (z − λ2 )m2 · · · (z − λr )mr , m1 + · · · + mr = n. (8.7)

Dado que toda solución de la ecuación es la primera componente de una solución del sistema,
esto significa que, recorriendo la base de modos normales, las n funciones

ϕ0,1 (t) = eλ1 t , ϕ1,1 (t) = teλ1 t , · · · ϕm1 −1,1 (t) = tm1 −1 eλ1 t
ϕ0,2 (t) = eλ2 t , ϕ1,2 (t) = teλ2 t , · · · ϕm2 −1,1 (t) = tm2 −1 eλ2 t
······ (8.8)
λr t λr t mr −1 λr t
ϕ0,r (t) = e , ϕ1,r (t) = te , · · · ϕmr −1,1 (t) = t e ,

constituyen un sistema generador del espacio de soluciones de (8.5). Ahora, el espacio generado
por estas funciones tiene dimensión a lo sumo n (el número de generadores) y contiene al espacio
de soluciones de la ecuación (8.5), que sabemos que tiene dimensión n, luego necesariamente
coincide con él.

174
Teorema 4. Supongamos K = C. Dada la factorización (8.7) del polinomio caracterı́stico de la
ecuación (8.5), las n funciones dadas por (8.8) forman un sistema fundamental de soluciones de
la ecuación homogénea de orden n (8.5).

Ejemplo 1. Buscamos la solución del problema

xiv) − 2x000 + 2x00 − 2x0 + x = 0


x(0) = 0, x0 (0) = 1, x00 (0) = 0, x000 (0) = 1

El polinomio caracterı́stico es p(z) = z 4 − 2z 3 + 2z 2 − 2z + 1 = (z − 1)2 (z 2 + 1), de manera que


las raı́ces con sus multiplicidades son
λ1 = 1, m1 = 2, λ2 = i, m2 = 1, λ3 = −i, m3 = 1,
y el sistema fundamental de soluciones en este caso nos queda
{et , tet , eit , e−it }
Ası́, la solución general de la ecuación es de la forma
ϕ(t) = Aet + Btet + Ceit + De−it
Imponiendo las condiciones iniciales, nos queda el siguiente sistema lineal para las constantes:

ϕ(0) = A + C + D = 0
ϕ0 (0) = A + B + iC − iD = 1
ϕ00 (0) = A + 2B − C − D = 0
ϕ000 (0) = A + 3B − iC + iD = 1,

cuya solución es A = −1, B = 1, C = (1 − i)/2, D = (1 + i)/2, luego la solución del problema es


ϕ(t) = −et + tet + ((1 − i)/2)eit + ((1 + i)/2)e−it .

Ejemplo 2. Buscamos la solución del problema

x000 + x00 − x0 − x = 0
x(0) = 1, x0 (0) = 0, x00 (0) = −1.

El polinomio caracterı́stico es p(z) = z 3 + z 2 − z − 1 = (z + 1)2 (z − 1), de manera que las raı́ces


con sus multiplicidades son
λ1 = −1, m1 = 2, λ2 = 1, m2 = 1,
y el sistema fundamental de soluciones en este caso nos queda
{e−t , te−t , et }
Ası́, la solución general de la ecuación es de la forma
ϕ(t) = Ae−t + Bte−t + Cet .
Imponiendo las condiciones iniciales, nos queda el siguiente sistema lineal para las constantes:

ϕ(0) = A + C = 1
ϕ0 (0) = −A + B + C = 0
ϕ00 (0) = A − 2B + C = −1,

cuya solución es A = 1, B = 1, C = 0, luego la solución del problema es ϕ(t) = e−t + te−t .

De este modo, hemos obtenido una base de soluciones de la ecuación homogénea, independi-
entemente del carácter real o complejo de sus autovalores. En el caso de que la ecuación tenga
coeficientes reales, puede obtenerse una base de soluciones formada por funciones reales.

175
Esto es debido a lo siguiente: supongamos que en (8.5) los coeficientes a0 , . . . , an−1 son números
reales. Observemos que si ϕ es solución de (8.5), el hecho de que los coeficientes sean reales,
implica que su función conjugada ϕ̄ es también solución. Puesto que
ϕ + ϕ̄ ϕ − ϕ̄
Re(ϕ) = , Im(ϕ) = ,
2 2i
y por el principio de superposición, tenemos que las partes real e imaginaria de toda solución de
(8.5) son también soluciones.
De esta manera, la base anterior (8.8) nos va a proporcionar una base real. Ahora, el polinomio
caracterı́stico puede factorizarse en la forma

p(z) = = (z − λ1 )m1 · · · (z − λp )mp


(z − µ1 )n1 · · · (z − µq )nq
(z − µ̄1 )n1 · · · (z − µ̄q )nq , (8.9)

donde
λ1 , . . . , λp ∈ R, µj = αj + iβj , 1 ≤ j ≤ q.
Esto se debe a que, al ser p de coeficientes reales, las raı́ces complejas aparecen en pares conjugados
µj , µ̄j con la misma multiplicidad nj . Lo único que tenemos que hacer es distinguir las raı́ces
caracterı́sticas reales de las complejas y considerar la parte real y la imaginaria de las funciones
de la base (8.8) asociadas a estas últimas.

Teorema 5. Supongamos que K = R y consideremos la factorización del polinomio caracterı́stico


de la ecuación (8.5) dada en (8.9). Entonces, las n funciones

tk etλs , 1 ≤ s ≤ p, 0 ≤ k ≤ ms − 1
tk etαs cos βs t, 1 ≤ s ≤ q, 0 ≤ k ≤ ns − 1
k tα
t e sin βs t,
s 1 ≤ s ≤ q, 0 ≤ k ≤ ns − 1

forman una base del espacio real de las soluciones reales de la ecuación (8.5).

Ejemplo. Ası́, en el ejemplo 1 anterior, como

eit = cos t + i sin t, e−it = cos t − i sin t,

la base real de soluciones es

{et , tet , cos t, sin t},

y la solución del problema es, escrita en esta base,


1 − i it 1 + i −it
ϕ(t) = −et + tet + e + e
2 2
1 − i it
= −et + tet + 2Re( e )
2
= −et + tet + cos t + sin t.

También se puede obtener planteando la solución general real ϕ(t) = Aet + Btet + C cos t + D sin t
e imponiendo las condiciones iniciales para despejar los valores de A, B, C y D.

176
8.4. Respuesta natural. Movimiento armónico simple y amor-
tiguado
la interpretación de estas soluciones al considerar la ecuación como la ley que gobierna un
sistema de procesado de señales es la siguiente. Recordemos que un sistema de este tipo puede
recibir dos formas de excitación: en términos de una señal continua (término fuente) o en términos
de condiciones iniciales. Cuando la ecuación es homogénea, no hay excitación del primer tipo, de
modo que la solución de un PVI de la ecuación homogénea es la respuesta del sistema debida a
la excitación dada por las condiciones iniciales. Se dice entonces que es la respuesta natural.

Ejemplo 1. Movimiento armónico amortiguado


Un ejemplo clásico que ilustra distintas respuestas naturales de una ecuación homogénea viene
dado por el circuito eléctrico RLC.

d2 i di 1
L L 2
+R + i=0
@ dt dt C
¡
@ C
¡R i(0) = i0 , i0 (0) = i00
@
¡
L, R, C > 0
¾

i(t)

Planteadas condiciones iniciales a la ecuación, la respuesta natural es diferente en función del


carácter real o complejo de las raı́ces caracterı́sticas,
√ µ ¶
R R 2 1
λ1,2 = − ± ∆, ∆ = −
2L 2L CL
Ası́, suponiendo que todos los parámetros del circuito son positivos, tenemos
∆ > 0, i(t) = c1 eλ1 t + c2 eλ2 t . La respuesta natural es una superposición de dos exponen-
ciales correspondientes a las dos raı́ces, distintas, reales y negativas. Las constantes c1 , c2
quedan determinadas imponiendo los datos iniciales.
R
∆ = 0, i(t) = (c1 + c2 t)e− 2L t . La única raı́z caracterı́stica proporciona como solución un
polinomio de grado menor o igual que uno por la correspondiente exponencial.
r ³ ´2
R
− 2L t 1 R
∆ < 0, i(t) = Ae cos(ω1 t − θ), ω1 = CL − 2L . Este caso da lugar a dos raı́ces
complejas conjugadas: cuando la resistencia es no nula, la respuesta natural corresponde
a oscilaciones con una amplitud que decrece exponencialmente a cero. La corriente oscila

177
cada vez a menor amplitud y la velocidad a la que se amortigua la respuesta depende
directamente del valor de la resistencia, que actúa como atemperación del sistema. Este es
el llamado movimiento armónico amortiguado.
La siguiente figura ilustra los tres casos comentados, fijados valores a L y C, en función de una
resistencia presente en le circuito. En todos ellos la respuesta natural tiende a cero cuando t → ∞,
debido a que la parte real de las raı́ces caracterı́sticas es en todos los casos menor que cero, porque
todos los parámetros del circuito son positivos.

0.5

0.4

0.3

0.2

0.1

−0.1
0 5 10 15

Ejemplo 2. Movimiento armónico simple. En las respuestas naturales antes comentadas


hemos tenido en cuenta en el modelo la presencia de una resistencia que actúa como amor-
tiguamiento del sistema. La desaparición de la misma (R = 0 en la ecuación) cambia el modelo
y por tanto la respuesta natural.
√ 1
R=0 (∆ < 0), ω= −∆ = √ , λ1,2 = ±iω
CL
Ahora las raı́ces caracterı́sticas son imaginarias puras y la respuesta es una oscilación libre de
amplitud constante y frecuencia ω, la llamada frecuencia natural.

i(t) = A1 cos(ωt) + A2 sin(ωt) = A cos(ωt − θ)


Este es el llamado movimiento armónico simple y puede obtenerse a partir del movimiento
armónico amortiguado anterior. Recordando el comportamiento de las raı́ces caracterı́sticas, que
se aproximan al eje imaginario cuando la resistencia se acerca a cero, tenemos que en el movimien-
to armónico amortiguado, la velocidad de decaimiento tiende a cero, de manera que la respuesta
se aproxima a la respuesta natural de un circuito con inducción y capacitancia pero libre de
fuerzas de resistencia.

R
iR (t) = Ae− 2L t cos(ω1 t − θ) → i(t) = A cos(ωt − θ)
R → 0

178
R = 0.1 R = 0.05
1 1

0.5 0.5

0 0

−0.5 −0.5

−1 −1
0 10 20 30 40 0 10 20 30 40

R = 0.025 R=0
1 1

0.5 0.5

0 0

−0.5 −0.5

−1 −1
0 10 20 30 40 0 10 20 30 40

Ejemplo 3. Modulación de una señal. La aparición de oscilaciones libres como respuestas


naturales proporciona diversas aplicaciones de los circuitos al procesado de señales. Una de ellas
es la modulación, en la que se emplea una señal para controlar algún parámetro de otra. Nosotros
nos fijaremos en una de las más sencillas, que es la modulación en amplitud sinusoidal.

x(t) y(t) = x(t)cos(ωt − θ)


- × -

LC -
cos(ωt − θ)
c.i.

Vamos a considerar el siguiente sistema. Este consta de una señal que actúa de mensaje y
otra, que actuará de portadora, que es una onda sinusoidal con una apropiada frecuencia ω, que
puede considerarse como respuesta natural de un circuito eléctrico LC sin resistencia. El sistema
procesa además ambas señales usando un multiplicador. La respuesta se muestra en la figura.

179
X(t)

20
10
0
−10
−20
0 5 10 15 20 25 30 35 40
RESPUESTA NATURAL DEL CIRCUITO

−1

0 5 10 15 20 25 30 35 40
Y(t)

20
10
0
−10
−20
0 5 10 15 20 25 30 35 40

Se trata de la señal portadora modulada en la que su envolvente sigue el perfil del mensaje.

8.5. Cálculo efectivo de soluciones. Ecuación no homogénea


Pasamos ahora al cálculo de soluciones de una ecuación no homogénea. Siguiendo la estructura
previamente comentada de las soluciones de la ecuación, describiremos aquı́ dos caminos de
resolución. Uno es general y viene dado por la fórmula de variación de las constantes. El otro es
un método práctico de coeficientes indeterminados para calcular una solución particular, válido
sólo para cierto tipo de términos fuente.

8.5.1. Fórmula de variación de las constantes


La fórmula de variación de las constantes está basada en la correspondiente fórmula para el
sistema equivalente de primer orden, que ya hemos visto en el tema anterior.

Teorema 6. La solución del PVI (8.3)

xn) (t) + an−1 xn−1) (t) + · · · + a1 x0 (t) + a0 x(t) = f (t)


x(t0 ) = α0 , x0 (t0 ) = α1 , . . . , xn−1) (t0 ) = αn−1

con f : (a, b) → K continua, es


Z t
ϕ(t) = ϕ0 (t) + h(t − s)f (s)ds
t0

donde
[1 ] ϕ0 satisface
n) n−1)
ϕ0 (t) + an−1 ϕ0 (t) + · · · + a1 ϕ00 (t) + a0 ϕ0 (t) = 0
n−1)
ϕ0 (t0 ) = α0 , ϕ00 (t0 ) = α1 , . . . , ϕ0 (t0 ) = αn−1

180
[2 ] h : R → R es la solución de

xn) (t) + an−1 xn−1) (t) + · · · + a1 x0 (t) + a0 x(t) = 0


x(0) = 0, x0 (0) = 0, . . . , xn−2) (0) = 0, xn−1) (0) = 1

(Función de influencia)

La fórmula establece que la solución del PVI (8.3) para una ecuación de orden n y coefi-
cientes constantes con término fuente continuo, se puede escribir como suma de dos términos: el
primero es la solución de la ecuación homogénea asociada con el mismo dato inicial. El segundo
proporciona una solución particular con dato inicial nulo y representa la aportación del término
no homogéneo a través de un factor de influencia h. Éste puede obtenerse como la solución de la
ecuación homogénea con un conveniente dato inicial en cero.
Para la demostración, se considera el correspondiente problema de valores iniciales (8.4) para
el sistema equivalente y sea Φ(t) la matriz formada por modos normales a partir de la matriz A.
Por la fórmula de variación de las constantes para sistemas, la solución de (8.4) puede escribirse
Z t
~x(t) = Φ(t − t0 )Φ(0) −1
α
~+ Φ(t − s)Φ(0)−1 f~(s)ds.
t0

Por la equivalencia entre ecuación y sistema, la primera componente de este vector es la solución
que buscamos. pasamos entonces a analizar la fórmula. El primer sumando es la solución del
sistema homogéneo (8.6) con dato inicial ~x(t0 ) = α ~ , de manera que su primera componente es
en efecto la función ϕ0 , solución de la ecuación homogénea con dato inicial α
~ . por otro lado,
podemos escribir la integral como
 
0
Z t 0
 
−1  .. 
Φ(t − s)Φ(0)  .  f (s)ds.
t0  
0
1

Ahora, si consideramos el integrando salvo la función f (s), éste es el valor, en t − s del vector
 
0
0
 
~h(t) = Φ(t)Φ(0)−1  .
 ..  ,
 
0
1

que no es otra cosa que la solución del sistema homogéneo con dato inicial en t0 = 0 dado por
(0, 0, . . . , 0, 1)T . Por tanto, su primera componente es la función de influencia h descrita.

Ejemplo. Vamos a resolver el problema de valores iniciales

x00 − 2x0 − 3x = t2 e2t


x(0) = 1, x0 (0) = 1.

181
La solución del problema homogéneo

x00 − 2x0 − 3x = 0
x(0) = 1, x0 (0) = 1.

es ϕ0 (t) = (1/2)e3t + (1/2)e−t . La función de influencia es la solución de

x00 − 2x0 − 3x = 0
x(0) = 0, x0 (0) = 1.

esto es, h(t) = (1/4)e3t − (1/4)e−t . Entonces


Z t Z t³ ´
h(t − s)f (s)ds = (1/4)e3(t−s) − (1/4)e−(t−s) s2 e2s ds.
0 0

La solución del problema es


Z t³ ´
(1/2)e3t + (1/2)e−t + (1/4)e3(t−s) − (1/4)e−(t−s) s2 e2s ds.
0

La fórmula de variación de las constantes tiene un interés añadido por su interpretación cuando
la ecuación diferencial gobierna un sistema de procesado de señales continuas. La fórmula muestra
que la respuesta del sistema es suma de la respuesta debida a la excitación de las condiciones
iniciales, es decir, la respuesta natural, más la respuesta a la excitación exclusivamente de la señal
de entrada.
Ya hemos hablado de la respuesta natural, por lo que ahora nos vamos a centrar en diversas
aplicaciones que tiene el segundo sumando de la fórmula. Para ilustrar éstas vamos a usar de
nuevo el circuito eléctrico RLC de segundo orden y por comodidad manejaremos condiciones
iniciales en t0 = 0.

Circuito RLC

d2 h dh 1
L L +R + h=0
@ dt2 dt C
¡
@ C
¡R h(0) = 0, h0 (0) = 1
@
¡

h(t)

182
√ µ ¶2
R R 1
λ1,2 =− ± ∆, ∆= −
2L 2L CL
Dependiendo del signo del discriminante de la ecuación caracterı́stica, la función de influencia
puede ser de las siguientes formas:
1
∆ > 0, h(t) = λ1 −λ 2
(eλ1 t − eλ2 t )
R
∆ = 0, h(t) = te− 2L t
R √
∆ < 0, h(t) = ω1 e− 2L t cos(ωt − π2 ), ω= −∆

Ejemplo 1. Respuesta a una excitación sinusoidal.


El primer ejemplo que tratamos es el estudio de la respuesta de un sistema a una excitación
sinusoidal. Imaginemos un sistema de procesado de señales que se rige por una EDO lineal de
orden n y coeficientes constantes, con una señal de entrada del tipo coseno y condiciones iniciales
nulas en t = 0.

f (t) = cos(ω0 t) x(t)


- P.V.I. -

+c.i. = 0
La fórmula de variación de las constantes determina que la solución tiene esta forma
Z t
x(t) = h(t − s) cos(ω0 s)ds
0

con h la correspondiente función de influencia. Un sencillo cambio de variable permite escribir la


integral de esta manera
Z t
x(t) = h(s) cos(ω0 (t − s))ds.
0

Imaginemos que el sistema es estable en el sentido de que toda solución de la ecuación ho-
mogénea tiende a cero cuando t → ∞. Dada la forma conocida ya de una base de soluciones,
tk eλt → 0, t → ∞ esto se consigue si nosotros imponemos que la parte real de toda raı́z carac-
terı́stica es menor que cero,

Re(λ) < 0 ∀λ raı́z caracterı́stica.

Bajo estas condiciones, descomponemos la respuesta en esta dos integrales,


Z ∞
x(t) = h(s) cos(ω0 (t − s))ds
0
Z ∞
− h(s) cos(ω0 (t − s))ds = xP + xT
t

183
xT (t) → 0 si t → ∞ (resp. transitoria)
Z ³ ´
1 ∞
xP (t) = h(s) eiω0 (t−s) + e−iω0 (t−s) ds
2 0
= a cos(ω0 t − θ) (resp. permanente)

Z ∞
¯ 0 )), A(ω) =
a = |A(ω0 )|, θ = arg(A(ω h(s)e−iωs ds
0

Con las hipótesis impuestas, la segunda integral tiende a cero cuando t → ∞. De este modo,
cuando t es grande, la aportación de la segunda integral es cada vez menor y la respuesta tiende
a comportarse según la primera integral. Es por ello que a ésta se le llama respuesta permanente,
mientras que el segundo sumando se denomina respuesta transitoria.
Observemos además que la respuesta permanente puede también escribirse como un coseno de
la misma frecuencia que la señal de entrada. La conclusión es que para un sistema de este tipo,
la respuesta a una excitación sinusoidal es asintóticamente sinusoidal, con la misma frecuencia
(ω0 ), y magnitud y fase determinadas por
Z ∞
A(ω) = h(s)e−iωs ds
0
(respuesta en frecuencia)
La ilustración de este resultado puede venir dada a través de un circuito eléctrico de segundo
orden, donde una baterı́a suministra electricidad, en forma sinusoidal en tiempo, mostrada en
la figura. Elegimos los parámetros de la ecuación de modo que la función de influencia sea por
ejempo una oscilación amortiguada. La tercera figura muestra la respuesta del sistema. Aquı́ se
puede observar que la respuesta transitoria, visible para tiempos cortos, tiende a desaparecer,
quedando una oscilación de la misma frecuencia que la excitación pero amplificada.
EXCITACION f(t)

−1

0 10 20 30 40 50 60 70 80 90 100
F. DE INFLUENCIA h(t)

−1

0 10 20 30 40 50 60 70 80 90 100
RESPUESTA x(t)

10

−10

0 10 20 30 40 50 60 70 80 90 100

184
Ejemplo 2. Regularización de una señal.
Otro efecto de la fórmula de convolución es la regularización de una señal, es decir, la respuesta
del sistema es una función más regular que la función excitación de entrada. Esto puede ilustrarse
con el siguiente ejemplo. Imaginemos que la señal de entrada es un par de pulsos triangulares de
la forma del primer gráfico de la figura.

EXCITACION f(t)

−1

0 1 2 3 4 5 6 7 8
F. DE INFLUENCIA h(t)

0.01

−0.01

0 1 2 3 4 5 6 7 8
−3 RESPUESTA
x 10
1

0.5

−0.5

−1
0 1 2 3 4 5 6 7 8

Supongamos que el circuito de segundo orden tiene una función de influencia del tipo mostrado en
el segundo gráfico, correspondiente a un valor nulo del discriminante. El tercer dibujo muestra la
respuesta con condiciones iniciales nulas. Observamos ası́ que es una representación más regular
de la señal de entrada. Es más regular pero también pierde amplitud, debido especialmente a
que la excitación no está muy alejada y es preciso tomar la función de influencia h bastante baja
para representar de forma más o menos fiel la excitación. Esto puede arreglarse añadiendo al
sistema un amplificador de señal. Finalmente, podemos vernos también afectados de un desfase
con respecto a la señal de entrada, que puede corregirse introduciendo en el sistema un retardo.

Ejemplo 3. Señales discontinuas.


La fórmula de variación de las constantes es necesaria para tratar el caso general. Sin embargo,
requiere que la ecuación diferencial se adapte como modelo matemático al fenómeno que se
pretende describir. Ello exige que la señal de entrada del sistema, el término fuente de la ecuación,
sea una función continua. Cuando la función f deja de ser continua en algún punto, la ecuación
carece de soluciones en sentido estricto. Esta es, sin embargo, una situación que puede darse en
la realidad. Imaginemos una señal de entrada consistente en un mensaje codificado en ceros y
unos. Esto significa que el término fuente es una función de tipo pulso, como la que aparece en
la figura (primer gráfico), discontinua en un número finito de puntos.

185
EXCITACION f(t)
1

0.5

0
0 1 2 3 4 5 6 7 8 9 10
F. DE INFLUENCIA h(t)
0.01

0.005

−0.005

−0.01
0 1 2 3 4 5 6 7 8 9 10
−4 RESPUESTA
x 10
10

0
0 1 2 3 4 5 6 7 8 9 10

Uno puede estar interesado en la respuesta del sistema a este tipo de excitación. Naturalmente,
no puede proceder de una solución en el sentido clásico de la ecuación. Sin embargo, se puede hacer
el siguiente razonamiento: se integra la ecuación diferencial en el intervalo entre 0 y 2 con término
fuente nulo y condiciones iniciales nulas. A continuación se integra en el siguiente intervalo, entre
2 y 4, con término fuente idénticamente uno y condiciones iniciales dadas por la solución del
problema anterior. Repitiendo este procedimiento en cada intervalo de continuidad del término
fuente se obtiene una función continua en todo punto y que satisface la ecuación diferencial en
aquellos puntos donde el término fuente es continuo. En forma cerrada, esta función viene dada
por la convolución que aparece en la fórmula de variación de las constantes. Ası́, la fórmula
permite dar respuesta a señales más generales y proporciona un sentido más amplio a la idea
de solución de la ecuación diferencial, como la función continua que satisface la ecuación en los
puntos donde el término fuente es continuo.
Esto puede observarse en las figuras. Para un término fuente formado por dos pulsos rectangulares,
tomando la función de influencia correspondiente al circuito de segundo orden con discriminante
nulo, la respuesta del sistema es una regularización de la señal de entrada que además permite
identificar el mensaje de unos y ceros.

8.5.2. Coeficientes indeterminados


Pasamos por último a describir una alternativa para la resolución de la ecuación no homogénea
aplicable para cierto tipo de términos fuente. Es el método de coeficientes indeterminados que
permite obtener una solución particular de la ecuación sin recurrir a la fórmula de variación de
las constantes.
Los términos fuente para los que es aplicable este método son del tipo producto de un
polinomio por una exponencial. Dentro de esta clase de funciones se encuentran también las
trigonométricas.

xn) (t) + an−1 xn−1) (t) + · · · + a1 x0 (t) + a0 x(t) = q(t)eαt

q(t) = q0 + q1 t + · · · + qm tm , α∈C

186
El método parte de la idea intuitiva de que cuando el término fuente de la ecuación es de esta
forma, uno espera una solución del mismo tipo. El procedimiento es como sigue. Cuando consid-
eramos un producto x(t) = s(t)eαt de una función s(t) por una exponencial de la misma forma
que el término fuente, la sustitución en el primer miembro de la ecuación diferencial da lugar a

pn) (α) n) pn−1) (α) n−1)


( s (t) + s (t) + · · ·
n! (n − 1)!
p0 (α) 0
+ s (t) + p(α)s(t))eαt = q(t)eαt (8.10)
1!
donde

p(z) = z n + an−1 z n−1 + · · · + a1 z + a0

es el polinomio caracterı́stico de la ecuación. Esta fórmula puede demostrarse usando la regla de


derivación de un producto y reordenando términos. La expresión (8.10) simplifica la discusión del
procedimiento de coeficientes indeterminados. Imaginemos que el término fuente es un polinomio
de grado menor o igual que m por la exponencial y que la solución a ensayar es del mismo tipo,
con s un polinomio. Simplificando en (8.10) se tiene una ecuación diferencial para el polinomio
s. Dado que q es un polinomio de grado menor o igual que m, la expresión de la izquierda es
entonces un polinomio de grado menor o igual que m. La determinación del grado de s depende
entonces de los coeficientes de la fórmula.
De este modo, si α no es raı́z del polinomio caracterı́stico, s tiene que ser un polinomio de grado
menor o igual que m, pues aparece a la izquierda de la igualdad. Esto permite ensayar una
solución particular como el término fuente, es decir, un polinomio de grado menor o igual que m
por la exponencial.
Ahora, si por ejemplo α es raı́z caracterı́stica simple, la anulación del último sumando indica que
la derivada de s es un polinomio de grado menor o igual que m, luego s es un polinomio de grado
menor o igual que m + 1. Si la raı́z es doble, s00 tiene grado menor o igual que m, de manera que
s tiene grado a los sumo m + 2. Ası́, en general, si α es raı́z caracterı́stica de multiplicidad d,
podemos ensayar como s un polinomio de grado menor o igual que m + d,

s(t) = A0 + A1 t + · · · + Ad−1 td−1 + Ad td + · · · + Am+d tm+d .

Aquı́ podemos avanzar un poco más; teniendo en cuenta que α es raı́z con esa multiplicidad,
la parte de la solución correspondiente al polinomio de grado menor o igual que d − 1 es una
solución de la ecuación homogénea. De este modo, podemos ensayar a partir del coeficiente de
td . Tenemos entonces el criterio siguiente:

(A) Si p(α) 6= 0, entonces s(t) = r0 + r1 t + · · · + rm tm y existe una solución particular de la


forma
ϕp (t) = (r0 + r1 t + · · · + rm tm )eαt

(B) Si p(z) = (z − α)d p0 (z) con p0 (α) 6= 0, entonces


s(t) = r0 + · · · + rd−1 td−1 + rd td + · · · + rd+m td+m
y existe una solución particular de la forma

ϕp (t) = td (rd + rd+1 t + · · · + rd+m tm )eαt

187
(C) En ambos casos, los coeficientes se obtienen imponiendo que ϕp (t) sea solución del problema.

Ejemplos.

[1]. Buscamos una solución particular de

x00 − 2x0 − 3x = te2t .

Las raı́ces caracterı́sticas son λ1 = 3, λ2 = −1. Como α = 2, ensayamos como solución particular
x(t) = (A + Bt)e2t . Imponiendo esta función como solución e igualando en las potencias de t,
tenemos el sistema

2B − 3A = 0
−3B = 1.

de donde x(t) = ((−2/9) − (t/3))e2t .

[2]. Buscamos una solución particular de

x00 − 2x0 − 3x = te−t .

Ahora, α = −1 es raı́z simple del polinomio caracterı́stico. Buscamos entonces una solución
particular de la forma x(t) = t(A + Bt)e−t . Imponiendo la función como solución e igualando
coeficientes en t, se tiene

2B − 4A = 0
−8B = 1.

De donde B = −1/8, A = −1/16. La ecuación tiene una solución particular de la forma x(t) =
t((−1/16) − (1/8)t)e−t . La solución general es de la forma c1 e3t + c2 e−t + t((−1/16) − (1/8)t)e−t ,
con c1 , c2 constantes arbitrarias.

Ejemplo 1. Resonancia.
La primera aplicación de esta técnica de coeficientes indeterminados se refiere al fenómeno de
resonancia. En sistemas como el del circuito eléctrico
d2 i di 1
L 2
+ R + i = E cos(ωf t)
dt dt C
y en general en sistemas lineales de señales aparecen funciones fuente de naturaleza sinusoidal. Es
interesante estudiar el comportamiento de la respuesta del circuito cuando el discriminate de la
ecuación caracterı́stica es negativo y la frecuencia de excitación ωf no coincide con la frecuencia
natural ω del sistema

∆ < 0, ω = −∆, ω 6= ωf

Supongamos que la resistencia R es no nula. En tal caso, la solución general de la ecuación


homogénea es una oscilación amortiguada
R
i0 (t) = Ae− 2L t cos(ωt − θ0 ).

188
Ası́mismo, siguiendo el método de coeficientes indeterminados, hay una solución particular que
es una combinación lineal de seno y coseno de la misma frecuencia que el término fuente
ip (t) = B cos ωf t + C sin ωf t
E
= q cos(ωf t − θ)
R
(ω − ωf )2 + 4( 2L ωf )2
Imponiendo que la función sea una solución de la ecuación, se determinan las constantes B y C.
Ası́, la solución del problema es suma de esta solución particular más la de la homogénea
i(t) = i0 (t) + ip (t).
La imposición de las condiciones iniciales determinan las constantes A y θ0 .
Si la resistencia es no nula, la respuesta transitoria, dada por la solución de la ecuación
homogénea asociada, tiende a desaparecer con el tiempo, quedando el régimen permanente rep-
resentado por la solución particular, que es una oscilación libre de amplitud constante e igual
frecuencia que la del término fuente, la señal de entrada. Si R es nulo, la solución de la ecuación
homogénea no es transitoria y la respuesta es una superposición de dos señales sinusoidales de
distinta frecuencia. En cualquier caso, el sistema permanece estable con el tiempo.
RESPUESTA NO RESONANTE
8

−2

−4

−6
0 5 10 15 20 25 30 35 40

Notemos sin embargo que si la resistencia es pequeña y la frecuencia natural del sistema es cercana
a la de excitación, la amplitud de la respuesta permanente se puede hacer muy grande.
Esta observación nos lleva a investigar lo que ocurre cuando la resistencia es nula y las dos
frecuencias coinciden
d2 i 1
L 2 + i = E cos(ωt)
dt C
En este caso, el método de coeficientes indeterminados permite encontrar una solución particular
de la forma
ip (t) = Bt sin ωt + Ct cos ωt
E
= t sin(ωt − θ)

189
dado que iω y su conjugado, que aparecen en el término fuente, son raı́ces caracterı́sticas simples.
Añadiendo la solución de la ecuación homogénea

i0 (t) = A cos(ωt − θ0 )
i(t) = i0 (t) + ip (t),

la solución de nuestro problema será la suma de ambas. Ahora, la respuesta es inestable, pues
la solución particular va haciéndose, de manera oscilatoria, mayor en amplitud a medida que
transcurre el tiempo, debido al factor lineal t. Este es el fenómeno conocido como resonancia:
la frecuencia de la excitación es resonante con la de la respuesta natural, que es un movimiento
armónico simple.
RESPUESTA RESONANTE
40

30

20

10

−10

−20

−30

−40
0 5 10 15 20 25 30 35 40

Ejemplo 2. Filtrado de una señal.


Otra de las aplicaciones del método de coeficientes indeterminados se encuentra en el filtrado
de señales. Imaginemos que al circuito eléctrico la baterı́a le suministra un voltaje que es una
superposición de m sinusoides de diferentes frecuencias,

d2 i di 1 d
L 2
+ R + i = f (t) = E(t), R>0
dt dt C dt

E(t) = E1 sin(ω1 t) + · · · + Em sin(ωm t)

excitación que aparece en la primera figura para siete frecuencias distintas.

190
EXCITACION E(t)
5

−5
0 1 2 3 4 5 6 7 8 9 10

RESPUESTA ip(t)
5

−5
0 1 2 3 4 5 6 7 8 9 10

Suponiendo que la resistencia R es no nula, el método de coeficientes indeterminados y el princi-


pio de superposición proporcionan una solución particular que es también una superposición de
señales sinusoidales con amplitud constante y similares frecuencias.
m
X Ej
ip (t) = s µ ¶2 sin(ωj t − θj )
j=1 1−CLωj2
R2 + Cωj

Observemos que la amplitud asociada a una de las frecuencias, digamos ωK , será máxima cuando
1
la frecuencia natural coincida con ella, ω = √CL = ωK . De este modo, ajustando los parámetros
del circuito C y L para que ası́ ocurra, podemos hacer que la amplitud de la respuesta para la señal
de entrada con frecuencia ωK sea mucho mayor que las restantes amplitudes. El sistema eléctrico
actúa ası́ como un filtro, respondiendo a aquellas entradas cuyas frecuencias estén cerca de ωK
e ignorando aquellas señales con frecuencias más lejanas. En nuestro ejemplo los parámetros
1
del circuito se ajustan para que ω = √CL esté cerca de la tercera frecuencia, y la respuesta
permanente de salida se muestra en la segunda figura del gráfico. Observemos que se ha filtrado
la señal de entrada, de manera que la amplitud de la tercera señal respuesta es mucho mayor que
la de las demás y ésta es la que se observa en la gráfica.

EJERCICIOS DEL TEMA 8

Ejercicio 1. Encuentra la solución general de las siguientes ecuaciones diferenciales ordinarias


homogéneas:
a) x000 + 4x00 + x0 − 6x = 0,
b) x000 + 6x00 + 9x0 = 0,
c) x00 − 2x0 + 2x = 0,
d) x0v − 2x00 + x = 0,
e) x00 − x0 − 12x = 0,

191
f) x000 − 6x00 + 12x0 − 8x = 0,
g) x0000 − 2x000 + 2x00 − 2x0 + x = 0,
h) x0000 + 2x00 + x = 0,
i) x000 − 2x00 − x0 + 2x = 0,
j) x0000 − 5x000 + 6x00 + 4x0 − 8x = 0,

Ejercicio 2. Halla la solución de los siguientes problemas de valores iniciales:


a) x0000 + x = 0, x(0) = 1, x0 (0) = x00 (0) = 0, x000 (0) = −1
b) x000 − 3x00 + 3x0 − x = 0, x(0) = 1, x0 (0) = 2, x00 (0) = 3
c) x00 − 2x0 + 3x = 0, x(0) = x0 (0) = 0
d) x0000 − 2x00 + x = 0, x(0) = x0 (0) = x00 (0) = 0, x000 (0) = 1.

Ejercicio 3. ¿Cuál es el menor orden de una ecuación diferencial lineal homogénea de coeficientes
constantes que tiene entre sus soluciones a las funciones sin (2t), 4t2 e2t y −e−t ? Halla una de tales
ecuaciones.

Ejercicio 4. Se considera la ecuación

ax00 + bx0 + cx = 0

donde b > ± b2 − 4ac, a > 0. Demuestra que si x = x(t) es cualquier solución de esta ecuación,
entonces lı́mt→∞ x(t) = 0.

Ejercicio 5. Halla la solución general de la ecuación


x2 y 00 (x) + 3xy 0 (x) + y(x) = 0 x > 0.
(Indicación: haced el cambio de variable x = et y obtened una ecuación diferencial en la variable
t).

Ejercicio 6. Encuentra la solución general de las ecuaciones diferenciales siguientes, hallando


una solución particular de las mismas ensayando con funciones adecuadas.
a) x00 − 9x = 3t,
b) x00 + 4x = sin (2t),
c) x00 − 4x = t exp (2t),
d) x000 + x0 = sin (2t),
e) x000 + 3x00 + 3x0 + x = t2 − exp (−t),
f) x00 − 3x0 + 2x = 2t exp (3t) + 3 sin t,
g) x00000 + 2x000 + x0 = 2t + sin t + cos t,
h) x00 + 4x0 + 4x = 3t exp (−2t),

Ejercicio 7. Halla la solución de los siguientes problemas de valores iniciales


(1) x00 − 5x0 + 6x = (12t − 7)e−t x(0) = x0 (0) = 0
(2) x00 + 4x = 4(sin 2t + cos 2t) x(π) = x0 (π) = 2π
(3) x000 − x0 = −2t x(0) = 0, x0 (0) = 1, x00 (0) = 2
(4) x0000 − x = 8et x(0) = 0, x0 (0) = 2, x00 (0) = 4, x000 (0) = 6.

Ejercicio 8. Halla la solución general de las ecuaciones diferenciales ordinarias siguientes:


a) x00 − 4x0 + 3x = (1 + exp (−t))−1
b) x00 − x = t exp t

192
c) x00 − x = (1 + exp (−t))−2
d) x000 − 5x00 + 8x0 − 4x = 3 exp (2t)
e) x00 − 3x0 + 2x = 3 sin (2t)
f) x00 − 2x0 − 3x = t2 exp (2t)
g) x00000 − x000 = 2t2

Ejercicio 9. Se considera la ecuación diferencial de orden tres

x000 (t) − 5x00 (t) + 8x0 (t) − 4x(t) = et + cos t. (8.11)

(i) Calcula una solución particular de la ecuación (8.11).

(ii) Calcula la solución general y(t) de la ecuación (8.11).

(iii) Si ~y (t) = (y(t), y 0 (t), y 00 (t))T , determina el sistema diferencial


d
~x(t) = A~x(t) + f~(t),
dt
que satisface ~y (t).

Ejercicio 10. Se considera la ecuación de orden tres

x000 (t) − ax00 (t) − x0 (t) + ax(t) = 0, t > 0. (8.12)

(i) Determina la solución general de (8.12) según los valores de a.


(ii) Para la ecuación (8.12) con a = −1, determina la relación que deben verificar las condiciones
iniciales x(0) = α0 , x0 (0) = α1 , x00 (0) = α2 para que la correspondiente solución tienda a cero
cuando t → ∞.
(iii) Para la ecuación

x000 (t) − ax00 (t) − x0 (t) + ax(t) = f (t), t > 0.

con a = −1 y f (t) = e−t + sin t, calcula una solución particular.

ALGUNOS EJERCICIOS RESUELTOS DEL TEMA 8

Ejercicio 1.
a) x(t) = Aet + Be−2t + Ce−3t .
b) x(t) = A + Be−3t + Cte−3t .
c) x(t) = Aet cos t + Bet sin t.
d) x(t) = Aet + Btet + Ce−t + Dte−t .
e) x(t) = Ae4t + Be−3t .
f) x(t) = (A + Bt + Ct2 )e2t .
g) x(t) = Aet + Btet + C cos t + D sin t.
h) x(t) = (A + Bt) cos t + (C + Dt) sin t.
i) x(t) = Aet + Be2t + Ce−t .

193
j) x(t) = (A + Bt + Ct2 )e2t + De−t .

Ejercicio 2.√ √ √ √ √ √ √ √ √ √
a) x(t) = 1+√ 2 et/ 2 cos(t/ 2)− √
2 2
1 t/ 2
2 2
e sin(t/ 2)+ −1+
√ 2 e−t/ 2 cos(t/ 2)− √
2 2
1 −t/ 2
2 2
e sin(t/ 2).
b) x(t) = (1 + t)et .
c) x(t) = 0.
d) x(t) = −1+t t 1+t −t
4 e + 4 e .

Ejercicio 4. La solución general del problema es


x(t) = Aeλ1 t + Beλ2 t ,
donde

−b +b2 − 4ac
λ1 = ,
√2a
−b − b2 − 4ac
λ12 = ,
2a
que por las hipótesis del problema son ambas negativas, luego lı́mt→∞ x(t) = 0.

Ejercicio 5. Si x = et , la función v(t) = y(x) = y(et ) verifica la ecuación


v 00 (t) + 2v 0 (t) + v(t) = 0,
A+B ln x
de solución v(t) = (A + Bt)e−t . Deshaciendo el cambio, se tiene y(x) = x , x > 0.

Ejercicio 6.
a) x(t) = Ae3t + Be−3t − (1/3)t.
b) x(t) = A cos(2t) + B sin(2t) − (t/4) cos(2t).
c) x(t) = Ae2t + Be−2t + (−t/16 + t2 /8)e2t .
d) x(t) = A + B cos t + C sin t + (1/6) sin(2t).
e) x(t) = 12 − 6t + t2 − (t3 /6)e−t + (A + Bt + Ct2 )e−t .
f) x(t) = Aet + Be2t + (t − 3/2)e3t + (9/10) cos t + (3/10) sin t.
g) x(t) = A + (B + Ct) cos t + (D + Et) sin t + t2 + (t2 /8) cos t − (t2 /8) sin t.
h) x(t) = (A + Bt)e−2t + (t3 /2)e−2t .

Ejercicio 7.
(1) x(t) = e2t − e3t + te−t .
(2) x(t) = 4π cos(2t) + 1−2π
2 sin(2t) + t(sin(2t) − cos(2t)).
(3) x(t) = −2 + (3/2)e + (1/2)e−t + t2 .
t

(4) x(t) = 2tet .

Ejercicio 8. R
a) x(t) = Aet + Be3t + tt0 (− 12 et−s + 21 e3(t−s) ) 1+e1 −s ds.
b) x(t) = Aet + Be−t + R(−t/4 + (t2 /4))et .
c) x(t) = Aet + Be−t + tt0 (− 21 e−(t−s) + 12 e(t−s) ) (1+e1−s )2 ds.
d) x(t) = Aet + (B + Ct)e2t + 32 t2 e2t .
e) x(t) = Aet + Be−2t + (1/4) cos(2t) − (1/6) sin(2t).
f) x(t) = Ae−t + Be3t + (14/27 + 4t/9 + (t2 )/3)e2t .
g) x(t) = Aet + Be−t + C + Dt + Et2 − (2/3)t3 − (1/60)t5 .

194
Referencias

[1] Anton, H. Introducción al Álgebra lineal; Limusa, 1990.


[2] Arvesú, J., Álvarez, R., Marcellán, F. Álgebra lineal y aplicaciones; Sı́ntesis, 1999.
[3] Arvesú, J., Marcellán, F., Sánchez, J. Problemas resueltos de Álgebra lineal, Ed Thompson
Paraninfo, 2005.
[4] Borrelli, R., Coleman, C. S. Ecuaciones diferenciales, una perspectiva de modelación; Oxford
University Press, 2002.
[5] Burgos, J. de. Álgebra Lineal; Mc Graw-Hill, 1997.
[6] Fernández, C., Vázquez, F. J., Vegas, J. M. Ecuaciones diferenciales y en diferencias. Sis-
temas dinámicos; Thompson Paraninfo, 2005.
[7] Grossman, G. I. Álgebra lineal; McGraw-Hill, 1997.
[8] Kaplan, W. Ordinary Differential Equations; Addison-Wesley, 1961.
[9] Kolman, B. Álgebra lineal con aplicaciones y Matlab, 6a Edición; Prentice Hall, 1999.
[10] Lang, S. Introducción al Álgebra lineal; Addison-Wesley, 1990.
[11] Lay, D. C. Álgebra lineal y sus aplicaciones; Addison-Wesley, 2001.
[12] Marcellán, F., Casasús, L., Zarzo, A. Ecuaciones diferenciales, problemas lineales y aplica-
ciones; Mc Graw-Hill, 1991.
[13] Meyer, C. Matrix Analysis and Applied Linear Algebra; SIAM, 2000.
[14] Nagle, R.K.; Saff, E.B. Fundamentals of Differential Equations, 5th ed.; Addison-Wesley,
2004.
[15] Noble, B., Daniel, J. W. Álgebra lineal aplicada; Prentice-Hall, 1989.
[16] Pita, C. Ecuaciones diferenciales. Una introducción con aplicaciones; Limusa, 1992.
[17] Rojo, J. Álgebra lineal; Mc Graw-Hill, 2001.
[18] Ross, S. L. Introduction to Ordinary Differential Equations; John Wiley and Sons, 1989.
[19] Simmons, G. F. Ecuaciones diferenciales con aplicaciones y notas históricas; Mc Graw-Hill,
1993.
[20] Strang, G. Álgebra lineal y sus aplicaciones; Addison-Wesley, 2001.
[21] Tenenbaum, M., Pollard, H. Ordinary Differential Equations; Harper & Row, 1963.

195

Вам также может понравиться