Вы находитесь на странице: 1из 23

1.1.

Matrices y Aplicaciones Lineales

El objetivo de este cap tulo es jar algunas notaciones y convenciones, y tambin e dar un repaso rpido a algunos conceptos bsicos de lgebra lineal pero desde un a a a punto de vista que, quizs, no es el habitual. a Comenzamos recordando que una matriz no es ms que una familia de elementos a expuestos en un determinado orden de forma que su apariencia externa es la de un rectngulo de elementos ordenados: a

at em

at

ic

a1

.c om

ww w.

A"

" " !

a11 a21 . . .

a12 a22 . . .

am1 am2

. . . a1n . . . a2n . ... . . . . . amn

( 0 0 0 )

Esta parece ser la forma en que Sylvester (1885) introdujo originalmente las matrices. De forma abreviada escribiremos A  raij s 1im para indicar la matriz que tiene
1 j n

en la posicin o entrada pi, j q el elemento aij . Tambin diremos que aij es el elemento o e pi, j q de A. Si A  raij s 1im entonces diremos que A tiene m las y n columnas y que A es de orden o tamao m n o simplemente que es una matriz m n. Las n matrices con igual nmero de las y columnas se llaman cuadradas. La i-sima la u e y j-sima columna de A son las matrices e
" " " !
1 j n

 rai1 ai2

. . . ain s

aj

a1j a2j . . . amj

( 0 0 0, )

respectivamente. Los elementos de una matriz pueden ser de muy diferente naturaleza: nmeros, u polinomios, funciones continuas, etc. Por lo general son elementos de algn conjunto u con estructura de anillo (normalmente conmutativo y con elemento 1) de forma tal que si R es uno de tales anillos entonces podemos denir formalmente una matriz A de orden m n como una aplicacin: o :I

aij  bij di, j. Denotaremos con Rmn al conjunto de las matrices de tamao m n n con elementos en R. Podemos entonces denir la suma y producto de matrices: Si A  raij s Rmn y B  rbij s Rmn son matrices del mismo tamao entonces n
ww w.

1 j n

donde I  t1, 2, . . . , mu, J  t1, 2, . . . , nu y pi, j q  aij . De esta forma A es la aplicacin y dos matrices son iguales si lo son las aplicaciones que las denen. Es o decir, A  raij s 1im y B  rbij s 1ip son iguales si y slo si n  q, m  p y o

AB y si A  raij s Rmn y B

 rbij s Rnp, entonces


AB

at em at
1 j q

 raij bij s Rmn;



n k 1

aik bkj

En particular, si n  m  p entonces cualesquiera dos matrices de Rnn se pueden sumar y multiplicar y pRnn , , q es un anillo no conmutativo con elemento

ic a
'

J R

Rmp.

1 .c

om

identidad. Este elemento es la matriz

In

" " " !

0 ... 1 ... . .. . . . 0 0 ...

1 0 . . .

0 0 . . . 1

( 0 0 0 )

 rij s,

llamada matriz identidad. Las unidades de un anillo son aquellos elementos que admiten un inverso. En nuestro caso, y dado que Rnn es una anillo no conmutativo, diremos que una matriz A Rnn es una unidad, que admite inversa o, ms a nn comnmente, que es invertible si existe una unica B R u tal que AB  BA  In . Si A es invertible, a la unica matriz B tal que AB  BA  In se le llama inversa de A y se representa por A1 . Se puede demostrar que si R  F es un cuerpo y AB  In entonces A1  B. Esto es util porque nos dice que basta comprobar que A es invertible por la derecha (o izquierda) para demostrar que lo es por los dos lados. Debe observarse que si A1 , A2 Rnn son invertibles entonces el producto A1 A2 lo es y pA1 A2 q1  A2 1 A1 . As pues, el conjunto de las matrices invertibles n n 1 es un grupo, no abeliano, llamado grupo general lineal de orden n sobre R y que denotaremos por Gln pRq.

De esta forma el conjunto Rmn tiene estructura de mdulo libre sobre R. Una base o de este mdulo es el conjunto tEij : 1 i m, 1 j nu siendo Eij la matriz o cuyos elementos son todos cero excepto el de la posicin pi, j q que es 1. Dado que o R es conmutativo con elemento identidad, todas las bases de Rmn tienen el mismo nmero de elementos (a este nmero se le llama dimensin o rango del mdulo), en u u o o mn este caso mn. En particular, si R  F es un cuerpo, entonces F es un espacio vectorial y Fnn un lgebra, no conmutativa, de dimensin n2 . a o

1.1.1.

Algunos tipos de matrices

Dada una matriz A Rmn a la matriz que se obtiene al intercambiar las las por las columnas se le llama matriz transpuesta y se denota por AT . As si

ww

w.

at em at

Las matrices de Rmn se pueden multiplicar por elementos de R (escalares): Si x R y A  raij s Rmn entonces xA  rxaij s Rmn .

ic a

1 .c

om

A  raij s Rmn entonces AT  raji s Rmn . Las matrices que tienen la propiedad de ser iguales a sus transpuestas, A  AT ; i. e. matrices A  raij s tales que aij  aji para todos i y j, reciben el nombre de matrices simtricas. El nombre es debido, e posiblemente, a que sus elementos son simetr cos respecto de la diagonal principal. Es claro que estas matrices deben ser cuadradas. Si R  C, el cuerpo de los nmeros complejos, entonces cada elemento aij  u xij iyij de una matriz A admite un conjugado aij  xij iyij . La matriz A  raij s se mn llama matriz conjugada de A. La transpuesta conjugada de A C la denotaremos por A Cmn . Una matriz A Cnn se dice que es hermtica si A  A . Hay otras matrices que por su forma especial reciben nombres caracter sticos: 1. Matrices Diagonales Una matriz n n se dice que es diagonal si todos sus elementos son cero excepto los de las posiciones pi, iq, 1 i n. Si D Rnn y di es elemento que ocupa la posicin pi, iq, escribiremos: o D

En general si A Rnn los elementos aii , 1 i n, se dice que son o forman la diagonal principal de A. Las matrices diagonales se pueden considerar como un caso especial de matrices diagonales por bloques. Estas son las que tienen la forma: ( A1 0 . . . 0 " 0 A ... 0 0 2 " 0 " . . .. . 0 . . . ) ! . . . .
ww w.

siendo Ai una matriz cuadrada de tamao ni ni , 1 i p. n 2. Matrices Triangulares Una matriz A  raij s Rnn se dice que es triangular superior si aij  0 para i j. Si aij  0 para i j entonces A es triangular inferior. De la misma forma que con matrices diagonales, las triangulares son un caso particular de las matrices triangulares por bloques. Una matriz triangular superior por

at em at
0 0

ic a

 Diagpd1, . . . , dnq.

. . . Ap

1 .c

om

bloques tiene la siguiente forma: A"


" " !

A11 A12 0 A22 . . . . . . 0 0

. . . A1p . . . A2p . ... . . . . . App

( 0 0 0. )

con Aij

Rn n .
i j

3. Matrices de Permutacin o

Una matriz P Rnn se dice que es de permutacin si en cada la y columna o hay un elemento igual a 1 y todos los dems son cero. La multiplicacin por a o este tipo de matrices efecta una permutacin de las las o columnas del objeto u o multiplicado. As por ejemplo, 0 0 1 P  ! 1 0 0 ) y PT 0 1 0
( ( (

0 1 0 ! 0 0 1 ) 1 0 0

En general, si Sn es el grupo simtrico de orden n; i. e. el grupo de permutacioe nes de n elementos, y  pi1 , i2 , . . . , in q Sn ; i. e. pk q  ik , denotamos con P  ripj q s  riik s Rnn . Es decir, P es la matriz que tiene exactamente un 1 en la posicin p piq, iq, 1 i n y todos los dems elementos son cero. o a As en el ejemplo de arriba, P es la matriz de la permutacin  p2, 3, 1q. , o Notemos que P T
ww w.

Es decir, P pone la la 1 en la 2, la 2 en la 3 y la 3 en la 1. Y P T hace lo mismo pero en las columnas.

Es decir, P A se obtiene de A poniendo la la i en la piq, y AP T se obtiene de A poniendo la columna j en la pj q. Hay otros tipos de matrices que iremos deniendo a medida que los vayamos necesitando.

 P  P 1 y si A  raij s entonces P A  rapiqj s y AP T  raipj q s.


1

at em at

1 3  $ 1 2 3 PT P! 2 )! 1 ) y 3 2

1 .c

son matrices de permutacin y o

om

ic a

3 1 2 .

1.1.2.

Aplicaciones lineales

Si R  F es un cuerpo (sobreentendemos que es conmutativo) hay una relacin o muy estrecha entre las matrices con elementos en F y las aplicaciones lineales denidas entre espacios vectoriales sobre F. En efecto, sean V1 y V2 espacios vectoriales de dimensiones n y m, respectivamente, sobre F, y jemos bases B1 y B2 de V1 y V2 . As a cada aplicacin lineal f : V1 V2 le corresponde una matriz A  raij s Fmn o de la siguiente forma: los elementos de la j-sima columna de A son las compoe nentes de la imagen del j-simo vector de B1 respecto de la base B2 . Es decir, si e B1  tv1 , . . . , vn u, B2  tu1 , . . . , um u, y f pvj q 
m i 1

entonces la matriz A  raij s Fmn se llama la matriz de f respecto de las bases B1 y B2 . Rec procamente, dada la matriz A  raij s Fmn y jadas las bases B1 y B2 de V1 y V2 , respectivamente, la relacin (1.1) dene una unica aplicacin lineal entre estos o o espacios vectoriales. Dicho formalmente, si HompV1 , V2 q es el espacio vectorial de las aplicaciones lineales de V1 en V2 , y jadas bases en estos dos espacios vectoriales, los espacios vectoriales Fmn y HompV1 , V2 q son isomorfos y el isomorsmo est denido a a partir de la relacin (1.1). Conviene tener siempre presente este isomorsmo porque o nos permite traducir propiedades de las matrices en propiedades de las aplicaciones lineales entre espacios vectoriales y al revs. En particular, toda matriz A Fmn e puede verse como una aplicacin lineal entre los espacios vectoriales Fm y Fn . Para o ello identicamos Fn con Fn1 ; es decir, escribimos y hablamos indistintamente del vector x  px1 , x2 , . . . , xn q Fn y de la matriz columna (a la que llamaremos con mucha frecuencia vector columna):
" " !

aij ui ,

 1, . . . , n

(1.1)

x"

x1 x2 . . . xn

ww

( 0 0 0 )

w.

at em at


ic a

1 .c

om
$T

x1 x2 . . . xx

Fn1.

De esta forma, dada A Fmn , queda denida la aplicacin lineal (que seguimos o denotando con la letra A): A : Fn Fm x ; Ax

donde debemos entender que Ax es el vector columna que resulta de multiplicar A y el vector columna x.

1.1.3.

Dos interpretaciones del producto de matrices

Todo lo dicho hasta aqu concuerda con la interpretacin habitual del A o lgebra lineal. Desde este punto de vista la ecuacin Ax  b, que es un sistema no homogneo o e de ecuaciones lineales, se debe interpretar de la siguiente forma: b es la imagen por A del vector x. Por supuesto, esto es correcto, pero hay otra forma de mirar esta ecuacin que es mucho ms util para este curso y que pasamos a analizar ahora. o a En primer lugar, b  Ax signica que el vector b es el resultado de multiplicar la matriz A y el vector x: bi
(

n j 1

aij xj ,

i  1, . . . , m.
(

bm

at em at

b1 a11 a12 a1n "b 0 "a 0 "a 0 "a 0 " 2 0 " 21 0 " 22 0 " 2n 0 " . 0  " . 0 x1 " . 0 x2 " . 0 xn . . ) ! . ) . ) ! . ! . ! . ) . . am1

1 .c

Poniendo todas las componentes de b juntas:

om

ic a

am2

amn

y escribiendo A en funcin de sus columnas: o


ww

A  a1 a2

w.

an ,

tenemos que

b  x 1 a1 x 2 a2 x n an .

Es decir b es una combinacin lineal de las columnas de A cuyos coecientes son las o componentes del vector x. As pues, no es A quien acta sobre x para producir b, u sino que es x quien acta sobre A para producir b. Este es el punto de vista habitual u que adoptaremos en este curso. De la misma forma, si A Rmn y B Rnp tenemos una doble interpretacin o para la matriz C  AB Rmp . La tradicional ser que C es la matriz de la a composicin de las aplicaciones o Rp
A B Rn Rm

en las bases cannicas. La que ms nos interesa en este curso es la siguiente: Si cij o a es el elemento en la posicin pi, j q de C entonces o cij Por consiguiente cij
(

n k 1

aik bkj ,

1 i m,

1j

p.
(1.2)

 ai1b1j ai2b2j ainbnj ,


a12 a22 . . .

y si cj y bj son las j-simas columnas de C y B: e c1j a11 "c 0 "a " 2j 0 " 21 cj  " . 0  " . ! . ) ! . . . cmj As



cp
$

...

a1n b1j 0 "b 0 a2n 0 " 2j 0 . 0 " . 0  Abj , . )! . ) . . amn




 1, . . . , p.

am1 am2 c1 c2

bnj

De forma similar, de (1.2) sacamos que si ci y ai son las i-simas las de C y A, e entonces ci  ai B.
ww

Y esto signica que la i-sima la de C es una combinacin lineal de las las de B e o cuyos coecientes son las componentes de la i-sima la de A. e En resumen, en el producto de matrices AB: A acta sobre B provocando combinaciones lineales en las las de B, y B acta sobre A provocando combinaciones lineales en las columnas de A. Ejemplo 1.1 : Producto interno y producto externo de vectores. Sean u, v Rn . Se dene le producto interno de estos dos vectores como uT v, mientras que el producto externo es uv T .
w.

at em at

ic a

de modo que la j-sima columna de C es una combinacin lineal de las columnas de e o A cuyos coecientes son las componentes de la j-sima columna de B. e

1 .c

om

Ab1 Ab2

Abp ,

Hay una gran diferencia entre estos dos productos. Para empezar uT v R11 ; es decir, es un escalar mientras que uv T Rnn es una matriz. Adems, uT v es una a T combinacin lineal de las columnas de u con los coecientes de v o una combinacin o o lineal de las las de v con los coecientes de u. Tanto las columnas de uT como las las de v son de tamao 1 1, de modo que el resultado es un escalar: n

uT v

u1 u2

v1 n "v 0 $ un " ..2 0  uivi " 0 !.) vn


i 1

R.

Por su parte uv T se puede ver como una combinacin de las las de v T (slo hay o o una) cuyos coecientes son las componentes de u; o, como una combinacin lineal o de las columnas de u (slo hay una) cuyos coecientes son las componentes de v T o En conclusin, el producto exterior de u y v es una matriz n n cuyas columnas o son mltiplos del vector u, y cuyas las son mltiplos del vector v. u u Ejemplo 1.2 :Matrices elementales

Dada una matriz A Rmn , hay tres tipos de transformaciones elementales que se pueden realizar sobre A: (t1 ) Sumar a una la (o columna) de A otra la (o columna) multiplicada por un escalar. (t2 ) Multiplicar una la (o columna) de A por un escalar distinto de cero. (t3 ) Permutar dos las (o columnas) de A. Si las transformaciones se hacen en las las se habla de transformaciones elementales por las y si se hacen en las columnas de transformaciones elementales por columnas. Puesto que las transformaciones elementales por las en A producen combinaciones lineales de sus las, se tienen que poder realizar multiplicando una matriz apropiada por A. Y lo mismo por columnas: las transformaciones elementales por
ww w.

at em at

ic a

1 .c

om

columnas se pueden realizar multiplicando A por una matriz apropiada. Supongamos, por ejemplo, que se quiere sumar a la i-sima la la j-sima multiplicada por e e R. Y supongamos, por jar ideas, que i j. Si escribimos A en funcin de sus o las ( a1 " a2 0 " 0 A" . 0 ! . ) . am queremos obtener la matriz
" " " i "a " " " " " " !

a1 . . .

0 0 j0 a 0 0 . 0 . . 0 0 j a 0 0 . . ) .

at em at

i j

Puesto que cada la de B es una combinacin lineal de las las de A, debe existir una o matriz E1 pq tal que B  E1 pqA. Ahora bien, todas las las de A y B coinciden, excepto la i-sima que es ai aj . Por lo tanto e

ic a

1 .c
...

om
( 0 0 0 0 0 0 0 0 0 0 )

am

E1 pq

" " " " " " " " " " !

ww

w.

M
.. .

1 ... ... . . . 1 1

i j

Es claro que B

 E1pqA. De la misma forma


AE1 pq  a1


ai

aj

ai

an .

Ntese que en este caso, la columna que cambia es la j-sima. o e

Si lo que se quiere es multiplicar la i-sima la de A por e matriz E2 pq que lo produce es

0 entonces la

E2 pq

" " " " " " " " " !

1 ... 1

( 0 0 0 0 0 0 0 0 0 )

1 .. . 1

En efecto a1 " . 0 . " . 0


" 0 (

om


am

ww

w.

Finalmente, si lo que se quiere es permutar las las o columnas i y j debemos utilizar una matriz de permutacin, en realidad una transposicin: o o

at em at

E2 pqA  "ai 0 " . 0 ! . ) .

ic a

y AE2 pq  a1

ai

1 .c

an .

" " " " " " " " " " " " " " !

1 .. . 1

( 0 0 0 0 0 0 0 0 0 0 0 0 0 0 )

0 ... . .. . . . 1 ...

1 . . . 0 1 ... 1

i j

As a1 " . 0 " . 0 . PA 
" j0 "a 0 " . 0 " . 0 " . 0 " i0 "a 0 " . 0 ! . ) . (

y AP

a1

aj

ai

an .

am

Dada una matriz A  raij s Rmn , diremos que la matriz B  rbij s Rpq es una submatriz de A si existen ndices pi1 , . . . , ip q y pj1 , . . . , jq q tales que 1 i1 ip m, 1 j1 jq n y

ww

ai r j s

 brs,

w.

1.1.4.

Submatrices

Esto signica, simplemente, que los elementos que componen B estn en la intera seccin de algunas las y columnas de A: o

at em at
1r

ic a

Las matrices de la forma E1 pq, E2 pq y P se llaman matrices elementales. Debe notarse que estas matrices y las matrices de transposicin se obtienen de la o matriz identidad realizando sobre sta la misma transformacin elemental que se e o quiere conseguir sobre la matriz que van a actuar. As la matriz E1 pq de ms , a arriba se obtiene de la matriz In sumando a la la i la j-sima multiplicada por . e Y tambin se obtiene sumando a la columna j la i-sima multiplicada por . e e

p, 1 s q.

1 .c

om

b11

A

b21

t t

b12 b22

t t t

b13

i1 i2

b23

tb31 tb41

tb42

tb32

b33

i3 i4

b t 43 j3

j1

j2

Trabajaremos a menudo con submatrices para lo que vamos a introducir una notacin ms compacta y util. Denotamos con o a

el conjunto de todas las secuencias de r nmeros enteros positivos entre 1 y n. u

Qr,n, diremos que precede a en el orden lexicogrco, y escribiremos a , si la primera diferencia i i que no sea cero es positiva. Por ejemplo, si  p1, 3, 4, 7q y  p1, 3, 5, 6q entonces  p0, 0, 1, 1q y  p0, 0, 1, 1q. por lo tanto precede a en el orden lexicogrco: . a Dada una matriz A  raij s Rmn , si Qr,m y Qs,n , la matriz B  rbij s
Si , Rrs denida por
ww w.

at em at
 a ,
i j

ic a

bij

1 i r,

1 .c

Qr,n

 tpi1, . . . , ir q : 1 i1 . . . ir nu
om

1j

es una submatriz de A y se denotar por B

 Ar| s.

Esta notacin es muy parecida a la que usa MATLAB para denir submatrices o (vese la Gua de MATLAB para este curso). MATLAB utiliza parntesis en vez de a e

corchetes. Aqu los parntesis se usarn para designar la submatriz complementaria. e a Es decir, si Qr,n entonces la secuencia complementaria de es I Qnr,n que I I cumple la siguiente condicin: Si  p1 , . . . , r q y I  p1 , . . . , nr q entonces o

I I t1, . . . , r , 1, . . . , nr u  t1, 2, . . . , nu.

Si Qr,m y Qs,n y I , I son las secuencias complementarias en t1, . . . , mu y t1, . . . , nu, entonces pondremos Ap| q  A  rI | I s.

Ejemplo 1.3 .- El siguiente ejemplo puede ayudar a claricar la notacin. Sea o 0 " 3 A" ! 4 7 Ar1, 2|1, 3s 


1 2 5 6

2 1 6 5
&

3 0 0 0 7 ) 4 0 3
&

Aunque en la seccin anterior hemos procurado actuar con la mxima generalio a dad acerca del anillo en el que estn denidas las matrices, a partir de ahora, nuestras a matrices supondremos que tienen sus elementos en un cuerpo (siempre conmutativo), F, y casi siempre podremos pensar que este cuerpo es el de los nmeros reales u o complejos. Comenzamos con dos conceptos bsicos bien conocidos: la imagen y a el ncleo de una matriz se denen como la imagen y ncleo de la correspondiente u u aplicacin lineal asociada. o Denicin 1.4 .- Sea A Fmn . Se dene o ImpAq  ty

ww

w.

1.2.

Imagen y N cleo de una matriz u

Fm|y  Ax para algn x Fnu.

at em at

Ap2, 3|3q  Ar1, 4|1, 2, 4s 

ic a

a11 a13 a21 a23

1 .c

om

2 1


&

a11 a12 a14 a41 a42 a44

0 7

1 6

3 4

&

KerpAq  tx Fn |Ax  0u.

En estos dos conceptos aparece un sistema de ecuaciones lineales. Podemos utilizar la interpretacin que hemos hecho en la Seccin 1.1.3 acerca del signicado o o de multiplicar matrices para conseguir una nueva caracterizacin de estos conjuno n tos. Recordemos que si a1 , . . . , an son vectores de F , el subespacio de Fn generado por estos vectores , y que denotaremos indistintamente por a1 , . . . , an o por Span pa1 , . . . , an q, es el conjunto de todas las combinaciones lineales de a1 , . . . , an :

a1, . . . , an  Span pa1, . . . , anq 

i 1

x i ai | x i

Proposicin 1.5 .- ImpAq es es subespacio de Fm generado por las columnas de A. o Demostracin.- Tenemos que demostrar que si A  a1 a2 o Im A  a1 , a2 , . . . , an . Ahora bien
om


ic a

1 .c

x i ai ,

an entonces

at em at

Im A y  Ax,

para algn x Fm

y

n i 1

De forma similar, los vectores x Ker A son aquellos cuyas componentes son los coecientes del vector 0 como combinacin lineal de las columnas de A: 0  o x1 a1 x2 a2 xn an .

1.2.1.

Rango y nulidad

El rango por columnas de una matriz es la dimensin del espacio que generan sus o columnas. Y el rango por las de una matriz es la dimensin del espacio que generan o sus las. Ambos nmeros coinciden para cada matriz (hay varias pruebas posibles u de este hecho, una de ellas se puede obtener como corolario del Teorema SVD que

ww

donde x1 , . . . , xn son las componentes de x. La ultima equivalencia es, como ya hemos mencionado, debida a que y  Ax si y slo si y es una combinacin lineal de o o las columnas de A cuyos coecientes son las componentes de x.
w.

discutiremos en Lecciones posteriores). Nos referiremos a este nmero comn como u u el rango de la matriz y, para una matriz A, lo representaremos por rangpAq. Por otra parte, la nulidad de A Fmn se dene como la dimensin de Ker A o y la denotaremos con el s mbolo pAq. Los teoremas de isomorfa nos dan una relacin estrecha entre nulidad y rango. En efecto, de acuerdo con la Proposicin 1.5, o o rangpAq  dim Im A y de acuerdo con los teoremas de isomorfa de aplicaciones lineales dim Im A  n dim Ker A. As pues rangpAq  n pAq. Diremos que una matriz m n tiene rango completo si su rango es el mximo a posible; es decir, el ms pequeo de los nmeros m y n. As pues, si m n y a n u mn AF tiene rango completo, se tiene que las n columnas de A son linealmente independientes. Esto a su vez signica que el unico vector x  px1 , . . . , xn q para el que x1 a1 xn an  0 es x  0; es decir, Ker A  t0u. Y esto equivale a que la aplicacin lineal que dene A es inyectiva. De la misma forma, si m n y A tiene o rango completo entonces dim Im A  m y como Im A Fm debe ser Im A  Fm ; i.e., A es suprayectiva. Finalmente, si m  n y A tiene rango completo entonces la aplicacin lineal que dene es biyectiva. Es decir, A es invertible: hay una nica o matriz B Fnn tal que AB  BA  In . A esta nica matriz se le llama inversa de A y se representa por A1 . El siguiente Teorema recoge unas cuantas propiedades bien conocidas equivalentes a que una matriz sea invertible. Algunas de ellas ya han sido demostradas ms a arriba. Teorema 1.6 Para A Fnn las siguientes condiciones son equivalentes: 1. A tiene inversa A1 . 2. rangpAq  n. 3. Im A  Fn . 4. pAq  0. 5. Ker A  t0u.
ww w.

at em at

ic a

1 .c

om

6. 0 no es un valor propio (autovalor) de A. 7. detpAq $ 0. Recordemos que , escalar en, quiz, un cuerpo extensin de F, es un valor a o propio si hay un vector no nulo x tal que Ax  x. Si 0 fuera valor propio de A entonces Ax  0 para algn x $ 0. As Ker A $ t0u. Y rec u procamente. En cuanto a la propiedad detpAq $ 0, se trata de una consecuencia inmediata de las propiedades bsicas de los determinantes para matrices sobre cuerpos. Y en a cuanto a terminolog las matrices que cumplen la propiedad detpAq $ 0 se llaman a, no singulares o regulares. Por lo tanto, no singularidad e invertibilidad son conceptos equivalentes para matrices sobre cuerpos. Asociada al determinante recordemos que hay una caracterizacin del rango de o una matriz que la mencionamos por completitud porque tanto ella como el propio concepto de determinante no son de utilidad desde un punto de vista numrico: el e rango de A es el tamao de la mayor submatriz con determinante no nulo de A. A n los determinantes de las submatrices de una matriz tambin se les llama menores e de la matriz.

no debemos pensar en el vector x como el resultado de multiplicar la inversa de la matriz A por el vector b, sino que A1 b es el vector cuyas componentes son los coecientes de b escrito como combinacin lineal de las columnas de A. En efecto, o esto es consecuencia de la siguiente obvia equivalencia para las matrices invertibles:
ww w.

O tambin, si A es invertible entonces Im A  Fn y las columnas de A forman una e base de Fn . Las componentes del vector A1 b son las coordenadas de b en esta base.

1.3.

Factorizacin LU o

La factorizacin LU se estudia en el curso de Mtodos Numricos bajo la denoo e e minacin de Algoritmos de Doolittle y Crout. La repasamos ahora brevemente. o

at em at

Una observacin nal en la l o nea de lo expuesto en la Seccin 1.1.3. Cuando o escribimos x  A1 b

Ax  b x  A1 b

ic a

1 .c

om

El objetivo de la factorizacin LU es la resolucin de sistemas de ecuaciones o o lineales; y el procedimiento sobre el que se sustenta es la eliminacin Gaussiana. o Supongamos, como una primera aproximacin, que se nos pide resolver el siguiente o sistema de ecuaciones lineales: 10 !2 5 y pongamos 10 A  !2 5

20 2 20
4 1 4

0 x1 6 ) ! x2 )  ! 4 ) 6 8 x3 11 0 x1 6 6) , x  !x2 ) , b  ! 4 ) 9 x3 11
( ( (

M11 entonces

at em at

1 0 0 !2{10 1 0) y M12  0 0 1

1 0 0 ! 0 1 0)  5{10 0 1
(

Notemos que M1

ww

w.

10 !0 M12 M11 A  0

20
0 8

0 6 ) y M12 M11 b  !5,2) 6 8 8


(

 M12M11

1 0 0  ! 2{10 1 0) ; 5{10 0 1

es decir, podemos condensar todas las operaciones elementales hechas en la primera columna en una unica matriz que diere de la identidad en que los elementos en la primera columna son los nmeros por los que hay que multiplicar el elemento en la u posicin p1, 1q para anular los restantes elementos de la primera columna. o El siguiente paso es proceder con los elementos de la segunda columna que estn a por debajo de la diagonal de la misma forma. En nuestro ejemplo, sin embargo, tenemos un problema: el elemento en la posicin p2, 2q es 0; no podemos usarlo para o

ic a

1 .c

om

La eliminacin Gaussiana consiste en operar sobre las las del sistema para reducir o a cero todos los elementos de la primera columna de la matriz de los coecientes. El primer paso sera sumar a la segunda la la primera multiplicada por 2{10 y sumar a la tercera la la primera multiplicada por 5{10. Se trata, en realidad, de hacer transformaciones elementales: si
(

eliminar el elemento en la posicin p3, 2q. o 2 y 3. Para ello denimos 1 !0 P  0

El remedio es fcil: permutamos las las a 0 0 0 1) 1 0


(

Esta es una matriz de permutacin que al premultiplicar cualquier matriz por ella, o permuta en aquella las las 2 y 3. As 10 !0 P M1 A  0

20
8 0

0 6 ) y P M1 b  ! 8 ) 8 6 5,2

Siguiendo con esta matriz, sumamos a su tercera la la segunda multiplicada por 1{90; i.e, premultiplicamos por

at em at

10 !0 M1 A  0

0,1 8

ic a

20

0 10 ) y P M1 A  ! 0 6 8 0

1 .c

om

La estrategia de permutar las conviene usarla, por motivos que por ahora no se pueden explicar con brevedad, no slo cuando el elemento de la posicin diagonal o o es cero, sino para colocar en dicha posicin el elemento que, en valor absoluto, sea o el mayor de la columna por debajo de la diagonal. Por ejemplo, si sustitu mos el 4 en la posicin p2, 2q de la matriz original A por 4,1 entonces o

20
8 0,1

0 8) . 6

1 !0 M2  0

0 0 1 0) : 1{80 0 0 6 8 ) y M2 P2 M1 b  ! 8 ) 5,9 5,1


 ( (

ww

w.

10 M2 P M1 A  ! 0 0

20
8 0

De aqu se obtiene filmente la solucin: c o x3

51 , x2 59

1 8

51 88 59

8 , x1 59

1 10

8 6 20 59

6  10 16 . 59

Recordamos que a este proceso se le llama sustitucin hacia atrs. o a

Observemos ahora que

I I y que P T  P . Es decir, P M1  M1 P siendo M1 la matriz que se obtiene de M1 al I intercambiar los elementos en las posiciones p2, 1q y p3, 1q. As pues, si M2  M2 I I M2 M1 P A  U
siendo
(

1 0 0 !5{10 1 0)  M I P M1 P  1 2{10 0 1

I I una matriz triangular superior. Finalmente, las inversas de M1 y M2 son muy fciles a de calcular: basta cambiar de signo los elementos que estn fuera de la diagonal: a
1 0 0 I 1 L1  M1  ! 5{10 1 0) , L2 2{10 0 1
(

10 U !0 0

20
8 0

0 8) 5,9

A esta forma de escribir P A siendo P la matriz de permutacin que se obtiene o al elegir para elemento diagonal el de mayor valor absoluto en la correspondiente columna por debajo de la diagonal, se le llama descomposicin o factorizacin LU o o de A con pivoteo por columnas. Este ha sido un ejemplo de un resultado general: dada una matriz no singular A Fnn , (F  R o C), realizando transformaciones elementales por las se puede reducir A a una matriz U que es triangular superior. En concreto, existen matrices M1 ,. . . , Mn1 con la forma 1 0 ". ... . 1 ". " Mi  "0  ". . . . !. . . . .. . . 0  0
( 0

ww

w.

at em at

Poniendo L  L1 L2 obtenemos una matriz triangular inferior con elementos todos iguales a 1 en la digaonal. Adems a P A  LU

ic a

1 .c
1

1 0 0  !0 1 0) 0 1{80 0
om

00 0 00 .0 .) .

y matrices de transposicin P1 ,. . . , Pn1 tales que o Mn1 Pn1 . . . M2 P2 M1 P1 A  U. Y si Li es la matriz que se obtiene intercambiando en Mi los elementos en la columna i correspondientes a la transposicin Pi1 y cambiados de signo, entonces o Pn1 . . . P1 A  L1 . . . Ln1 U. Poniendo P

 Pn1 . . . P1 y L  L1 . . . Ln1 tenemos que P A  LU

es una descomposicin LU de A con pivoteo por columnas. o La siguiente funcin de MATLAB permite obtener una descoposicin LU de una o o matriz dada A. Se trata de una versin legible de la funcin LU de MATLAB. Se o o pone el s mbolo % para explicar brevemente el signicado de cada l nea.

% Calculamos el tama~o de A n [n,n] = size(A); %Iniciamos p=[1 2 ... n]^T p = (1:n); %Transformaciones elementales en las columnas 1, 2,..., n. for k = 1:n-1 %Calculamos el mximo, r, (en valor absoluto) de los elementos a % A(k,k), A(k,k+1),...,A(k,n), y la posicin, m, donde se encuentra o [r,m] = max(abs(A(k:n,k))); % Calculamos la posicin del mximo en toda la columna k-sima de A o a e m = m+k-1; %Si el mximo fuera cero es porque toda la columna es cero y A no ser a %invertible if (A(m,k) ~= 0) %Si el mximo no est en la diagonal permutamos a a
ww w.

at em at

%LUTX devuelve matrices L, triangular inferior con 1 en la diagonal, %U, triangular superior y un vector p, tal que si P es la matriz de %permutacin que corresponde al vector p, se tiene PA=LU o

ic a

1 .c

function [L,U,p] = lutx(A)

om

El algoritmo LU es el primer algoritmo que vemos en este curso. Se trata de un algoritmo sencillo pero eso no signica que sea bueno. Disear buenos algoritmos n puede ser una tarea complicada y decidir si un algoritmo es bueno tambin. Hay dos e propiedades fundamentales que se deben exigir a un buen algoritmo: que sea estable y sea poco costoso. Estudiaremos en cap tulos posteriores lo que signica que un algoritmo sea estable y analizaremos si la eliminacin gaussiana lo es. o Para un algoritmo como el que acabamos de ver, su coste se mide en funcin del o nmero de operaciones que hay que realizar. A estas operaciones se les suele llamar u ops (por oating point operations). Cada suma, resta, multipliacin y divisin es o o una op. No distinguiremos entre operaciones con nmeros reales o complejos y u tampoco prestaremos atencin a otras operaciones que realizan internamente los o ordenadores (como asignacin de memoria o realocacin de variables, dedicacin o o o de los procesadores a las distintas tareas que se estn realizando en el momento de e
ww w.

at em at

Una vez se ha obtenido una descomposicin LU de A, la resolucin del sistema o o Ax  b es simple: se obtiene la solucin del sistema Ly  b mediante sustitucin o o hacia adelante; y a continuacin la solucin de U x  y mediante sustitucin hacia o o o atrs. a

ic a

1 .c

if (m ~= k) %permutamos las filas k y m A([k m],:) = A([m k],:); % y las posiciones k y m de p p([k m]) = p([m k]); end %Almacenamos en la columna k desde la posicin diagonal para abajo o %los elementos de L i = k+1:n; A(i,k) = A(i,k)/A(k,k); % Realizamos sobre las filas i=k+1,...,n la transformacin elemental o j = k+1:n; A(i,j) = A(i,j) - A(i,k)*A(k,j); end end %En la parte triangular inferior de A (sin la diagonal) est L a L = tril(A,-1) + eye(n,n); %Y en la parte triangular superior (incluyendo la diagonal) est U a U = triu(A);
om

correr el algoritmo, etc). No obstante se debe saber que estos factores pueden afectar en gran medida al tiempo necesario para la implementacin del algoritmo. o Normalmente el nmero de ops es un polinomio en el tamao de la matriz. u n De este polinomio slo se suele destacar el trmino de grado mayor. As se suele o e , 2 3 decir que el coste del algoritmo LU es del orden de n y se escribe habitualmente 3 2 3 3  3 n o simplemente Opn q. Cmo se calcula este nmero? Observando que slo o u o hay operaciones aritmticas en dos l e neas del algoritmo: A(i,k) = A(i,k)/A(k,k); A(i,j) = A(i,j) - A(i,k)*A(k,j) La primera consiste de una divisin mientras que la segunda de una resta y una o multiplicacin. Esta domina a aquella y teniendo en cuenta que la longitud del o vector j es l  n k 1 resulta que 2l es el nmero de operaciones necesario para u conseguir los elementos de la la i. Y esto hay que repetirlo para i  k 1 : n y para k  1 : n 1. As pues, el nmero de operaciones est dominado por la expresin: u a o

k 1i k 1j k 1

  

k 1

tal y como se ha dicho ms arriba. Se dice entonces que el coste del algoritmo LU a es de orden cbico. u

ww

w.

at em at

ic a

1 .c
k 1

n 1

2

n 1

2pn k q2

n 1

om

2k 2

 2 npn 1qp2n 1q  2 n3 6 3

Вам также может понравиться