Вы находитесь на странице: 1из 14

M etodos Estad sticos III

Villa Cox/Sabando

Apuntes de Clase # 4
Fecha: II T ermino-2012

1.

Distribuciones multivariantes

Los resultados de las distribuciones bivariantes se pueden extender directamente a m as de dos variables. Para ello es conveniente utilizar matrices y vectores. El t ermino vector aleatorio se aplica a un vector cuyos elementos son variables aleatorias. La funci on de densidad conjunta es f (x), mientras que la FD es
xn xn1 x1

F (x) =

f (x)dx1 dxn1 dxn

N otese que la FD es una integral en n variables. La distribuci on marginal de cada una (o de varias) de las n variables se obtiene integrado o sumando sobre las otras variables.

2.

Momentos

El valor esperado de un vector, o matriz, es el vector o matriz de valores esperados. Un vector de medias se dene como 1 E [x1 ] 2 E [x2 ] . . = E [x ] = = . . . . E [xn ] n Denamos la matriz (x )(x ) = (x1 1 )(x1 1 ) (x2 2 )(x1 1 ) (xn n )(x1 1 ) (x1 1 )(x2 2 ) (x2 2 )(x2 2 ) (xn n )(x2 2 ) (x1 1 )(xn n ) (x2 2 )(xn n ) (xn n )(xn n )

El valor esperado de cada elemento de la matriz es la covarianza de las dos variables del producto. (La covarianza de una variable consigo misma es su varianza.) Por tanto, (x )(x ) ] E [( = =

11 21 n1

12 22 n2

1n 2n nn

= E [xx ] que es la matriz de varianzas y covarianzas del vector aleatorio x. Por tanto, representaremos la matriz de varianzas y covarianzas de un vector aleatorio en negrilla, como en Var[x] = Dividiendo ij por i j , obtenemos la matriz de correlaci on: A4-1

R=

1 21 n1

12 1 n2

13 23 n3

1n 2n 1

2.1.

Conjuntos de funciones lineales

La media y la varianza de una funci on lineal se pueden extender al caso multivariante. Para la media, ax = E [a x] = a1 E [x1 ] + a2 E [x] + ... + an E [xn ] = a1 1 + a2 2 + ...an n = au Para la varianza, ax V ar[a x] a x E [a ax E [(a x])2 ] a (x E [x]) = E [(a [x]))2 ] a (x )(x ) a = E [a a]

E [a1 x1 + a2 x2 + ... + an xn ]

x] = y a (x ) = (x ) a ya que E [x a. Como a es un vector de constantes, ax V ar[a x] x ) ]a a = a E [(x )(x = a a


n n

=
i=1 j =1

ai aj ij

Como es el valor esperado de un cuadrado, sabemos que la varianza no puede ser negativa. Como tal, la forma cuadr atica anterior es no negativa, y la matriz sim etrica tiene que se no-negativa denida. En el conjunto de funciones lineales y = Ax el elemento i esimo de y es yi = ai x x, donde ai es la i- esima la de A. Por lo tanto, E [yi ] = ai . Agrupando los resultados en un vector, tenemos E [Ax] = A . Para dos vectores la ai y aj , ai x, aj x Cov[a x] = ai aj . esimo elemento de AA , Como ai aj es el ij - Ax Var[Ax Ax] = AA . Este ser a no-negativa denida o positiva denida, dependiendo del rango de las columnas A.

A4-2

3.

La distribuci on Normal Multivariante

El fundamento de la mayor a de los an alisis multivariantes en econometr a es la distribuci on normal multivariante. Sea el vector (x1 , x2 , ..., xn ) = x el conjunto de n variables aleatorias, su vector de medias, y su matriz de varianzas y covarianzas. La forma general de la funci on de densidad conjunta es f (x) = (2 )n/2 ||
1/2 (1/2)(x) 1 (x)

Si R es la matriz de correlaci on de las variables y Rij = ij /(i j ), f (x) = (2 )n/2 (1 2 n )1 |R|1/2 e(1/2)
R1

donde i = (xi i )i . Hay dos casos de especial inter es. Si todas las variables est an intercorrelacionadas, ij = 0 para i = j . Por tanto, R = I, y la funci on de densidad es f (x) = = (2 )n/2 (1 2 n )1/2 e
n /2

f (x1 )f (x2 ) f (xn ) =


i=1

f (xi ).

Como en el caso bivariante, si las variables normalmente distribuidas no est an correlacionadas, son independientes. Si i = y = 0 0, entonces xi N [0, 2 ] y i = xi / , y la funci on de densidad es f (x) = (2 )n/2 ( 2 )n/2 ex x/(2 Finalmente, si = 1, f (x) = (2 )n/2 ex x/2 Esta es la normal multivariante estandarizada o distribuci on normal esf erica.
2

3.1.

Funciones lineales de vectores normales

Cualquier funci on lineal de un vector de variables distribuidas conjuntamente como una normal, se distribuye tambi en normalmente. El vector de medias y la matriz de varianzas y covarianzas de Ax, donde x est a normalmente distribuida, sigue el patr on general dado anteriormente. Por tanto, Six N [, ] , Ax + b N [A + b, A A ] Si A no tiene rango completo A A es singular, y la funci on de densidad no existe. Aun as , los elementos individuales de Ax + b seguir an estando normalmente distribuidos, y la distribuci on conjunta del vector completo seguir a siendo una normal multivariante.

3.2.

Formas cuadr aticas en un vector normal estandarizado

El an alisis previo de la distribuci on chi-cuadrada nos permite obtener la distribuci on de x x cuando x sigue una distribuci on normal estandarizada. Se sigue que
n n

xx=
i=1

x2 i =
i=1

( xi x )2 + nx 2

Para demostrar que los dos t erminos de x x siguen una distribuci on chi-cuadrada o que los dos t erminos son independientes, es necesario derivar las distribuciones de formas cuadr aticas idempotentes y mostrar cu ando son independientes. , que puede mostrarse Comenzamos notando que el segundo t ermino es el cuadrado de nx f acilmente que se distribuye como una normal estandarizada. Por tanto, el segundo t ermino es el cuadrado de una variable normal estandarizada, y sigue una distribuci on chi-cuadrado con un grado de libertad. Pero el primer t ermino es la suma de n variables dependientes, y queda por demostrar que los dos t erminos son independientes. A4-3

0, 1 Denici on 3.2.1 Formas cuadr aticas ortogonales Si x N [0 1] y C es una matriz cuadrada 0, 1 tal que C C=I, entonces C x N [0 1]. Considere, entonces, una forma cuadr atica en un vector normal estandarizado x q = x Ax Si reordenamos las ra ces caracter sticas y vectores de A, en una matriz diagonal y en una matriz ortogonal C. Entonces q = x CC x Por denici on, C satisface el requisito de que C C = I. Por tanto, el vector y = C x sigue una distribuci on normal estandarizada. Consecuentemente, q = =
i=1

y y
n

i y2 i

Si i es siempre 1 o 0,
J

q=
j =1

2 yi ,

que sigue una distribuci on chi-cuadrado. La suma se efect ua sobre los j=1,...,J elementos asociados con las ra ces que son iguales a 1. Una matriz cuyas ra ces caracter sticas son todas 0 o 1 es idempotente. Por tanto, hemos probado el siguiente teorema. Teorema 3.2.1 Distribuci on de una forma cuadr atica idempotente en un vector normal 0, 1 estandarizado. Si x N [0 1] y A es idempotente, entonces x Ax se distribuye como una chicuadrada con grados de libertad igual al n umero de ra ces unitarias A. El rango de una matriz es igual al n umero de sus ra ces caracter sticas distintas de cero. Por tanto, el n umero de grados de libertad en la distribuci on chi-cuadrado anterior es igual a J, que es el rango de A. Podemos aplicar este resultado a la suma de cuadrados anterior. El primer t ermino es
n

(xi x )2 = x M x,
i=1

donde M se ha denido como la matriz que transforma los datos en forma de desviaciones sobre su media M = I 1 ii . n

Como M es idempotente, la suma de desviaciones al cuadrado de la media se distribuye como una chi-cuadrado. Los grados de libertad son igual al rango M , dado que el rango de una matriz idempotente es igual a su traza. Cada elemento diagonal de M es 1 1(1/n) por tanto, la traza es n[1 (1/n)] = n 1. Por consiguiente tenemos una aplicaci on del teorema 3.2.1.
n

0, I ], Si x N [0
i=1

( xi x )2 2 [n 1]. El segundo t ermino se distribuye como una chi-cuadrado

con un grado de libertad. Es aleccionador poner esto, tambi en, como una forma cuadr atica: nx 2 1 ii x n

= =

x [jj ]x,

A4-4

donde j= 1 i n

La matriz entre par entesis es el producto exterior de un vector no-cero, que siempre tiene rango uno. Se puede comprobar que es idempotente multiplic andola por s mismo. Por tanto, x x es la suma de dos variables chi-cuadrado, una con n 1 grados de libertad y la otra con uno. Necesitamos, ahora, mostrar que los dos t erminos son independientes. Para ello utilizaremos el siguiente teorema. 0, I ] y x Ax Teorema 3.2.2 Independencia de formas cuadr aticas indempotentes Si x N [0 y x Bx son dos formas cuadr aticas idempotentes en x, entonces x Ax y x Bx son independientes si AB=0. Como tanto A como B son sim etricas e idempotentes, A = A A y B = B B. Las formas cuadr aticas son, por tanto, x Ax = x A Ax = x1 x1 , donde x1 = Ax y x Bx = x2 x2 , donde x2 = Bx

Ambos vectores tienen vectores de media cero, por tanto la matriz de varianzas y covariazas de x1 y x2 es E (x1 x2 ) = AIB = AB = 0 Como Ax y Bx son funciones lineales de un vector aleatorio normalmente distribuido, estas est an, a su vez, normalmente distribuidas. Como su matriz de varianzas y covarianzas es cero, implica que son estad sticamente independientes. Esto establece la independencia de las dos formas cuadr aticas. Para el caso de x x, las dos matrices son M y [I M ]. Se puede comprobar que M [I-M ] = 0 simplemente multiplic andolas.

4.

Ra ces y vectores caracter sticos

Un conjunto u til de resultados para analizar una matriz A surge de las soluciones al conjunto de ecuaciones Ac = c. Las soluciones son los vectores caracter sticos c y las ra ces caracter sticas . Si c es cualquier vector soluci on, k c tambi en lo ser a para cualquier valor de k . Para eliminar la indeterminaci on, se normaliza c, de modo que c c = 1. La soluci on, entonces, consiste en y las n 1 inc ognitas de c.

4.1.

La ecuaci on caracter stica

Resolviendo la ecuaci on 4 se puede proceder, en principio, de la siguiente forma: En primer lugar, implica que Ac = Ic o que (A I )c = 0 Este es un sistema homog eneo que tiene una soluci on no nula, s olo si la matriz (A I) es singular, o si tiene un determinante cero. De esta forma, si es una soluci on, |A I| = 0. Este polinomio en es la ecuaci on caracter stica de A. Por ejemplo, si

A4-5

A= entonces

5 2

1 4

|A I| = = =

5 2

1 4

(5 )(4 ) 2(1) 2 9 + 18.

Las dos soluciones que se obtiene son = 6 y = 3. Al resolver la ecuaci on caracter stica, no est a garantizado que las ra ces caracter sticas sean reales. En el ejemplo anterior, si en lugar de tener un 2 en la esquina derecha inferior de la matriz tuvi eramos el valor -2, obtendr amos como soluci on dos valores complejos. El mismo problema puede surgir en el caso general n n. Sin embargo, las ra ces caracter sticas de una matriz sim etrica son reales. Este resultado ser a conveniente, porque la mayor a de nuestras aplicaciones requieren las ra ces caracter sticas y vectores de matrices sim etricas. Para una matriz n n, la ecuaci on caracter stica es un polinomio de n esimo orden en . Sus soluciones pueden ser n valores distintos, como ocurrir a en el ejemplo anterior, o pueden contener valores repetidos de , como en, 2 0 0 2 = (2 )2 1 2 = 2,

y pueden, tambi en, contener ceros, como en 1 2 2 4 = 2 5 = 0 1 = 5 y 2 = 0.

4.2.

Vectores caracter sticos

Con dado, los vectores caracter sticos se derivan el problema original Ac = c o (A I)c = 0. Para el primer ejemplo, tenemos 5 2 1 4 c1 c2 = 0 0

Los dos valores asociados a son 6 y 3. Introduciendo estos valores en la ecuaci on anterior, obtenemos lo siguiente: Para = 6, c1 + c2 = 0 y 2c1 + c2 = 0 o c1 = c2 . Para = 3, 2c1 + c2 = 0 y 2c1 + c2 = 0 o c1 = 1/2c2 . En ning un caso se pueden determinar los valores c1 y c2 . Pero esto era de esperar: esta fue la raz on por la que se ha especicado al principio c c = 1. As , por ejemplo, si = 6, cualquier vector c con iguales elementos que la satisfar a. La ecuaci on adicional c c = 1, permite obtener, sin embargo, soluciones completas para ambos vectores. 1/2 Para = 6, c = 1/ 2 A4-6

Para

= 3, c =

1/ 5 2/ 5

Estos son los u nicos vectores que satisfacen c c = 1.

4.3.

Resultados generales para ra ces y vectores caracter sticos

Una matriz sim etrica K K tiene K vectores caracter sticos diferentes, c1 , c2 ck . Las ra ces caracter sticas correspondientes, 1 , 2 , k , aunque reales, no tienen por qu e ser distintas. Los vectores caracter sticos de una matriz sim etrica son ortogonales. Esto implica que para cada i = j , ci cj = 0. Es conveniente agrupar K vectores caracter sticos en una matriz K K cuya i- esima columna es el ci correspondiente a i , C = [c1 c2 ck ],

y las K ra ces caracter sticas en el mismo orden, en una matriz diagonal, 1 0 0 0 0 2 0 0 = 0 0 0 0 k Entonces, el conjunto total de ecuaciones Aci = i ci est a contenido en AC = C. Dado que los vectores son ortogonales y ci ci c1 c1 c2 c1 CC= cK c1 Este resultado implica que C = C1 Consecuentemente, CC = CC1 = I = 1, entonces c1 c2 c2 c2 c1 cK c2 cK =I cK cK

cK c2

4.4.

Diagonalizaci on y descomposici on espectral de una matriz

Si a esta ecuaci on AC = C se multiplica por C y usando la matriz C C, podemos extraer las ra ces caracter sticas de A. Denici on 4.4.1 Diagonalizaci on de una matriz. La diagonalizaci on de una matriz A es C AC = C CA = I = Denici on 4.4.2 Descomposici on espectral de una matriz. La descomposici on espectral de una matriz A es
K

A = CC =
k=1

k ck ck .

A4-7

En esta representaci on, la matriz A K K se escribe como una suma de K matrices de rango uno. Llamamos a esto, descomposici on de A en autovalores o vectores propios. En este contexto, el t ermino signatura de la matriz se emplea a veces para describir las ra ces caracter sticas y vectores. Otros t erminos empleados para las partes de esta descomposici on son ra ces latentes y vectores latentes de A.

4.5.

Rango de una matriz

Teorema 4.5.1 Rango de una matriz sim etrica El rango de una matriz sim etrica es el n umero de ra ces caracter sticas distintas de cero que contiene. Si cualquiera de las ra ces caracter sticas es cero, el n umero de matrices de rango uno en la suma se reduce correspondientemente. Podr a parecer que esta regla simple no ser a u til si A no fuera cuadrada. Sin embargo, puesto que rango(A) = rango(A A) Dado que A A es siempre cuadrada, podemos usarla en lugar de A. De hecho, podemos usarla incluso si A es cuadrada, lo cu al proporciona un resultado general. Teorema 4.5.2 Rango de una matriz El rango de cualquier matriz A es igual al n umero de ra ces caracter sticas distintas de cero en A A. Este resultado es u til porque proporciona un m etodo simple de obtener el rango de una matriz no sim etrica. En cuanto al c omputo, obtener las ra ces caracter sticas de matrices no sim etricas es bastante dif cil, y requiere el uso de aritm etica compleja. Pero las matrices sim etricas son mucho m as simples de analizar, debido a que sus ra ces son reales. Teorema 4.5.3 Ra ces de un producto externo de matrices Las ra ces caracter sticas no nulas de AA son las mismas que las de A A. Si una ra z caracter stica de una matriz es cero, entonces Ac = 0. Por tanto, si la matriz tiene una ra z cero, debe ser singular. De otro modo no existir a ning un c distinto de cero. En general, una matriz es singular, es decir, no tiene rango completo, si y s olo si tiene al menos una ra z nula.

4.6.

Traza de una matriz

La traza de una matriz cuadrada K K es al suma de los elementos de la diagonal:


K

tr(A) =
i=1

aii

Algunos resultados f aciles de comprobar son

tr(cA) tr(A ) tr(A+B) tr(Ik )

= = = =

c(tr(A)), tr(A), tr(A) + tr(B), K

Un resultado particularmente u til es la traza del producto de matrices: tr(AB) = tr(BA) As mismo dos aplicaciones u tiles son: a a = tr(a a) = tr(aa ) y

A4-8

tr(A A) =
i=1

ai ai =
i=1 j =1

a2 ij .

La regla de permutaci on puede extenderse a cualquier permutaci on c clica en un producto: tr(ABCD) = tr(BCDA) = tr(CDAB) = tr(DABC) Por lo que obtenemos tr(C AC) = = tr(ACC ) = tr(AI) ) tr(A) = tr(

Dado que es diagonal, y contiene las ra ces de A en su diagonal, el resultado general es el siguiente. Teorema 4.6.1 Traza de una matriz La traza de una matriz es igual a la suma de sus ra ces caracter sticas.

4.7.

Determinante de una matriz

El siguiente resultado es de gran utilidad, especialmente dado lo tedioso que resultaban los c alculos del determinante de una matriz. Dado que C AC = |C AC| = , ||.

A partir de algunos resultados anteriores obtenemos, para la matriz ortogonal C, |C AC| = = = = |C | |A| |C| = |C | |C| |A| = |C C| |A| |I| |A| = 1 |A| |A| ||.

Dado que || es el producto de los elementos de su diagonal, esto implica lo siguiente: Teorema 4.7.1 Determinante de una matriz El determinante de una matriz es igual al producto de sus ra ces caracter sticas. N otese que obtenemos el resultado esperado si cualquiera de estas ra ces es cero. Como el determinante es el producto de las ra ces, una matriz es singular, si y s olo si su determinante es cero y, por consiguiente, si y s olo si tiene al menos una ra z caracter stica igual a cero.

4.8.

Potencias de una matriz

Con frecuencia usamos expresiones que contienen potencia de matrices, como AA = A2 . Para potencias de enteros positivos, estas expresiones pueden calcularse mediante la repetici on de multiplicaciones Pero esto no muestra c omo afrontar un problema tal como encontrar un B tal que B2 = A, es decir, la ra z cuadrada de una matriz. Las ra ces caracter sticas y los vectores proporcionan una soluci on simple. Consid erese primero AA = = A2 (CC )(CC )

= CC CC = CIC = CC = C2 C A4-9

A continuaci on presentamos dos resultados. Puesto que 2 es una matriz diagonal cuyos elementos distintos de cero son los cuadrados de los elementos de , esto implica lo siguiente. Para cualquier matriz sim etrica, las ra ces caracter sticas de A2 son los cuadrados de las de A, y los vectores caracter sticos son los mismos. La prueba se obtiene al observar que C2 C es la descomposici on de la matriz B=AA. Como A3 = AA2 etc., se generaliza a cualquier entero positivo. Por convenci on, para cualquier A, A = I. K K Por tanto, para cualquier matriz sim etrica A, A = C C , K = 0, 1... As , las ra ces caracter sticas de AK son K , mientras que los vectores caracter sticos son los mismos que los de A. Si A es no singular, de forma que todas sus ra ces i son distintas de cero, lo anterior puede generalizarse, tambi en, a potencias negativas. Si A1 existe, entonces, A 1 = = (CC )1 (C )1 1 C1

= C1 C ,

donde hemos usado el resultado anterior, C = C1 . Esto constituye un resultado importante que resulta u til en el tratamiento de matrices inversas. Teorema 4.8.1 Ra ces caracter sticas de una matriz inversa Si A1 existe, las ra ces carac1 ter sticas de A son los rec procos de las de A, y los vectores caracter sticos son los mismos. Generalizando la noci on del producto repetido, obtenemos un resultado m as general. Teorema 4.8.2 Ra ces caracter sticas de la potencia de una matriz Para cualquier matriz sim etrica no singular A = CC , AK = CK C , K = ..., 2, 1, 0, 1, 2, ... Nos planteamos, ahora, el problema general de c omo calcular la ra z cuadrada de una matriz. En el caso escalar, sabemos que el valor ser a no negativo. La condici on an aloga nos conduce a una matriz en la que todas sus ra ces caracter sticas sean no negativas. Consid erese, entonces, el candidato A1/2 =
1/2 C C 1 C 0

0 2

. .

0 0

C .

Esto satisface el requisito para una ra z cuadrada, ya que A1/2 A1/2 = C1/2 C C1/2 C = CC = A. Si continuamos en esta l nea, podemos denir las potencias de una matriz de forma m as general, suponiendo que todas las ra ces caracter sticas son no negativas. Por ejemplo, A1/3 = C1/3 C . Si todas las ra ces son estrictamente positivas, podemos avanzar un paso m as, y extender el resultado a cualquier potencia real. Teorema 4.8.3 Potencias reales de una matriz denida positiva. Para una matriz denida positiva A, Ar = Cr C , para cualquier n umero real, r. La ra ces caracter sticas de Ar son las r- esima potencia de las de A, y los vectores caracter sticos son los mismos. Si A es s olo denida no negativa (es decir, tiene ra ces que son o cero o positiva) se cumple s olo para r no negativos. A4-10

4.9.

Matrices idempotentes

Las matrices idempotentes son iguales a sus cuadrados. En primer lugar implica que si es una ra z caracter stica de una matriz idempotente, = K para todos los enteros no negativos K. Si A es una matriz sim etrica idempotente, todas sus ra ces son 1 o 0. Supongamos que todas las ra ces de A son 1. Entonces, = I, y A = CC = CIC = CC = I. Si las ra ces no valen todas 1, al menos una valdr a 0. Consecuentemente, tenemos los siguientes resultados para matrices sim etricas idempotentes. La u nica matriz sim etrica idempotente de rango completo es la matriz identidad I. Todas las matrices sim etricas idempotentes, excepto la matriz identidad, son singulares. El resultado nal de las matrices idempotentes se obtiene observando que el n umero de ra ces distintas de cero de A es tambi en igual a su suma. Por lo que se puede asegurar que para una matriz idempotente las ra ces son todas 0 o 1, obtenemos este resultado: El rango de una matriz idempotente sim etrica es igual a su traza.

5.

Formas cuadr aticas y matrices denidas


Muchos problemas de optimizaci on contienen doble sumatorias de la forma
n n

q=
i=1 j =1

xi xj aij .

Esta forma cuadr atica puede escribirse como q = x Ax, donde A es una matriz sim etrica. En general, dependiendo de A y de x, q puede ser positiva, negativa o cero. Existen algunas matrices, sin embargo, para las cu ales q ser a positivo, independientemente de x, y otras para las cu ales q ser a siempre negativo (o no negativo o positivo). Para una matriz A dada, 1. Si x Ax > (<)0 para toda x distinta de cero, entonces A es denida positiva (negativa). 2. Si x Ax ( )0 para toda x distinta de cero, entonces A es denida no negativa o semidenida positiva (denida no positiva). A primera vista podr a parecer imposible determinar a qu e grupo pertenece una matriz dada seg un el criterio anterior, ya que x puede elegirse arbitrariamente. Pero a partir de resultados ya vistos podremos hacerlo. Recu erdese que una matriz sim etrica puede descomponerse de la forma A = CC . Por lo tanto, la forma cuadr atica puede escribirse como, x Ax = x CC x. Sea y = C x. Entonces,

x Ax

= y y
n

=
i=1

2 i yi .

Si i es positivo para todo i, entonces independientemente de y (es decir, independientemente de x), q ser a positivo. Este era el caso identicado anteriormente como matriz denida positiva. Continuando en esta l nea de razonamiento, obtenemos el siguiente teorema. A4-11

Teorema 5.0.1 Matrices denidas Sea A una matriz sim etrica. Si todas las ra ces caracter sticas de A son positivas (negativas), entonces A es denida positiva (denida negativa). Si algunas de las ra ces son cero, entonces A es denida no negativa (no positiva) si las restantes son positivas (negativas). Si A tiene ra ces tanto negativas como positivas, entonces A es indenida. Los resultados anteriores nos permiten probar en cada caso las condiciones sucientes del teorema. Para probar las condiciones necesarias, supongamos que la condici on sobre las ra ces no se cumple. Esto nos lleva a una contradicci on. Por ejemplo, si alg un puede ser negativo, entonces y y podr a ser negativo para alg un y, as que A no puede ser denida positiva.

5.1.

Matrices denidas no negativas

Un caso de particular inter es es el de las matrices denidas no negativas. Del teorema anterior se obtienen varios resultados relacionados con estas matrices. 1. Si A es denida no negativa, entonces |A| 0. Prueba: El determinante es el producto de las ra ces, las cu ales son positivas. Lo contrario, sin embargo, no es cierto. Por ejemplo, una matriz 2 2 con dos ra ces negativas es claramente no denida positiva, sin embargo, tiene un determinante positivo. 2. Si A es denida positiva, tambi en lo es A1 . Prueba: Las ra ces son los rec procos de A, los cu ales son, por tanto, positivos. 3. La matriz identidad I es denida positiva. Prueba: x Ix = x x > 0 si x = 0. Un resultado muy importante para el an alisis de regresi on es el siguiente 4. Si A es n K con rango completo y n > K , entonces A A es denida positiva y A A es denida no negativa. Prueba: Se supone que Ax = 0 0. Por tanto x A Ax = (Ax ) 2 textbf (Ax) = y y = yi >0
i

De manera similar puede probarse que A A es denida no negativa. La diferencia en el u ltimo caso es que, como A tiene m as las que columnas, existe un x tal que A x = 0. Por tanto, y y 0.El caso en el que A no tiene rango columna completo es el mismo que el de AA 5. Si A es denida positiva y B es una matriz no singular, entonces B AB es denida positiva. Prueba: x B ABx = y Ay > 0, donde y=Bx. Pero y no puede ser 0 porque B es no singular. Finalmente, n otese que para que A sea denida negativa, todas las ra ces caracter sticas de A deben ser negativas. Pero, en este caso, |A| es positiva si A es orden par, y negativa si A es de orden impar.

5.2.

Formas cuadr aticas idempotentes

Las formas cuadr aticas en matrices idempotentes juegan un papel muy importante en las distribuciones de muchos contrastes estad sticos. As , encontraremos muchas de ellas con frecuencia. 1. Toda matriz sim etrica idempotente es denida no negativa. Prueba: Todas las ra ces son 1 o 0; por tanto, la matriz es denida no negativa por denici on. Combinando las propiedades anteriores con algunos resultados ya vistos, obtenemos un resultado empleado en la determinaci on de la distribuci on muestral de la mayor a de los contrastes estad sticos est andar. 2. Si A es sim etrica e idempotente, n n con ranjo J, entonces toda forma cuad atica de A puede
J

escribirse como x Ax =
i=1

2 yi .

A4-12

6.

Distribuci on F

La familia de distribuciones normales (chi-cuadrado, F, y t) pueden derivarse como funciones de formas cuadr aticas idempotentes en un vector normal estandarizado. La distribuci on F es el ratio de dos variables independientes chi-cuadrado, cada una dividida por sus grados de libertad respectivos. Sean A y B dos matrices idempotentes con rangos ra y rb y sea AB = 0. Entonces x Ax/ra F [ra , rb ]. x Bx/rb Si, en vez de esto, Var[x]= 2 I, la expresi on se modica como (x Ax/ 2 )/ra F [ra , rb ]. (x Bx/ 2 )/rb

7.

Una forma cuadr atico de rango completo


Finalmente, consid erese el caso general, x N [, ].

Estamos interesados en la distribuci on de q = (x ) 1 (x ) En primer lugar, el vector puede escribirse como z=x y es la matriz de varianza y covarianzas de z as como de x. Por tanto buscamos la distribuci on de q = z 1 z = z (V ar[z])1 z, donde z se distribuye normalmente con media 0. Esto es una forma cuadr atica pero no necesariamente en una matriz idempotente. Como es denida postiva, tiene una ra z cuadrada. Denimos la matriz sim etrica 1/2 de tal manera que 1/2 1/2 = . Entonces, 1 = 1/2 1/2 y z 1 z = z 1/2 1/2 z 1/2 z) ( 1/2 z) = ( = ww Ahora w=Az, de modo que, E (w) = AE [z] = 0 y V ar[w] = A A = 1/2 1/2 = 0 = I Esto ofrece un resultado importante. Teorema 7.0.1 Distribuci on de un vector normal estandarizado. Si x N [u, ], entonces 0, I ]. 1/2 (x ) N [0 El caso especial m as simple es aquel en que x s olo tiene una variable, de tal manera que la transformaci on es solamente (x )/ . Combinando esto con el caso concerniente a la suma de cuadrado de normales estandarizados, tenemos el siguiente teorema. Teorema 7.0.2 Distribuci on de x 1 x cuando x es una normal est andar. Si x N [u, ], 1 entonces (x ) (x ) 2 [n].

A4-13

7.1.

Independencia de una forma lineal y una cuadr atica

La distribuci on t se utiliza en muchos contrastes de hip otesis. En muchas situaciones aparece como el cociente de una forma lineal sobre una cuadr atica, en un vector normal. Para establecer la distribuci on de estos estad sticos, utilizamos el siguiente resultado Teorema 7.1.1 Independencia de una forma lineal y una cuadr atica Una funci on lineal Lx y una forma cuadr atica idempotente x Ax en un vector normal estandarizado son estad sticamente independientes si LA=0 La prueba sigue la misma l ogica que la dos formas cuadr aticas. Escribimos x Ax como x A Ax = (Ax) (Ax). La matriz de varianzas y covarianzas de las variables Lx y Ax es LA=0, que establece la independencia de estos dos vectores aleatorios. La independencia de la funci on lineal y de la forma cuadr atica es una consecuencia inmediata, ya que las funciones de vectores aleatorios independientes son tambi en independientes. La distribuci on t se dene como el cociente entre una variable normal estandarizada y la ra z cuadrada de una variable chi-cuadrada dividida por sus grados de libertad, siendo ambas independientes: t[J ] = Un caso particular es t[n 1] =
1 n1 n

N [0, 1] (2 [J ]/J )1/2

nx
1/2

( xi x )2
i1

nx , s

donde s es la desviaci on t pica de los valores de x. La distribuci on de las dos variables en t[n 1] ya se obtuvo anteriormente; s olo necesitamos mostrar que son independientes. Pero y x M x n1 Basta con mostrar que M j=0, lo que sigue de s2 = M i = [I i(i i)1 i ]i = i (i i)1 (i i) = 0 1 nx = ix=jx n

A4-14

Вам также может понравиться