Академический Документы
Профессиональный Документы
Культура Документы
INTRODUCCIN
1.1
VARIABLES CATEGRICAS
Variables de un nmero limitado de valores o categoras, la diferencia con las variables continuas es que stas
pueden tomar infinitos valores.
Tipos de variables consideradas como categricas
Cuantitativa
Continua
Discreta
2 categoras = Binaria
Cualitativa
Nominal
Categrica
s
3 o ms categoras = Categrica
Ordinal
Nacimientos
Casamientos
Escolaridad
Empleo
Ocupacin
Migracin
Divorcio
Muerte
Cuando las variables continuas son tratadas como variables categricas, se le dice categorizacin o
discretizacin de la variable continua.
Ejemplo:
Variable continua: edad
Categorizaciones:
edad laboral / edad no laboral;
niez / adolescencia / juventud / adultez / adulto mayor;
clasificada tambin cada cinco aos; etc.
Variable continua: educacin
Categorizacin:
primaria / secundaria / superior / postgrado
Precisin en su medicin
Los valores de la variable categrica se repiten de una manera considerable en la muestra
Las categricas son ms importantes como variables respuestas que como variables explicativas
(Powers y Xie 1999, pg. 2-3)
Nombres de la variable en estudio
Dependiente
Salida
Endgena
Regresiva
Explicada
1.2
Uno de los motivos para hacer difcil la consolidacin de los modelos estadsticos para datos categricos es la
existencia de dos filosofas acerca de la naturaleza de los datos categricos.
Aproximacin Estadstica o
Transformacional
Aproximacin de Variable
Latente o Economtrica
1.2.1
Aproximacin transformacional
var . dependient e
E
funcin de var . indep .
categrica
var . dependient e
g E
funcin lineal de var . indep.
categrica
La funcin de regresin no es lineal dado que la variable categrica es la variable dependiente.
En este caso, el problema de no linealidad es manejado a travs de funciones no lineales que transforman el
valor esperado de la variable categrica en una funcin lineal de las variables independientes, tales funciones
son conocidas como funcin link.
1.2.2
En la aproximacin variable latente (o aproximacin economtrica) se asume que una variable continua
latente o no observada subyace a una variable categrica observada.
Cuando la variable latente cruza un lmite (o umbral) la variable categrica asume un valor diferente. Las
variables categricas son una observacin parcial de las variables continuas.
Se pueden inferir de valores categricos observados slo los intervalos dentro de los cuales cae la variable
latente, no as los valores reales de ellos. Por esa razn, esta aproximacin denomina a las variables
categricas como variable dependiente limitada. (revisar Maddala 1983).
MLTIPLES INTERPRETACIONES
SIMILARES METODOLOGAS
SIMILARES METODOLOGAS
MLTIPLES INTERPRETACIONES
En esta aproximacin, el investigador se interesa ms en cmo las variables independientes afectan la variable
continua latente (llamado anlisis estructural) y menos en cmo las variables independientes afectan la variable
categrica observada.
VARIABLE CATEGRICA
VARIABLE LATENTE
No observable
Variable binaria
Propensin
Admisin a universidad
Calificaciones
Si las calificaciones exceden un umbral,
ingresan, si no exceden el umbral, no
ingresan
Representa
Verosimilitud de admisin o de
participacin en la fuerza laboral
Verosimilitud de admisin o de
participacin en la fuerza laboral
Ejercicio: Investigar los trminos latent trait model; latent class model
Observado
estructura l estocstic o
valores reales
de la
var . dependient e
dependient e y
aleatorio no
exp licado en la
estocstic o
componente
estructura les
omitidos
parte estructura l
noise
errores
de medida
incertidum bre
a la que est sujeta
la ocurrencia
Notacin:
1.3
Dificultad de consolidacin
Hay numerosas contribuciones tericas de investigadores de reas tan diversas como estadstica,
bioestadstica, economa, psicologa, sociologa, etc., el origen multidisciplinario de los mtodos ha determinado
el desarrollo de
Distintas aproximaciones
Mltiples interpretaciones
Problemas similares
Metodologas similares
Es as que las diversas aplicaciones y terminologas en las distintas reas del conocimiento hace difcil
sintetizar y consolidar las tcnicas estadsticas actualmente disponibles para el tratamiento de variables
categricas.
1.4
El siguiente repaso de las contribuciones ayudar a entender mejor los esfuerzos con el fin de consolidar los
modelos para datos categricos (fuente: James K. Lindsey 1997, P. McCullagh, J.A. Nelder 19xx)
En 1805, Legendre propuso estimar los parmetros beta de un modelo lineal minimizando la suma de
cuadrados de los residuales.(P. McCullagh, J.A. Nelder pp.9)
En 1809, Gauss introdujo la distribucin normal con media cero y varianza constante para los errores,
en un texto de astronoma. (P. McCullagh, J.A. Nelder pp.9)
En 1823, Gauss, en su Theoria Combinationis, abandon la suposicin normal a favor de la suposicin
de constancia ms dbil de slo la varianza. Mostr que los estimadores de beta obtenida minimizando
el criterio de mnimos cuadrados, tiene mnima varianza entre la clase de los estimadores insesgados.
(P. McCullagh, J.A. Nelder pp.9)
Nelder y Wedderburn (1972), otorgaron el nombre de Modelos Lineales Generalizados, mostrando que
la linealidad puede utilizarse para de alguna forma unificar diversas tcnicas estadsticas.
Wedderburn (1974), extendi tal suposicin ms dbil hacia los modelos lineales generalizados,
utilizando el concepto de quasi-verosimilitud.
Recin en 1974, Wedderburn, realiz la extensin de la suposicin dbil hacia modelos lineales
generalizados, utilizando el concepto de quasi-verosimilitud. (Cap. 9 P. McCullagh, J.A. Nelder)
En 1919, Fisher investig en el rea de agricultura y en el transcurso de 10 aos, estableci los
fundamentos de los diseos de experimentos. F. Yates continu con la investigacin. (P. McCullagh,
J.A. Nelder pp.10)
Fisher (1920s 1935), influenci la extensin del desarrollo de modelos lineales generalizados,
correspondientes a los modelos para experimentos factoriales e incluy modelos especiales para cierta
clase de conteos y proporciones. (P. McCullagh, J.A. Nelder pp11)
Funcin de verosimilitud una aproximacin a la inferencia para cualquier modelo estadstico (Fisher,
1922);
Fisher (1922), en su Ensayo de Dilusin, trabaj con la transformacin log log complementar. (Pgs
11 y 12 McCullagh and Nelder 1989).
Familia exponencial una clase de distribuciones con estadsticos suficientes para los parmetros
(Fisher, 1934);
Bliss (1935), trabaja con el anlisis Probit, moderno mtodo de anlisis de datos en conexin con
bioensayos, (Pgs 13 y 14 McCullagh and Nelder 1989).
Berkson (1944, 1951). El modelo Logstico lineal fue utilizado en un contexto de experimentos de
bioensayo. (Pgs 14 McCullagh and Nelder 1989).
Dyke y Patterson (1952), publicaron un anlisis de datos de clasificacin cruzada referente a
proporciones de sujetos que tienen buen conocimiento de cncer, encontrando un modelo viable en el
modelo Logit para proporciones. (Pgs 14 McCullagh and Nelder 1989).
Rasch (1960), Anlisis de tem una distribucin bernoull con el link logit
Birch (1963), Modelos para conteo Log-linear una distribucin Poisson con el link log.
Feigl and Zelen (1965); Zippin and Armitage (1966); Glasser (1967); introdujeron Modelos de regresin
para datos de supervivencia una distribucin exponencial con el link log o el link recproco.
Goodman (1981), list tres tipos ideales de tablas de contingencia para el contexto de los modelos
Log-linear (ver Power 1999, pg. 88)
Nelder (1966), introdujo los polinomios inversos que fueron extendidos a la curva respuesta en
trminos de polinomios de inversa cuadrtica y de inversa de orden mayor, distribucin gamma con el
link recproco.
Aitkin y Clayton (1980), demostraron que el anlisis de datos de supervivencia censoreados puede
adaptarse a los modelos lineales generalizados.
Dobson A. J. (1983), An introduction to statistical modeling. Chapman and Hall, London.
Para reconocer y diferenciar los modelos mencionados es necesario esquematizar o clasificar los
modelos.
f ( )
f ( )
Se puede escribir as
f ( y; ) s( y ) . t ( ) . ea ( y ) . b( )
Reescribiendo
f ( y; ) exp a( y ) . b( ) c( ) d ( y )
s( y ) exp{ d ( y ) }
t ( ) exp{ c( ) }
A la distribucin
b ( )
f ( y; )
t (.)
a( y) y
Si existen otros parmetros adems de theta que no son de inters, se consideran nuisance y se asume
que son conocidos.
2.1
Sea
f ( y; )
f ( y; ) dy 1
Derivando
d
d
f ( y; ) dy
d
1 0
d
d
d f ( y; ) dy 0
d
d
d
d
f
(
y
;
)
dy
00
d
d
d2
d 2 f ( y; ) dy 0
f ( y; ) exp a( y ) . b( ) c( ) d ( y )
d
d
f ( y; )
exp a( y ) . b( ) c( ) d ( y )
d
d
d
f ( y; ) a( y ) . b' ( ) c' ( ) f ( y; )
d
d
f ( y; ) dy a( y ) . b' ( ) c' ( ) f ( y; ) dy 0
d
Como
b' ( ) a( y ) f ( y; ) dy c' ( ) f ( y; ) dy 0
E [a(Y )]
c' ( )
b' ( )
----------------------------------------- (1)
Como
d
f ( y; ) a( y ) . b' ( ) c' ( ) f ( y; )
d
d2
f ( y; ) a ( y ) . b' ' ( ) c' ' ( ) f ( y; )
d 2
2
a ( y ) . b' ( ) c' ( ) f ( y; )
a ( y ) . b' ' ( ) c' ' ( ) f ( y; )
2
c' ( )
b' ( ) a ( y ) .
f ( y; )
b
'
(
b' ( ) a( y ) . E (a(Y )) f ( y; )
2
d2
d 2 f ( y; ) a( y ) . b' ' ( ) c' ' ( ) f ( y; ) dy
b' ( )
a
(
y
)
.
E
(
a
(
Y
))
f ( y; ) dy
b' ( )
a( y ) . E (a(Y ))
f ( y; ) dy
Despejando
V a(Y )
V a(Y )
b' ' ( )
c' ' ( )
E
a
(
Y
)
b' ( )2
b' ( )2
3
b' ( )
b' ( )3
V a(Y )
-------------------------------- (2)
Ejercicios: (Dobson)
3.1 Las siguientes relaciones pueden describirse a travs de MLG. Para cada una identificar la variable
respuesta y las variables explicativas, seleccionar una funcin de distribucin para la variable respuesta,
justificando su eleccin y escribir el componente lineal
3.1.a El efecto de la edad, sexo, altura, ingesta media diaria de alimentos y el gasto energtico medio diario
en el peso de una persona.
3.1.b Las proporciones de ratones de laboratorio, infectados despus de la exposicin a una bacteria donde
se utilizaron 5 niveles de exposicin distintas y 20 ratones fueron expuestos en cada nivel.
3.1.c La relacin entre el nmero de viajes por semana al supermercado para un hogar y el nmero de
personas en el hogar, el ingreso familiar y la distancia al supermercado.
3.2 Si la variable aleatoria Y tiene la distribucin Gamma con un parmetro de escala, que es el parmetro
de inters, y un parmetro de forma conocida , entonces su funcin de densidad de probabilidad es
y 1 e y
f ( y; )
( )
Mostrar que esta distribucin pertenece a la familia exponencial de distribuciones y encontrar el parmetro
natural. Utilizando los resultados de la seccin, calcular
E (Y )
V (Y )
3.3 Mostrar que las siguientes funciones de densidad de probabilidad pertenecen a la f.e.d.
f ( y; ) y 1
f ( y; ) e y
y r 1 r
y
f ( y; )
1
r 1
,
E (a(Y ))
V (a(Y ))
r conocida
siguientes resultados
3.4.a Para Y
3.4.b Para Y
3.4.c Para Y
~
~
~
Poisson
E (Y ) y V (Y ) 2
E (Y ) n y V (Y ) n (1 )
Normal(u, sigma^2 ),
Binomial(n, pi)
3.5
Tasas de mortalidad
Para una poblacin grande, la probabilidad de un individuo elegido aleatoriamente muera en un tiempo
particular es pequea. Si se asume que las muertes de una enfermedad no infecciosa son eventos
independientes, entonces el nmero de muertes Y en una poblacin, puede ser modelada en una distribucin
de Poisson
P (Yi 1) i y
Y1 , Y2 , Y3 , , YN
P (Yi 0) 1 i
La funcin de probabilidad de
log i
el logaritmo del los odds
1 i
3.6.c Mostrar que
con
E (Yi ) i
T
g ( ) log
x
1
como
ex
T
1 ex
xT 1 2 x resulta
e 1 2 x
y
y
1
f ( y; ) exp
exp
0 es considerado un parmetro nuisance, es un miembro de la familia exponencial?
donde
3.8 Suponga
Pareto y
Y1 , Y2 , Y3 , , YN
E (Yi ) i ( 0 1 xi )2
Es este un MLG? Justificar la respuesta.
3.9 Sean
Y1 , Y2 , Y3 , , YN
Hallar
E [a(Y )]
V a(Y )
2.2
Funcin log-verosmil
Estadstico score
U ( ; y )
d
d
l ( ; y )
log f ( y; ) a( y ).b' ( ) c' ( )
d
d
El estadstico score es
------------------------------------- (4)
Informacin J
V (U ) b' ( ) V (a(Y ))
2
De (2)
b' ( )
b' ' ( ) c' ( ) b' ( ) c' ' ( )
b' ( )
b' ( )
b' ' ( ) c' ( )
c' ' ( )
b' ( )
b' ' ( ) c' ( )
V (U )
c' ' ( )
----------------------------------- (5)
b' ( )
V (U ) b' ( )
Obteniendo as la Informacin J:
J V (U )
------------------------------ (6)
V (U ) E (U 2 ) E (U ' )
Prueba:
V (U ) E (U 2 )
a)
V ( X ) E( X 2 ) E 2 ( X )
V (U ) E (U 2 ) E 2 (U )
E (U ) 0
Como
V (U ) E (U 2 )
V (U ) E (U ' )
b)
Derivando
dU d
a(Y ) b' ( ) c' ( )
d d
a(Y ) b' ' ( ) c' ' ( )
U'
Tomando esperanza a U:
c' ( )
b' ' ( )
c' ' ( )
b
'
(
c' ( )
b' ' ( )
c' ' ( )
b' ( )
----- de (4)
c' ( )
b' ' ( )
c' ' ( )
b' ( )
V (U )
V (U ) E (U ' )
Finalmente,
J V (U ) E (U ' ) E (U 2 )
2.5
3.1
Ventajas
Los Modelos Lineales Generalizados (MLG) son tiles para 3 situaciones genricas
(1) Las variables respuesta tienen distribucin distinta a la normal
(2) Las variables respuestas pueden ser categricas
(3) La relacin entre variable respuesta y variables explicativas no necesariamente es lineal.
Dos avances en la teora permiten utilizar mtodos similares a los Modelos Lineales en las situaciones
genricas mencionadas.
Avance 1.- reconocimiento que varias de las propiedades convenientes de la normal son compartidas por
una amplia clase de distribuciones llamadas familia exponencial de distribuciones.
Avance 2.- extensin de mtodos numricos para estimar los parmetros beta desde el modelo lineal E (Yi )
hasta el modelo lineal g E (Yi )
3.2
Condiciones
Sean
Y ,1 Y2 , Y3 , , YN
Yi
Yi
Yi
f ( yi ; ) exp{ yi bi (i ) ci (i ) di ( yi ) }
4) Todos los
Yi
di ( yi ) d ( yi )
bi (i ) b(i ) , ci (i ) c(i )
b, c, d )
Y ,1 Y2 , Y3 , , YN
5) En la distribucin conjunta de
N
N
6) Los parmetros i no son de inters directo, por ello, pueden ser distintos para cada
7) La forma de dependencia de la varianza y la media deben ser conocidas.
3.3
Yi .
Modelo (MLG)
E (Yi ) i
Si
es alguna funcin de
g ( i ) g ( E (Yi )) X i '
Notacin
g (.)
i g ( i ) X i '
Y ,1 Y2 , Y3 , , YN
Xi'
xi1
x
X i i1
xi1
x11 x12
x x
X 21 22
xN1 xN 2
x1,k 1
x2,k 1
x N ,k 1
1
2
p
no necesariamente son las mismas
3.4
4.1
ESTIMACIN EN MLG
Estadstico score
Si
f ( y; ) s( y ) . t ( ) . ea ( y ) . b( )
exp a( y ) . b( ) c( ) d ( y )
l ( ; y ) ln( ; y ) ln f ( y; ) lnexp a( y ) . b( ) c( ) d ( y )
a( y ) . b( ) c( ) d ( y )
U ( ; y )
d
l ( ; y ) a( y ) . b' ( ) c' ( )
d
-------------------------- (1)
Estadstico score:
---------------------------- (2)
es la solucin de
U ( ) 0
4.2
Dado un valor x
a x
m 1
( donde t ( x
m 1
) 0 ), se busca el valor
x m
tal que t ( x
) 0 es el cero ms cercano
m 1
x ( m 1)
x (m )
d t (.)
dx
t ' ( x m 1 )
x x m1
m 1
es:
t ( x m ) t ( x m 1 )
x m x m 1
x m x m 1 es pequea
Si x m es la solucin requerida tal que t ( x m ) 0
t ( x m ) t ( x m 1 ) 0 t ( x m 1 )
t ( x m 1 )
x m x m 1
x m x m 1
x m x m 1
t ( x m 1 )
m
m 1
x x
t ' ( x m 1 )
m 1
)
t' ( x
x m x m 1
t ( x m 1 )
t ' ( x m 1 )
-------------------------------- (3)
Empezando con x 1 , sucesivas aproximaciones llevarn hasta que el proceso iterativo converja.
Es la solucin de Newton Raphson.
4.3
Mtodo scoring
El mtodo scoring es el mtodo para hallar el estimador mximo verosmil a partir de la ecuacin de
estimacin:
m 1
U m 1
m 1
J
----------------------------------------- (4)
d U (.)
d
U ' (
x x m1
U (
) U ( m 1 )
m m 1
U ' (
0 U ( m 1 )
)
m m 1
U ( m 1 )
) m
m 1
m 1
U ( m 1 )
U ' ( m )
-------------------------------- (5)
) con E U ' (
U ( m 1 )
E U ' ( m )
Se sabe que J E U '
U ( m 1 )
m
m 1
E U ' ( m )
m 1
U ( m 1 )
J
U ( m 1 )
m
m 1
J
m
4.4
m 1
------------------------------------- (6)
Estimacin
4.4.1
Funcin log-verosmil
Sean
Yi
Yi
i g ( i ) X i ' .
------------------ (7)
i 1
i 1
i 1
i 1
l li yi b(i ) c(i ) d ( yi )
-----
4.4.2
A partir de la derivada de la funcin log-verosimilitud (score), se aproximarn los parmetros del modelo.
j: Uj
j
j
l
li i
i 1
i 1 j
N
li i i
.
i
i j
.
i 1
li i i
.
i
i j
.
i 1
------- (9)
, es decir,
li
i
i
(ii )
i
i
(iii )
j
(i )
li
yi b(i ) c(i ) d ( yi )
i i
yi b' (i ) c' (i )
(i )
c' (i )
b' (i ) yi
b
'
(
)
i
c' (i )
b' (i ) yi
b
'
(
)
i
b' (i ) yi E (a(Yi ))
b' (i ) yi E (Yi )
b' (i ) yi i
li
b' (i ) yi i
(ii )
de (7)
------------------------------ (10)
i
1
i
i
i
c' (i )
b
'
(
)
i
E (a (Yi ))
E (Yi )
i
b' (i ) c' ' (i ) c' (i )b' ' (i )
i
i
i
i
b' (i )2
i
b' (i ) V (Yi )
i
i
1
1
i
i
b' (i ) V (Yi )
i
(iii )
( a(Yi ) Yi )
-------------------------------------- (11)
i i i i
. xij
j i j i
k
Recordando que
i i
. xij
j i
------------------------------------- (12)
Uj
i 1
li i i
1
i
.
.
b' (i ) yi i
. xij
i i j
b
'
(
)
V
(
Y
)
i 1
i
i
i
1 i N yi i i
yi i
. xij
. xij
V
(
Y
)
V
(
Y
)
i 1
i
i
i
i
i 1
y i i
U j i
. xij
V (Yi ) i
i 1
4.4.3
--------------------------------------- (13)
Matriz Informacin J
U U
U2
2
1
E U U ' E U1 U 2 U p E
U p
U pU1 U pU p
E (U1U1 ) E (U1U 2 ) E (U1U p )
E (U U )
2 1
E (U U ) J J
j k
jk
E (U pU p )
E (U pU1 )
De este modo
J J jk V (U ) E (U jUk )
Siendo
J jk
N yi i i N yi i i
J jk E (U j U k ) E
xij .
xi k
i 1 V (Yi ) i i 1 V (Yi ) i
Ntese que por la independencia de los
Adems, que
N
J jk E
i 1
N
i 1
N
i 1
E yi i yi i 0
yi i 2
V (Yi ) 2
E y i i
x x
V (Yi ) 2 ij i k
2
V (Yi )
x x
V (Yi ) 2 ij i k
J jk
i 1
Recordando que
4.4.4
para todo i j
Yi ' s
J jk
xij xi k i
i
i
xij xi k i
V (Yi ) 2 i
------------------------------ (14)
Ecuacin de estimacin
b( m ) b1 , b2 , , bp
( m)
El vector
( m)
( m)
1 , 2 ,
, p ,
b( m ) b( m 1) J ( m 1)
U ( m 1)
------------------------------------ (15)
l
j
evaluados en
b( m 1)
Ecuaciones normales
J ( m 1)
J ( m 1)b( m) J ( m 1)b( m 1) J ( m 1) J ( m 1)
U ( m 1)
J ( m 1)b( m) J ( m 1)b( m 1) U ( m 1)
N
J jk
i 1
2
N
xij xi k i
1
x
ij
V (Yi )
V (Yi ) 2 i
i 1
x
xij wii xi k
ik
i 1
xi j wii xi k
i 1
J 11
J
21
J J jk
J p1
x11
x
12
x1 p
x21
x22
x2 p
N
xi1 wii xi1
J 12 J 1 p i 1
N
xi 2 wii xi1
i 1
J pp N
xip wii xi1
i 1
2
1
1
x N 1 V (Y1 ) 2 1
0
xN 2
x Np
x
i 1
i1
wii xi 2
i 1
wii xip
i 1
i1
x11 x12
x21 x22
2
p xN 1 x N 2
1
V (Yp )2 p
x1 p
x2 p
xNp
se
x11 x21
x x
12
22
x1 p x2 p
w11 0
0 w
22
X'
0
X'W X
xNp 0 w pp xN 1 xN 2
0
X
w pp
x1 p
x2 p
xNp
U j
i 1
N
yi i i
N
xij
V (Yi ) i i 1
yi i i
xij
V (Yi ) i i
Reordenando
1
xij
V (Yi )
i 1
2
i
i
yi i
i
i
X ' W yi i i
i
X'W a
Donde
a Nx1 yi i i
i
Nota:
U j
i 1
N
yi i i
N
xij
V (Yi ) i i 1
1
i 1 V (Yi )
yi i i
xij
V (Yi ) i i
2
i
i
xij yi i
i
i
wii xij yi i i
i 1
i
N
X ' W yi i i
i N 1
X ' W a N 1
As
J ( m 1) b( m) J ( m 1) b( m 1) U ( m 1)
X ' W X b( m) X ' W Xb( m 1) U ( m 1)
X ' W X b( m) X ' W z
--------------------------------------- (16)
Es la forma de las Ecuaciones Normales para MLG, similar a las ecuaciones normales obtenidas para
obtener los estimadores por el mtodo de Mnimo Cuadrados Ordinarios. La diferencia en los MLG, es que
debe ser resuelto iterativamente. Este mtodo para hallar los estimadores mximo verosmiles se denomina
procedimiento Mnimo Cuadrados Ponderados Iterativos.
INFERENCIA
Para realizar pruebas de intervalos de conanza, son necesarias las distribuciones muestrales de los
estadsticos. Antes un repaso de distribucin asinttica, necesaria en este caso.
5.1
Distribuciones asintticas
U
~ 0,1
J
Si hay un vector de parmetros,
U2
~ 2(1)
J
E (U ) 0
V (U ) J
U1
1
U2
2
~ N (0, J )
U
p
p
Es decir, para muestras grandes el vector score
U ~ 0, J
U ' J U ~ p2
Para los estimadores de los parmetros, las distribuciones muestrales asintticas son:
Para un solo parmetro
~ , J 1
~ , J 1
El estadstico de Wald:
' J ( ) ~
5.2
2
p
L( mx ; y )
L( ; y )
L( mx ; y )
log
ln
log L( mx ; y ) log L( ; y )
Estadstico razn log-verosmil
L( ; y )
Valores grandes de log implica ajuste pobre o dbil del modelo de inters al compararlo con el modelo
saturado.
5.3
Devianza
v parmetro de no centralidad
m nmero de parmetros del modelo saturado
(2m p ,v )
Bondad de Ajuste
En Modelos Lineales Generalizados, se orienta a comparar el ajuste de dos modelos ajustados a los datos.
Caso extremo:
H A : Modelo llamado saturado, que tiene N parmetros, uno por cada observacin y la media derivada de este
modelo coincide con la media de las observaciones.
Caso general:
H A : Modelo lo ms general
5.5
Prueba de hiptesis
Hiptesis:
1
2
H0 : 0
q
1
2
H A : 1
p
q p N
Estadstico de prueba:
(2pq )
Regla de decisin:
Si D
100%
Rechazar H 0 : 0
Si D
100%
Aceptar H A : 1
5.6
Intervalo de confianza
1
IC ; 95% k
J
Donde
sd ( )
1
J
(2pq )