Вы находитесь на странице: 1из 2

5

estadstica I, notas breves

3
3.1

Estimadores de M
axima Verosimilitud
Caso discreto

- Supongamos que tenemos una m.a.s. (X1 , ..., Xn ) de una v.a. discreta con distribucion P (x|) conocida salvo
por los par
ametros
- Una vez realizada la muestra tenemos (x1 , ..., xn ) y estamos interesados en encontrar un estimador del
par
ametro que maximice la probabilidad de la muestra.
- Para una muestra dada, la funci
on de probabilidad de la muestra es
P (X1 = x1 , ..., Xn = xn ) =

Qn

i=1

P (Xi = xi ) =

Qn

i=1

P (xi |) = l(|(x1 , ..., xn )) l()

y la denominaremos funci
on de verosimilitud.
3.2

Caso continuo

- Supongamos ahora que tenemos una m.a.s (X1 , ..., Xn ) de una v.a. continua con funci
on de densidad f (x|
conocida salvo por los par
ametros
- Una vez realizada la muestra tenemos (x1 , ..., xn ) y estamos interesados en encontrar un estimador del
par
ametro que maximice la funci
on de densidad conjunta de la muestra.
- Para una muestra dada, la funci
on de densidad conjunta de la muestra es
f (x1 , ..., xn ) =

Qn

i=1

fXi (xi ) =

Qn

i=1

f (xi |) = l(|(x1 , ..., xn )) l()

y la denominaremos funci
on de verosimilitud.

3.3

Propiedades

- As, el metodo de m
axima verosimilitud consistir
a en encontrar el valor que maximiza la funci
on de

verosimilitud l(), que coincide con el valor que maximiza log l()
- El estimador de m
axima verosimilitud M V se calcula igualando la primera derivada de log l() a 0 y
comprobando que la segunda derivada en sus soluciones es negativa.
- El estimador de m
axima verosimilitud mv tiene, bajo ciertas condiciones generales, las siguientes propiedades:
es asint
oticamente centrado: a medida que crece el tama
no muestral el sesgo tiende a cero.
sigue asint
oticamente una distribucion normal con media y varianza

1
(log l()) .

es un estimador asint
oticamente eficiente: el de todos los estimadores asintoticamente centrados,
el de m
axima verosimilitud tiene menor varianza
es invariante: si m v es el estimador de m
axima verosimilitud de , entonces g(m v) sera el

estimador de m
axima verosimilitud de h(), para cualquier funci
on h continua y biyectiva.

3.4

Distribuciones conocidas

- X B(p) Bernoulli
l(p) =

Qn

i=1

P (xi |p) =

log l(p) = log p

Qn

i=1

xi (1p)n

P
P

n i xi
pxi (1 p)( 1 xi ) = p i xi (1p)

i xi

P
P
= ( i xi ) log p + (n i xi ) log(1 p)

p = x

http://www.est.uc3m.es/svegas

estadstica I, notas breves

- X B(k, p) Binomial, con k conocido


l(p) =

Qn

i=1

log l(p) = p
p =

1
nk

P (xi |p) =

xi

Qn

i=1

(1 p)nk

xi

k
xi


Q
P
P
 x
n
p i (1 p)kxi = p i xi (1 p)nk i xi
i=1

log


n
k
i=1 xi

Qn

i=1

f (xi |, 2 ) =

log l(, 2 ) = log

Qn

i=1

2
1
1 e 22 (xi )
2

2
1
1
e 22 (xi )
( 2)n

1
n

(xi x
)2

- X exp() Exponencial
l() =

Qn

i=1

f (xi |) =

log l() = log n e


=

1
x

http://www.est.uc3m.es/svegas

Qn

i=1

xi

= n2 log(2 2 )

=x

2 =

P

exi = n e i xi

= n log()

xi



P
P
= cte + ( i xi ) log p + (nk i xi ) log(1 p)

xi

- X N (, 2 ) Normal
l(, 2 ) =

Q

k
xi

2
1
1
e 22 (xi )
( 2)n

2 2

P 1
2
i (xi )

Вам также может понравиться