Вы находитесь на странице: 1из 74

ESTADSTICA APLICADA

Mapa conceptual
ESTADSTICA
Conceptos
Bsicos

Estadstica
Descriptiva

Poblacin

Muestra

Parmetro

Estimador

PROBABILIDAD
Conceptos Bsicos

Distribuciones
de Probabilidad

Continuas, Normal,
ji-cuadrado, t de
Student

Discretas,
Binomial, otras
Distribuciones en
el Muestreo

Desigualdad de Tchebysheff, Ley


de los grandes Nmeros,
Teorema Central del Limite.

INFERENCIA
Estimacin
Puntual

Por intervalos

Prueba de Hiptesis
para una y dos
poblaciones

En General:

Particularmente

PROCEDIMIENTO DE LA INFERENCIA ESTADSTICA


Pasos:
1.

Conocer la poblacin, la distribucin que sigue la variable poblacional y el


parmetro p a estimar
La poblacin es el universo compuesto por M elementos o individuos del que
se desea conocer el valor de determinado parmetro p
Ejemplo: Qu porcentaje de una poblacin de M individuos consumir un
nuevo producto?
Si la variable aleatoria X se define como disposicin a consumir el nuevo
producto, su distribucin ser Bernoulli de parmetro p desconocido

2.

Determinar la aproximacin que se va a utilizar para la determinacin del


parmetro poblacional a partir de la informacin muestral
La muestra es la parte de la poblacin compuesta por n elementos, n<M, de la
que se pretende extraer conclusiones generalizables para la poblacin, con un
margen de error
Ejemplo: Qu porcentaje de una poblacin de M individuos consumir un
nuevo producto?
Aproximacin: % de los n individuos dispuestos a consumir el producto
5

PROCEDIMIENTO DE LA INFERENCIA ESTADSTICA


3.

Extraccin de la muestra aleatoria {X1 ,..., X n }


Una m.a. est compuesta por v.a. i.i.d.:
a) las v.a. estn idnticamente distribuidas, lo que no implica que midan lo mismo
ni que tomen lo mismos valores: FX = FX (t)
b) las v.a son independientes, lo que implica que el valor que toma una variable es
independiente del que tome otra
i

{x

,..., x n }

4.

Obtener la muestra o datos

5.

Elegir el estadstico muestral


Definicin de estadstico muestral: cualquier funcin de los elementos de la
muestra (por tanto variable aleatoria) que informa sobre el parmetro a determinar

Ejemplo: Qu porcentaje de una poblacin de M individuos consumir un


nuevo producto?
Estadstico muestral: El parmetro poblacional p es la media de la variable
aleatoia poblacional X. El estadstico muestral apropiado ser la media muestral
E[X ] = p
6

PROCEDIMIENTO DE LA INFERENCIA ESTADSTICA


6.

Obtencin del valor para el parmetro desconocido

Estimacin puntual
Teora de la estimacin
Estimacin por intervalos
7.

Realizar afirmaciones sobre el valor del parmetro o sobre la distribucin


poblacional susceptibles de ser refutadas
Simples
Paramtricas
Compuestas

Contrastaste de hiptesis
No Paramtricas

ESTADSTICOS Y DISTRIBUCIONES MUESTRALES


De la extraccin de la muestra (mtodo de muestreo) y de la eleccin del
estadstico muestral depender la calidad de los resultados respecto a la
aproximacin al parmetro poblacional

PROPIEDADES DEL ESTADSTICO MUESTRAL

1.
2.
3.

Es una variable aleatoria y, como tal, susceptible de cualquier medida


estadstica
Proviene de la muestra, con lo que slo sirve para extraer aproximaciones al
verdadero valor del parmetro poblacional desconocido
A mayor tamao muestral, menor incertidumbre en la aproximacin
8

Notacin
Momentos muestrales: desconocidos, no constantes
MUESTRA
ALEATORIA

Mk

1
=
n

X
i =1

k
i

X, 2n , S2n

Momentos poblacionales: desconocidos, constantes


POBLACIN

MUESTRA

mk = E
X

, 2

Valor estimado del momento muestral: conocidos,


constantes
1 n k
2
2, S

mk = xi
x,
n
n
n i =1

Relacin entre momentos muestrales y momentos poblacionales

E M k = m k

2
Var M k = n

Se espera que el k-simo momento muestral coincida con el k-simo momento poblacional
La varianza del k-simo momento muestral es la varianza poblacional dividida por n
10

Ejemplo

11

Ejercicio

12

TEORA DE LA ESTIMACIN
Sea X una v.a.
Cmo se determina
el valor de ?
Conjunto paramtrico:
Estimacin
puntual

Estimacin
por intervalos

Restringir el conjunto paramtrico


Clculo de la estimacin

Definicin de estimador
(estadstico muestral)

Muestra

13

MTODOS DE OBTENCIN DE ESTIMADORES


MTODO DE LA
MXIMA VEROSIMILTUD (MV)

El estimador se obtiene maximizando la


funcin de verosimilitud L (probabilidad
de observar la muestra observada para
cada valor asignado al parmetro)

n
P ( X = x i ) , caso discreto

L ( ) = i =n1
f (x ),
caso continuo

X
i

i =1

El valor que maximice esta funcin (la estimacin) coincidir con aquel para el que la
probabilidad de observar la muestra realmente observada sea mxima
a) Caso unidimensional (un parmetro a estimar). Ya sea el caso discreto o continuo, se
deber derivar la funcin L respecto al parmetro desconocido.
b) Caso bidimensional (dos parmetros a estimar). Ya sea el caso discreto o continuo, se
deber derivar la funcin L respecto a los dos parmetros desconocidos.
Los estimadores MV son los ms usados porque basan la estimacin en la informacin
muestral (funcin de verosimilitud) y porque cumplen algunas propiedades deseables
14

Procedimiento
Sea X una variable aleatoria cuya distribucin de probabilidad
depende del parmetro desconocido . Sea la funcin de
densidad de probabilidad de la poblacin f(x,).
1. Se toma una muestra aleatoria x1, x2, ..., xn de observaciones
independientes y se calcula la densidad conjunta de la muestra:
la funcin de verosimilitud y se expresa como:

L(x1,...,xn , ) = f(x1, ) f(x2 , ) ... f(xn , )


n

L(x1,...,xn , ) = f ( xi , )
i =1

15

Si de una poblacin cualquiera hemos obtenido una muestra


particular, es razonable pensar que la muestra obtenida era
la que mayor probabilidad tena de ser escogida.

Funcin
mxima
verosimilitud

MV

Valor del estimador mxima


verosimilitud

16

Si los valores posibles de son discretos, el procedimiento


es evaluar L(x,) para cada valor posible y elegir el valor de
para el cual L alcanza su mximo.
Por otro lado, si L(x,) es diferenciable se puede maximizar
L sobre el rango de valores posibles de obtenindose
condiciones de primer y segundo orden.
2. En la prctica es ms fcil maximizar el logaritmo de la
funcin de verosimilitud. Como la funcin logaritmo es una
transformacin montona, maximizar L(x,) es equivalente a
maximizar Ln(L(x,)).

17

3. Derivamos respecto al parmetro-objetivo.

4. Igualamos a cero para encontrar el mximo de la funcin

5. Verificamos la condicin de mximo

18

Ejercicio
Supongamos que los tiempos de fallos de ciertas
componentes electrnicas, X, provienen de una
distribucin exponencial de parmetro . Dada una
muestra de n componentes, obtenga el E.M.V. de .

19

Solucin
La funcin de densidad es:

Y se dispone de los tiempos de fallo de n


componentes elegidas al azar x1, x2,, xn.
La funcin de verosimilitud est dada por:

20

Resolviendo la ecuacin de verosimilitud

se concluye que el EMV para por este


procedimiento viene dado por

21

Ejercicio

22

Solucin

23

24

Ejercicio

25

Solucin

26

27

28

EL MTODO DE LOS MOMENTOS


Fue introducido por K. Pearson y es el mtodo general ms antiguo y sencillo
para la obtencin de estimadores de parmetros poblacionales. En algunas
ocasiones se suele utilizar para obtener una primera aproximacin de los
estimadores. Este mtodo consiste en igualar tantos momentos muestrales
como parmetros haya que estimar, a los correspondientes momentos
poblacionales, que son funciones de los parmetros desconocidos, y
resolviendo el sistema de ecuaciones resultante tendramos los estimadores de
los parmetros.

Procedimiento

29

30

31

Ejemplo

Solucin:

32

Luego igualando

33

34

Ejemplo

Solucin:

35

36

37

38

Realizada la estimacin de un parmetro cabe


preguntarse:
Es exacta la estimacin?
Es probable que la estimacin sea alta o baja?
Con otra muestra se obtendra el mismo resultado, o
bastante diferente?
La calidad de un procedimiento de estimacin mejora
bastante si la estadstica de la muestra es menos variable e
insesgada a la vez?

39

Propiedades de los estimadores


El estimador es un estadstico muestra, y, como tal, es cualquier funcin de la muestra. Por
tanto, y aunque los derivados de alguno de los mtodos de estimacin sean siempre ms
apropiados, dependiendo del parmetro desconocido, la eleccin del estimador generar una
mejor o peor aproximacin al verdadero valor del parmetro. De ah, la importancia de
definir propiedades de los estimadores que permitan realizar la eleccin del estimador de
forma ms adecuada. Un estimador ser mejor cuantas ms propiedades cumpla.

1. Insesgadez
Definicin : es insesgado si E =

Estima exactamente

Si E : b( =
) E (sesgo de )
Si lm b( ) = 0 lm E = es asintticamente insesgado
n
n

40

41

2. Eficiencia y Preferibilidad

42

Nota:

ln f ( y, )
= nE

a) Si Var

[]

b) Sean


es eficiente

~
y 2 dos estimadores de

~2 c / r 1

a:

eficiencia relativa de

Se llama

~
(

ECM 2 )
~

ef ( 2 ,1 ) =
ECM (1 )

43

Ejemplo

44

Solucin

45

46

47

Ejemplo
Demostrar que dada una poblacin N(, 2) se verifica que la media
muestral X es un estimador eficiente de la media poblacional

Solucin
En efecto

ln f ( x; ) = ln

1
+ ln e
2

1 ( x )2
2 2

1
1 ( x )2
= ln

2 2 2
ln( f ( x; ) x
=

2
48

ln( f ( x; ) 2
X 2
nE
= nE

2

E (X )

Var ( X ) =

=
2

Luego

Var ( ) = Var ( X ) =

1
ln( f ( x; )
nE

2
n
49

Ejemplo

Solucin

50


51

52

53

3. Consistencia

P
Definicin : es un estimador consistente de > 0 : lm P > = 0

m.c
P
Si


es consistente

m.c

lm E
Si
n

()
()

lm Var
es un estimador
n
n
0 ECM
0

fuertementeconsistente
lm b
n

54

55

Ejemplo

Solucin

56

57

Resumen prctico
Estimador = Tiro al blanco

58

59

PROPIEDADES DE LOS ESTIMADORES OBTENIDOS


POR EL MTODO DE LOS MOMENTOS

60

EJERCICIOS RESUELTOS
Ejercicio 1

61

Solucin

62

Ejercicio 2

63

Solucin

64

Ejercicio 3

si

Obtener el valor esperado y la varianza de S2. Es consistente?

65

Solucin
como

tenemos

66

Luego

Por tanto, S2 es un estimador consistente para 2

67

Ejercicio 4

68

Solucin

69

Ejercicio 5

70

Solucin

71

72

73

Ejercicio 6
La v. a. X sigue distribucin U(0, ), donde es un
valor positivo y desconocido. Se extrae una m. a. s.
de tamao n (n>2). Dado los estimadores siguientes
de , Cules de los siguientes errores cuadrticos
medios son correctos?

74

Вам также может понравиться