Академический Документы
Профессиональный Документы
Культура Документы
Probabilidad y Estadística
Javier Aparicio
División de Estudios Políticos, CIDE
javier.aparicio@cide.edu
Agosto 2010
http://www.cide.edu/investigadores/aparicio/metodos
Contenido
• Variables aleatorias (VA): X
• Distribución de probabilidad
• Valor esperado de una VA: E(X)
•
Varianza de una VA: E ( X ) 2
• VA discretas y continuas
• Covarianza y correlación
• Muestreo y estimadores
• Sesgo y eficiencia de los estimadores
• Propiedades de los estimadores muestrales
• Teorema del Límite Central
2
Un ejemplo de distribución de probabilidad: X es la suma de dos dados
X f p
rojo 1 2 3 4 5 6
verde 2 1 1/36
3 2 2/36
1 2 3 4 5 6 7 4 3 3/36
5 4 4/36
2 3 4 5 6 7 8 6 5 5/36
3 4 5 6 7 8 9 7 6 6/36
8 5 5/36
4 5 6 7 8 9 10 9 4 4/36
5 6 7 8 9 10 11 10 3 3/36
11 2 2/36
6 7 8 9 10 11 12 12 1 1/36
3
Un ejemplo de distribución de probabilidad: X es la suma de dos dados
probabilidad
2
__ 3
__ 4
__ 5
__ 6
__ 5
__ 4
__ 3
__ 2
__
1 1
36 36 36 36 36 36 36 36 36
36 36
2 3 4 5 6 7 8 9 10 11 12 X
Esta es la distribución vista gráficamente. En este ejemplo es simétrica: más alta para X
igual a 7, y decreciente en ambos lados.
4
Valor esperado de una variable aleatoria
n
E ( X ) x1 p1 ... x n pn xi pi
i 1
E(X) = μx
El valor esperado de una variable aleatoria, también conocida como la media poblacional,
es el promedio ponderado de sus valores posibles.
5
Valor esperado de una variable aleatoria
xi pi xi pi xi pi xi pi
x1 p1 x1 p1 2 1/36 2/36
x2 p2 x2 p2 3 2/36 6/36
x3 p3 x3 p3 4 3/36 12/36
x4 p4 x4 p4 5 4/36 20/36
x5 p5 x5 p5 6 5/36 30/36
x6 p6 x6 p6 7 6/36 42/36
x7 p7 x7 p7 8 5/36 40/36
x8 p8 x8 p8 9 4/36 36/36
x9 p9 x9 p9 10 3/36 30/36
x10 p10 x10 p10 11 2/36 22/36
x11 p11 x11 p11 12 1/36 12/36
S xi pi = E(X) 252/36 = 7
Del ejemplo anterior, el valor esperado es 7, lo cual es obvio porque, como vimos en la
gráfica anterior, la distribución es simétrica en torno a 7.
6
Valor esperado de una función de una variable aleatoria
Ejemplo:
n
E ( X ) x p1 ... x pn xi2 pi
2 2
1
2
n
i 1
Para encontrar el valor esperado de una función de una variable aleatoria, se calculan todos
los posibles valores de la función, ponderándolos por las probabilidades correspondientes,
y sumando el resultado.
7
Valor esperado de una función de una variable aleatoria
Varianza poblacional de X
E( X ) 2
X2
E ( X ) ( x1 ) p1 ... ( xn ) pn ( xi ) 2 pi
n
2 2 2
i 1
Desviación estándar de X
E[( X )2 ]
X
El valor esperado de la desviación es conocida como la varianza
poblacional de X. Es una medida de dispersión de la distribución de X
alrededor de su media poblacional.
La desviación estándar de X es la raíz cuadrada de su varianza poblacional.
9
Varianza poblacional de una variable aleatoria discreta
2 1/36 –5 25 0.69
3 2/36 –4 16 0.89
4 3/36 –3 9 0.75
5 4/36 –2 4 0.44
6 5/36 –1 1 0.14
7 6/36 0 0 0.00
8 5/36 1 1 0.14
9 4/36 2 4 0.44
10 3/36 3 9 0.75
11 2/36 4 16 0.89
12 1/36 5 25 0.69
5.83
Para obtener la varianza, primero es necesario sustraer la media a cada valor de
x. Segundo, este resultado se eleva al cuadrado y finalmente se multiplica por la
probabilidad de ocurrencia de cada x.
10
Independencia de dos variables aleatorias
Covarianza
E ( X X )(Y Y ) E ( X X )E (Y Y )
E ( X ) E ( X )E (Y ) E ( Y )
X X Y Y 0 0 0
Si dos variables son independientes, su covarianza es cero.
El valor esperado de ambos factores es cero porque E(X) = X y E(Y) = Y. E(X) = X y E(Y)
= Y porque X y Y son constantes. Por lo tanto la covarianza es cero.
12
Covarianza y correlación
Correlación XY
r XY
X Y
2 2
13
Variables aleatorias continuas
altura
55 60 65 70 75
X
Las variables aleatorias continuas pueden tomar cualquier valor infinitesimal en un rango.
Un ejemplo es la temperatura de una habitación. Se asume que ésta puede situarse entre
cualquier valor entre 55 y 75 grados Fahrenheit con la misma probabilidad en todo el rango.
En el caso de variables aleatorias continuas, la probabilidad de ser igual a un valor en el
rango siempre es infinitesimal. Por esta razón, sólo se puede hablar de la probabilidad de
una variable aleatoria continua se encuentre dentro de un rango de valores dados.
14
Variables continuas aleatorias
0.05
0.25
55 60 65 70 75
X
Soponga que se requiere calcular la probabilidad de la temperatura entre 65 y 70 grados.
Para obtenerla, se debe calcular el área debajo de la función de densidad entre 65 y 70.
La altura del rectángulo es 0.05 y su ancho es 5, por lo tanto su área es 0.25.
15
Muestreo y estimadores
16
Muestreo y estimadores
1
X X 1 ... X n
n
…Este estimador es también una variable aleatoria
porque depende de las valores aleatorios {X1, …, Xn}.
17
Muestreo y estimadores
Densidad de Densidad de
probabilidad de X probabilidad de X
X X X X
18
Sesgo y eficiencia
Función de
densidad de
probabilidad
estimator B
estimador A
X
¿Cómo elegir entre los estimadores A y B? La respuesta es usar el estimador más eficiente,
es decir, aquel con la varianza más pequeña puesto que éste tiende a ser más acertado.
En el diagrama el estimador más eficiente es B.
19
Trade off entre sesgo y eficiencia (varianza)
Función de
densidad de
probabilidad
estimador B
estimador A
20
Trade off entre sesgo y eficiencia (varianza)
Función de MSE( Z ) E ( Z q ) 2 Z2 ( Z q ) 2
densidad de
probabilidad
estimador B
sesgo
q Z
Una medida ampliamente utilizada es la media del error cuadrado del estimador, definido
como el valor esperado del cuadrado de las desviaciones del estimador respecto del
verdadero parámetro de la población.
21
Estimadores muestrales de varianza, covarianza y correlación
Varianza:
var( X ) X2 E X X
2
n
1
Estimador: sX
2
Xi X .
2
n 1 i 1
22
Estimadores de varianza, covarianza y correlación
Correlación: XY
r XY
X2 Y2
Estimador:
1
s XY n1
X X Y Y
rXY 2 2
1 1
s X sY
2 2
X X Y Y
n1 n1
X X Y Y
X X Y Y
2 2
•El coeficiente de correlación de la población rXY para dos variables X y Y es definida por
su covarianza dividida por la raíz cuadrada del producto de sus varianzas.
•El coeficiente de correlación muestral, rXY, se obtiene de reemplazar la covarianza y las
varianzas por sus estimadores.
23
Propiedades de los estimadores: consistencia
Consistencia
24
Propiedades de los estimadores: consistencia
Función de densidad de
probabilidad de X
n = 5000
0.8
0.6
0.4
0.2
n = 1000
n = 100
n = 20
q Z
Sin embargo, la condición es suficiente, no necesaria. Es posible que un estimador esté
sesgado en una muestra finita, pero el sesgo disminuye conforme el tamaño de muestra
aumenta. 26
Tamaño de muestra y margen de error
27
Teorema del Límite Central
15
n = 100
10
0
-0.6 -0.4 -0.2 0 0.2 0.4 0.6
El gráfico muestra cómo, conforme n aumenta, la distribución de la media de X
converge hacia una distribución normal.
29
Referencias
30