Академический Документы
Профессиональный Документы
Культура Документы
2
Sean X1, X2, …, Xn n variables aleatorias independientes con media µ y varianza σ , (con cualquier distribución de probabilidad),
entonces la variable promedio ̅ ∑ tiene media µ y desviación estándar √ , y tiende a una ley normal de
probabilidades conforme n tiende al infinito.
̅
Recordando que la variable estandarizada está definida como: (la variable menos la media y todo dividido para la
desviación estándar), se tiene que la variable estandarizada de la variable promedio converge a una ley normal estándar, es decir:
̅
tiende a una ley normal estándar (media 0, y varianza 1).
√
De este importante teorema, se tiene que siendo X una variable aleatoria Binomial (suma de éxitos)
n!
[ P( X k ) p k q ( nk ) ], con parámetros ( ) , ( ) (desviación estándar ( ) √ ), la variable
k!(n k )!
estandarizada de X: tiende a una ley normal estándar (media 0, y varianza 1).
√
Una aplicación estadística importante es la estimación de parámetros por medio de un intervalo. Debido a que siempre existe
incertidumbre y sesgos, interesa poder decir que, por ejemplo: 9 < X < 15, o que 10 < X < 14. Así en general estimar valores a y b
tal que a < X < b. (No solamente decir que, por ejemplo, X=12 lo que es una estimación puntual). Para esto vamos a deducir
primero la media y la varianza de las variables: (i) Proporción, (ii) Promedio, y (iii) Total.
2
Recordemos primero que siendo c una constante y X una v.a., sabemos que E(c X) = c E(X) y V(c X) = c V(X). Así:
2
A. Sean X1, X2, …, Xn n variables aleatorias independientes con media µ y varianza σ , se definen las variables siguientes:
1. Variable promedio = ̅
B. Sean X1, X2, …, Xn n variables aleatorias independientes de Bernoulli con media p y varianza pq, se definen las variables:
( ) ( ) ( ) ( )
Media = ( ̅) ( )
( ) ( ) ( ) ( )
Varianza = ( ̅) ( )
Media = ( ) ( ) ( ) ( ) ( ) ( )
Varianza = ( ) ( ) ( ) ( ) ( )
Resumiendo los parámetros y la variable estandarizada respectiva:
1. Sea X una variable aleatoria Binomial (suma de éxitos): La variable estandarizada es:
( ) ( )
( )
( ) √
( ) √
2. Sea P la variable aleatoria Proporción (promedio de la suma de La variable estandarizada es:
éxitos P=X/n):
( )
( )
( )
( ) √
( ) √
3. Sea ̅ la variable aleatoria Promedio (promedio de las Xi): La variable estandarizada es:
̅ ( ̅) ̅
( ̅)
( ̅) ( ̅) √
( ̅) √
4. Sea Sn la variable aleatoria Total (suma de todas las Xi): La variable estandarizada es:
( ) ( )
( ) ( ) √
( ) √
Sea X1, X2, …, Xn una muestra aleatoria de n variables independientes con media poblacional µ (valor verdadero desconocido). El
promedio de las n variables es una aproximación de la media µ, y puede tenerse el esquema siguiente:
Luego se tiene como objetivo, con base en la muestra de las n variables aleatorias, determinar los valores de los límites inferior y
superior de un intervalo [a , b], que contiene al valor verdadero µ desconocido con un cierto nivel de confianza. De esta manera
puede decirse que el valor verdadero µ (desconocido) se encuentra entre los límites a y b, es decir que: a < µ < b.
Para aclarar mejor esto, imaginen la situación siguiente: queremos estimar la talla promedio de todos los adultos de la ciudad de
Quito. Si hiciéramos un censo, y tomamos la talla de todos los habitantes, entonces podemos conocer el valor verdadero, y vamos a
inventarnos un valor, digamos que la talla promedio real es µ=167 cm. Pero como no siempre puede hacerse un censo, por muy
caro, mucho tiempo, etc., tomamos una muestra, digamos unas 300 personas, y estimamos con estos datos la talla promedio y
obtenemos ̅ =162 cm (se comete un error de 5 cm respecto del valor verdadero que generalmente no se conoce). Tomamos otra
muestra, ahora de 400 personas y estimamos ̅ =169 cm (error de 2 cm), y así sucesivamente. Con todas las muestras, siempre
estamos alrededor o próximos al valor verdadero µ (casi siempre desconocido).
Así, deben tomar en cuenta que ̅ es una estimación del parámetro µ, y por lo tanto la diferencia ( ̅ - µ) es el error que se comete
con la estimación promedio ̅ . Por otro lado, noten también que este error ( ̅ - µ), es el numerador de la definición de variable
estandarizada.
Sabemos también que en una distribución normal, la población que existe entre -1 y +1 desviación estándar alrededor de la media,
es del 68%, del 95% con dos desviaciones estándar, y 99% de la población con 3 desviaciones estándar. Sin embargo, estos valores
en realidad son aproximaciones, puesto que el valor real para tener el 99% de la población es 2,57 desviaciones (que suelen
aproximar a 3), mientras que para el 95% de la población el valor exacto es de 1,96 desviaciones (que lo aproximan a 2).
Observar que podemos plantear, por ejemplo, que: P(-1,96 < Z < 1,96) = 0,95 o que P(-2,57 < Z < 2,57) = 0,99
A la proporción de la población que se abarca, digamos el 95%, o el 99%, o el 98%, se le suele llamar el NIVEL DE CONFIANZA, pero
en realidad esto debe ser visto desde el punto de vista del muestreo, es decir, cuando se hable del 95% de confianza, se refiere a
que de todas las muestras posibles que se pueden formar, se está considerando el 95% de toda ellas.
Veamos entonces ahora como se obtienen los límites para el parámetro media µ de la variable promedio ̅ (para las variables
proporción y total, el procedimiento es el mismo, pero con sus parámetros respectivos). Sabemos que la desviación estándar es
̅ ( ̅) ̅
√ , y la variable estandariza es: . Entonces, podemos plantear para la variable promedio, tomando
( ̅) √
un 95% de confianza (similar con cualquier otro nivel de confianza):
̅
P(-1,96 < Z < 1,96) = 0,95 = ( )
√
̅
A continuación se toma la desigualdad interna , y se procede a despejar el parámetro µ, obteniendo
√
de esta manera los límites inferior y superior del intervalo buscado, teniendo así:
̅ ̅
√ √
Luego:
El límite inferior del intervalo es: ̅
√
Para la variable total, los límites del intervalo al 95% de confianza son: √