Академический Документы
Профессиональный Документы
Культура Документы
por
Marco Antonio Alfaro Sironvalle
Ingeniero Civil de Minas, Universidad de Chile
Junio, 2000
0.
INTRODUCCIN A LA ESTADSTICA.
I.
ESTADSTICA DESCRIPTIVA.
I.1.
DEFINICIONES.
a)
Fenmenos Aleatorios : Desde hace algunos aos se ha comenzado a estudiar, de manera
cientfica, los fenmenos aleatorios, que son aquellos en que las mismas causas dan lugar
resultados diferentes.
b)
Experimentos Aleatorios : Se llama experimento aleatorio a una experiencia cuyo
resultado depende del azar, es decir, puede variar cuando esta se repite en condiciones supuestas
idnticas, ejemplos.
- tirar un dado y ver el nmero que aparece.
- medir las horas de duracin de una ampolleta.
c)
Resultado : Es la informacin aportada por la realizacin de una experiencia. el conjunto
de todos los resultados posibles de un experimento se llama espacio muestral y se designa por la
letra , ejemplos:
- = { 1, 2, 3, 4, 5, 6 }, para el lanzamiento de un dado.
- = { x : x 0 }, si se mide la estatura de un individuo.
I.2.
a)
Variable estadstica asociada a un experimento : Si a cada resultado se le asocia un
nmero perteneciente a un cierto conjunto, se dice que este nmero es una variable estadstica. Se
utilizan letras maysculas para representar las variables estadsticas, ejemplos:
- X = estatura de un individuo.
- X= resultado de tirar un dado.
- X = temperatura a las 12 horas en un punto dado.
b)
Muestra de n resultados : Es el conjunto de valores tomados por una variable estadstica
durante n experimentos, ejemplo:
- M = { 6, 2, 3, 3, 4, 5, 6, 3, 1, 1 } si se tira 10 veces un dado.
- M = { 0.96; 1.02; 0.50; 030; 0.89 } si se analizan 5 muestras por cobre dentro de un
yacimiento.
En general : M = { x1, x2, ..., xn }.
I.3.
Una Variable estadstica es Discreta, si el conjunto de valores posibles se puede poner en la forma
R = { a1, a2, ... , ak }
en que k es el nmero de valores diferentes que puede tomar la muestra.
Sea una muestra de tamao n y sea ri el nmero de repeticiones del valor ai en la serie de n
i =1
En donde ri es la frecuencia absoluta del valor ai. Se define la frecuencia relativa del valor ai
como:
fi =
ri
n
fi = 1
i =1
a1
r1
f1
a2
r2
f2
...........
...........
...........
ak
rk
fk
I.4.
ak
a2
Una variable estadstica es continua si toma sus valores en un conjunto continuo, es decir, un
intervalo del eje real.
Para reducir una muestra M = { x1, x2, ... , xn } de una variable continua, se definen clases, que
son intervalos disjuntos que cubren el dominio de definicin de la variable,
Ejemplo : Leyes de Cu de un conjunto de testigos, eligiendo clases iguales de magnitud 0.1
X
ri
fi
ci
0 x < 0.1
r1
f1
c1
...............
...............
...............
...............
Se define, anlogamente :
ri = numero de datos de la muestra que caen en la clase ci
fi = frecuencia relativa de la clase ci ( ci = ri / n)
ci = magnitud de la clase ci
La representacin grfica de la tabla anterior se llama histograma ( k = nmero de clases )
Histograma
fi
f2
Fig.1
f1
fk
0
c1
ci
ri = n
i =1
I.5.
f
i =1
=1
EL DIAGRAMA ACUMULADO
Para caracterizar una variable estadstica se utiliza tambin el diagrama acumulado F(x) que
representa la frecuencia relativa acumulada en el histograma hasta el punto x.
La figura 2 nos muestra como se construye el diagrama acumulado a partir del histograma.
0.30
0.20
0.10
0.10
0.05
0.20
0.05
F(x)
1.0
0.85
0.8
0.65
0.6
Fig.2
0.4
0.35
0.2
0.15
0.05
En trminos intuitivos F(x) representa el porcentaje de valores de la muestra que la muestra que
son inferiores a x.
I.6.
Adems del histograma y del diagrama acumulado, existen varios parmetros que caracterizan el
comportamiento de una muestra.
a)
Parmetros de Tendencia Central :
Los parmetros de tendencia ms importantes son la media y la mediana.
i)
La Media Aritmtica : Sea la muestra M = { x1, x2, ..., xn } la medida tpica ms
comnmente utilizada es la media, definida simplemente por:
x=
x1 + x 2 + .... + x n 1 n
= xi
n
n i=1
x = a i fi
i =1
x = x i fi
i =1
Si n es par :
y n + y n+2
2
M= 2
Ejemplo :
Se dispone de la muestra, con datos de leyes de Cu siguientes :
M = { 0.95 , 1.02 , 0.90 , 4.03 , 1.10 } M = {0.90 , 0.95 , 1.02 , 1.10 , 4.03} = {y1, y2, y3, y4,
y5} luego la mediana es M = y3 = 1.02.
La mediana tiene la propiedad siguiente : el 50 % de los datos es menor que M y el 50% de los
datos es mayor que M, es decir M divide la muestra en dos partes iguales. La mediana esta menos
afectada por valores extremadamente altos ( o extremadamente pequeos ) que la media, en el
ejemplo anterior la media es : x = 1.60 valor muy afectado por el dato 4.03
La mediana se puede determinar grficamente utilizando el diagrama acumulado F(x). Segn lo
anterior la mediana es el valor xM para el cual se cumple la relacin F(xM) = 0.5
F(x)
1.0
0.8
0.6
Fig.3
0.50
0.4
0.2
XM
b)
Parmetros de dispersin :
Adems de poder encontrar la media de una muestra, resulta importante medir la variacin de los
datos con respecto a este valor central.
La variacin de los datos con respecto a la media esta caracterizada por las diferencias :
(x1 x), (x 2 x),....., (x n x). Para encontrar un indicador de la variacin, se pueden promediar
estas diferencias :
x1 x + x 2 x + .... + x n x
, pero
n
x + x + .... + x n
= 1 2
x =0
n
Luego la desviacin promedio es siempre nula. Esto proviene del hecho que las desviaciones
positivas se cancelan con las desviaciones negativas. Para definir una medida de la variacin se
toman entonces las diferencias elevadas al cuadrado : ( x1 x ) 2
Tenemos entonces la definicin siguiente :
Se llama Varianza de la muestra M = { x1, x2, ..., xn} a :
2 =
o bien :
2 =
( x1 x )2 +( x2 x )2 +
n
( x2 x) 2
,.......,
(xn x) 2 .
+( xn x )2
1
(x i x) 2
n i =1
= 2
La desviacin tpica est expresada en las mismas unidades de la variable estadstica, tambin
constituye una medida de dispersin.
c)
Otras Medidas de Dispersin.
Existen otras medidas de dispersin basadas en los cuartiles o percentiles de orden .
Se llama percentil de orden ( 0 < < 1 ), al valor x tal que f(x) = . Este valor se puede
obtener grficamente utilizando la funcin F(x).
F(x)
1.0
0.8
Fig.4
x0.8
El percentil x divide la muestra de datos en dos partes : el % de los valores es menor que x y
el ( 1 - )% de los valores es mayor que x. Existen tres percentiles importantes llamados
cuartiles :
X0.25 se llama primer cuartil.
X0.50 se llama segundo cuartil ( y es la mediana ).
X0.75 se llama tercer cuartil.
Como medida de dispersin de la muestra se utiliza el recorrido intercuartlico, definido por :
R = x0.75 x0.25
La magnitud de R nos da una medida de la dispersin de la muestra ( ver figura 5 )
x
F(x)
F(x)
0.75
0.75
0.25
0
0.25
x
R
Recorrido pequeo
R
Recorrido mayor
Fig.5
El Coeficiente de Simetra .
<0
a) Asimetra Negativa
=0
b) Asimetra Positiva
Fig.6
=
En que :
3 =
1
n
(x
i =1
3
3
x )3
c) Simetra
1 xm
e 2
= varianza de la muestra.
m = media de la muestra = x .
E>0
E<0
Gauss
a) Histograma ms
puntiagudo que
la ley de Gauss
E=0
Gauss
b) Histograma ms
achatado que la
ley de Gauss
Gauss
c) Histograma sin
achatamiento
Fig.7
Al comparar un cierto histograma con la funcin f(x), se pueden presentar los casos siguientes :
El Coeficiente de Kurtosis se define se por:
E=
4
1 n
3
en
que
=
(x i x)4
4
4
n i =1
10
II.
A menudo se realizan experimentos cuyos resultados dan lugar a un par de nmeros o a una serie
de nmeros.
Ejemplo :
( X , Y ) , en que X = ley de Cu , Y = ley de S.
O bien :
( X , Y , Z ) , en que X = ley de Pb , Y = ley de Zn , y Z = ley de Au
En el caso bidimensional, una muestra de n observaciones es de la forma :
M = { (x1 , y1), (x2 , y2), ..., (xn , yn) }
La agrupacin de la muestra se hace mediante una tabla del tipo tabla de contingencia :
a0 y < a1
a1 y < a2
b0 x < b1
r11
r21
b1 x < b2
r12
r22
..........
..........
..........
bk-1 x < bk
r1k
r2k
ap-1 y < ap
rp1
rp2
..........
rpk
Fig.8
11
Fig.9
La figura 9 muestra la nube de correlacin ley de U3O8 radiactividad para 74 muestras, del
yacimiento Saelices (Espaa).
La figura 10 resume los casos que se podran encontrar al estudiar dos variables estadsticas X e
Y:
Fig.10
Existen herramientas para cuantificar los comportamientos anteriores y son la Covarianza y el
Coeficiente de Correlacin.
II.1
LA COVARIANZA.
Supongamos que nuestra muestra. M = { (x1 , y1), (x2 , y2), ..., (xn , yn) } la escribimos en
columnas, agregando una columna de productos xi*yi :
12
X
x1
x2
Y
y1
y2
X*Y
x1*y1
x2*y2
xn
Promedio X
yn
Promedio Y
xn*yn
Promedio X*Y
c xy = xy x y
Lo cual se puede escribir tambin como :
n
n
n
= 1 x y 1 x 1 y
xy n
i i n
i n
i
i =1
i = 1 i = 1
Y
1
2
3
4
y = 2 .5
X*Y
1
4
6
12
x y = 5.75
x y
en que : x =
2
1
1
2
(x i x) 2 , y = (y i y) 2
n i =1
n i =1
13
iii)
iv)
v)
vi)
- 1.0
- 0.5
1.0
0.5
Correlacin debil
II.1
LA CURVA DE REGRESIN.
Fig.11
En general m(x) es una funcin de x. Si esta funcin es una recta se dice que la regresin es lineal
(ver fig.12a ). Cuando no existe correlacin entre x e y, la curva de regresin es una constante.
(ver fig. 12b )
(b)
(a)
Fig.12
14
III.
CALCULO DE PROBABILIDADES.
En los prrafos anteriores hemos estudiado las situaciones aleatorias desde un punto de vista
descriptivo. Se hace necesario introducir un modelo matemtico. La exposicin axiomtica
moderna es el nico mtodo riguroso para construir la teora del clculo de probabilidades.
Antes de enunciar los axiomas de las probabilidades necesitamos introducir el concepto de
sucesos o eventos aleatorios :
Sucesos :
Sea un experimento aleatorio. Se llama espacio muestral al conjunto de todos los resultados
posibles. Se designa por la letra .
Ejemplos :
(i)
al tirar un dado = { 1, 2, 3, 4, 5, 6 }
al tirar una moneda ={ cara, sello }
(ii)
Se llama suceso a cualquier subconjunto del espacio muestral
Ejemplo : A = tirar un dado y sacar un nmero impar = { 1, 3, 5 }, es un suceso ya que es
subconjunto de = { 1, 2, 3, 4, 5, 6 }
Sea un experimento aleatorio y sea A un suceso, entonces al hacer un experimento solo caben
dos alternativas :
Ocurre el suceso A.
No ocurre el suceso A.
De acuerdo a lo anterior se definen otros tipos de sucesos :
a)
Suceso Seguro : Es aquel que siempre ocurre. Es fcil ver que suceso seguro y espacio
muestral son lo mismo. Lo designaremos con la letra .
b)
Suceso Imposible : Es aquel que nunca ocurre. Lo representaremos por la letra . Por
ejemplo al tirar un dado = sacar el nmero 7
c)
Suceso Contrario : A es el suceso contrario de A, si ocurre cuando no ocurre A. Ejemplo:
Si al tirar un dado A = { 2, 4, 6 }, entonces A = { 1, 3, 5 }.
Se tiene las siguientes relaciones lgicas :
A= A
d)
Suceso Interseccin : Sean A y B sucesos, se define la interseccin de A y B como el
suceso C que ocurre cuando A y B ocurren simultneamente. Escribamos C = A B.
Ejemplo: Si A = { 1, 2 } , B = { 2, 4, 6 }, entonces A B = { 2 }.
e)
Sucesos iIncompatible : Dos sucesos A y B se dicen incompatibles si no pueden ocurrir
simultneamente. En este caso, segn la definicin : A B = .
15
f)
Suceso Unin : Sean A y B sucesos, se define la unin de A y B como el suceso D que
ocurre cuando A B ambos a la vez. Se escribe D = A B.
Ejemplo: Si A = { 1, 2 } , B = { 2, 4, 6 } entonces A B = { 1, 2, 4, 6 }.
Se tiene la relacione lgica :
A A =
Los conceptos anteriores pueden visualizarse mediante los diagramas de Venn de la teora de
conjuntos :
AB
AB
AB=
Fig.13
III.1
Se llama probabilidad de un suceso A a un numero real P(A) que satisface los axiomas siguientes:
Axioma 1 :
P(A) 0
Axioma 2 :
P() = 1
Axioma 3 :
entonces :
P(A B) = P(A) + P(B)
Observacin : El sistema de axiomas anteriores es incompleto; no nos dice como se calcula una
probabilidad, de modo que se puede adoptar la definicin de probabilidad al fenmeno que se
quiere estudiar.
Dependiendo de las condiciones del problema, se calculara la probabilidad de un suceso A por :
k
= N de casos favorables a A / N de casos totales
n
i)
P ( A) =
ii)
nA
P ( A) = lim
n n
En que nA es el numero de veces que ocurre A en una serie de n repeticiones del experimento.
16
iii)
En los casos de probabilidades geomtricas, se calcula P(A) como una razn de
longitudes, de reas o de volmenes.
Ejemplo: Si se tira en S un
s
punto al azar ( es decir sin
apuntar ), la probabilidad
S
de que impacte en s es : P(A) = s / S
Las tres maneras de calcular una probabilidad que hemos visto satisface los axiomas.
III.2
(AB)
PROBABILIDAD CONDICIONAL
Sea B un suceso del cual sabemos que ha ocurrido. La probabilidad condicional de un suceso A
dado que ha ocurrido B, escrita P( A B ), se define por :
P( A B ) =
P( A B )
P( B )
(1)
A
P ( B A) =
P( A B)
P ( A)
(2)
(3)
17
(4)
(5)
SUCESOS INDEPENDIENTES
(6)
18
IV.
VARIABLES ALEATORIAS
b)
x
x2
x1
xi
R = {x:a x b}
p(x ) = 1
i
19
X=0
X=2
X=1
X=3
R = { 0, 1, 2, 3 }
p( 0 ) = P( X = 0 ) = 1 / 8
p( 1 ) = P (X = 1 ) = 3 / 8
p( 2 ) = P (X = 2 ) = 3 / 8
p( 3 ) = P (X = 3 ) = 1 / 8
Luego
f( x )
f(x) 0
b)
f(x)dx = 1
P( a X b )
c)
f(x)dx = P(a X b)
a
P( X = a) =
f ( x)dx = 0
a
es decir la probabilidad del suceso X = a es nula sin embargo esto no significa que el suceso X =
a es imposible.
Ejemplo : Sea X el ngulo que forma un lpiz con una recta fija. X es una variable aleatoria
continua con funcin de densidad f(x) como muestra la figura :
20
f(x)
calculamos P( /4 X /2 ) :
P(
X ) =
4
2
1/2
/2
1
1
dx =
2
8
/4
F(x) = f(x)dx ,
lo que implica :
f(x) =
dF(x)
dx
F( - ) = P( X - ) = P( ) = 0
F( + ) = P( X + ) = P( ) = 1
F( x ) es una funcin que no decrece, es decir : si a b, entonces F( a ) F( b )
F(x)
Fig.14
IV.2
21
Fig.15
1/6
E(X) = 3.5
E(X)
E(X ) = x i p( x i)
i
x1
xi
x2
b)
Sea X una variable aleatoria continua, con funcin de densidad f(x), se define la
esperanza matemtica de X como :
f(x)
Fig.17
E(X) = x f(x)dx
xG =
Centro de Gravedad
x f(x)dx
= E(X)
f(x)dx
f(x)
es igual a 1
Fig.18
E(x) = xG
Ejemplo : sea f( x ) como en la figura,
22
Entonces :
b
Fig.19
1
1
E(X) = x
dx =
x dx
ba
b a a
a
E(X) =
f(x)
1 x
b a
b+a
=
=
b a 2 a 2(b a)
2
2
1/(b-a)
a
E(x)
Si X es discreta
b)
Si X es continua
E[H(X)] =
H(x) f(x)dx
E(X 2 ) = x 2
a
E( X 2) =
1
1
dx =
x 2dx
ba
b a a
b
3 3 (b a) ( b2 + ab + a 2) ( b2 + ab + a 2)
1 x3
= b a =
=
b a 3 a 3 (b a)
3 (b a)
3
Propiedad 2 :
E( X + C ) = E( X ) + C
Propiedad 3 :
E( X * C ) = C * E( X )
E( X + ) = E(X ) + ( y = cte. )
La Esperanza matemtica constituye una medida de tendencia central de una distribucin terica
de probabilidades. Por analoga de lo que vimos en Estadstica Descriptiva, definiremos una
medida de dispersin terica : La Varianza.
IV.3
V(X) = E(X m) 2
(1)
V(X) = E(X 2 ) m 2
(2)
b2 + ab + a 2 b + a
(b a) 2
V(X) =
=
3
12
2
( ver figura 20 )
f1(x)
X
X
f2(x)
a
a b
V( X ) = (b a)2 / 12
b
V( X' ) = (b' a')2 / 12
V( X ) < V( X' )
Menor dispersin
Mayor dispersin
x = V(X)
x constituye tambin una medida de dispersin.
b)
Se utilizan otros smbolos para designar la varianza, tales como x2, D2(X), Var(X), 2,...
Propiedades de la Varianza.
Las siguientes son las propiedades de la varianza, las cuales se pueden probar apartir de la
definicin :
24
Propiedad 1 :
V( C ) = 0
,en que C es una constante ( en otras palabras,
una constante no tiene dispersin )
Propiedad 2 :
V( X + C ) = V( X )
Densidad de X
Densidad de Y = X + 2
E(X)
E(X+2)
Fig.21
Propiedad 3 :
V( C*X ) = C2 * V( X )
( ver figura 22 )
Ley de X
Ley de Y = 4*X
1
0.25
1
V( X ) = 1/12
Fig.22
V( X + ) = 2 V(X)
25
( y = ctes. )
IV.4
Sea ( X , Y ) una variable bidimensional discreta ( es decir ambas son discretas ), a cada
resultado posible ( xi , yj ) le asociamos un valor :
p( xi , yj ) = P( X = xi , Y = yj )
Fig.23
el cual satisface :
p(x , y ) = 1
i
p( xi , yj )
yj
y
xi
x
a)
Sea ( X , Y ) una variable aleatoria bidimensional continua (es decir ambas son
continuas), entonces existe una funcin f(x , y) llamada densidad de probabilidad
conjunta que satisface las condiciones :
i)
f(x, y) 0
ii)
f(x, y )dxdy = 1
iii) P((X, Y ) D) =
f(x, y)dxdy
26
f ( x,y)
f ( x,y )
Volumen
0
D
Volumen
bajo
la
funcin f(x,y) es igual a
1.
f (x, y)dxdy
representa la
D
probabilidad de que el resultado caiga en
una zona D del plano.
(c)
(b)
Fig.24
(1,1)
p(0,3) = 1/8
p(1,1) = 3/8
p(2,1) = 3/8
p(3,3) = 1/8
3/8
2
3
3/8
1
(3,3)
(2,1)
x1
x2
x3
x4
3
0
y1
3/8
3/8
y2
1/8
1/8
1/8
3
1/8
Fig.25
Ejemplo 2 : Dos personas deciden juntarse entre las 0 hrs y 1 hrs. Cada una decide no esperar ms
de 10 minutos a la otra. Si estas personas llegan al azar entre las 0 h y 1 h cual es la probabilidad
de que se encuentren ?.
27
0 x 60
Variacin de Y :
0 y 60
f (x , y) = 1 / 360
Fig.26
h
60
y
60
x
y x 10
y = x + 10
60
f(x,y)
y = x - 10
60
1/3600
10
0 10
60
60
x
volumen
Fig.27
estas desigualdades determinan la zona D en la cual se encuentran las personas ( figura 27 ) :
3600 2500 11
Probabilidad = Area de D * 1/3600 =
=
3600
36
28
IV.1.
a)
tomando probabilidades :
q( y j) = P(Y = y j) = p(x i , y j )
i
densidad marginal de X.
densidad marginal de Y.
IV.2.
b)
29
x1
0
y
y1
1
y2
3
p(xi)
Se tiene :
x3
2
3
8
3
8
3
8
1
8
1
8
P( X = 1 , Y = 1 ) = 3/8
P( X = 1 ) = 1/8
,
Como P( X = 1 , Y = 1 )
IV.3.
x2
1
3
8
x4
3
0
1
8
1
8
q(yj)
6
8
2
8
P( Y = 1 ) = 6/8 = 3/4
E[H(X, Y)] =
si ( X , Y ) es discreta
si ( X , Y ) es continua
Teorema 1 :
Teorema 2 :
E(X Y) =
E(X Y ) =
IV.4.
Definiremos a continuacin una nueva cantidad que nos dar, en cierto sentido, una medida de la
dependencia entre dos variables aleatorias X e Y.
Definicin : se llama covarianza de X e Y a la cantidad :
30
b)
c)
Se puede demostrar que si ( en promedio ) X crece, Y tambin crece, entonces Cxy > 0 y
que si ( en promedio ) al crecer X, Y decrece, entonces Cxy < 0.
Fig.28
Varianza de una suma de variables aleatorias
Deseamos encontrar una expresin para la varianza de la suma de variables aleatorias : Z = X+Y:
(1)
(2)
La propiedad (2) se puede generalizar para n variables X1, X2, ......., Xn independientes entre
ellas:
V( X1 + X2 +.......+ Xn ) = V( X1 ) + V( X2 ) +.......+ V( Xn )
31
(3)
xy =
Cxy
V(X) V(Y)
Se puede observar que xy esta ntimamente relacionado con la covarianza, sin embargo xy es un
numero sin dimensin.
Propiedades de xy :
Propiedad 3 :
xy = 1
xy = -1
Fig.29
32
Fig.30
33
V.
MODELOS PROBABILISTICOS.
A.1.
La variable aleatoria de Bernulli es una de las mas simples. Por definicin X es una variable de
Bernulli ( X sigue la ley de Bernulli ) si X toma solamente dos valores a y b, con probabilidades
p
1-p
Fig.31
respectivamente 1 p y p ( 0 p 1 ) :
Se puede probar que :
E(X) = a (1 p) + b p
V(X) = (b a) 2 p (1 p)
1/2
Fig.32
A.2.
ii)
El experimento se detiene cuando ocurre por primera vez el suceso A. Sea X = numero de
repeticiones necesarias .
El conjunto de resultados posibles es :
= { A , BA , BBA , BBBA ,...... }
X=1
X=2
X=3
34
X = 4 ,....
P(X = k) = (1 p) k 1 p
Fig.33
p(1 p)
2
p(1 p)
E(X)
V(X) =
1 p
2
p
Ejemplo : se tira una moneda hasta que aparezca por primera vez cara. Entonces X = numero
de lanzamientos necesarios sigue una ley geomtrica con parmetros p = . En particular
E( X ) = 2.
1/2
1/4
1/8
1/16
1
1/32
5
Fig.34
A.3
35
X=n
i)
= { B, A }
X=0
P( X = 0 ) = 1 p
X=1
P( X = 1) = p
n = 2
ii)
X=1
X=2
P( X = 0 ) = P( BB ) = P(B)*P(B) = (1 - p)2
P( X = 1 ) = P( AB, BA ) = P(AB)*P(BA) = 2p*(1 - p)
P( X = 2 ) = P( AA ) = p2
n = 3
iii)
P( X
P( X
P( X
P( X
iii)
=
=
=
=
0)
1)
2)
3)
=
=
=
=
(1 p)3
3p(1 p)2
3p2(1 p)
p3
X=1
X=2
X=3
Para un valor de n ms general, se tiene la formula siguiente, deducida del teorema del
binomio :
n
p k (1 p) n k
P(X
k)
=
=
=
Pk
k
k = 0, 1, ...., n
en particular : P0 = P( X = 0 ) = (1 p)n
Pn = P( X = n ) = pn
Se puede probar que si X sigue una ley binomial con parmetros n y p, entonces :
36
E(X) = n p
V(X) = n p (1 p)
Ejemplo : Sea una familia de n = 4 hijos, entonces X = numero de hijos varones es una
variable binomial de parmetros n = 4 , p = 0.5. Adems : P( X = 4) = (0.5)4 = 1 / 16
La esperanza matemtica de X es : E(X) = n*p = 4*1/2 = 2, resultado que corresponde a la
intuicin.
n
En la formula P k = P(X = k) = p k (1 p) n k , el valor de se calcula por :
n
n!
n =
k k!(n k)!
con :
k! = 1 2 3 ..... k
0! = 1 ( por definicin )
Ejemplo : Se sabe que la probabilidad de que un camin este averiado a la entrada de un turno es
p = 0.1. Si la empresa dispone de 30 camiones cual es la probabilidad de que haya exactamente
5 camiones averiados ?
Sea X = numero de camiones averiados
30
P( X = 5) = (0.1)5 (0.9) 25 = 0.102
5
Es frecuente encontrar en la practica situaciones en que se aplica la Ley Binomial con p muy
pequeo y n muy grande. Por ejemplo, se ha determinado que la probabilidad de que aparezca
una pieza defectuosa es p = 0.01 y se renen las piezas en cajas de 200 piezas, la probabilidad de
que en la caja existan r piezas defectuosas es :
200
P(X = r) = (0.01) r (0.99) 200 r
r
Este valor se puede calcular de manera exacta o bien se puede calcular de manera aproximada
utilizando el siguiente teorema :
k e
n
lim p k (1 p) n k =
n
k!
k
np=
37
El limite anterior significa que n tiende a infinito manteniendo constante e igual a el producto
n*p ( esto implica que p debe ser pequeo ). Se tiene entonces :
Pk = P(X = k ) =
k e
k = 0, 1, 2,.....
k!
Fig.35
Lo anterior significa que la Ley de Poisson aproxima bien a la binomial cuando n es grande y p
pequeo; se considera que la aproximacin es buena si p < 0.1 y si n*p < 5.
Ejemplo : en el caso anterior de las piezas defectuosas :
200
P(X = 3) = (0.01) 3 (0.99)197 = 0.1813
3
P(X = 3)
2 3 e 2
= 0.1805
3!
La Ley Hipergeometrica.
38
p*N defectuosas
N p*N
no defectuosas
Muestreo
sin reemplazamiento
(nN)
n piezas
N piezas
Fig.36
a)
D N D
P(X = k) = k n k
N
n
b)
E(X) = n p
c)
V(X) =
n p(1 p) (N n)
N 1
Ejemplo : en un estanque hay 20 peces de los cuales 8 son coloreados. Se pescan 10 peces,
calcular la probabilidad de que existan 5 peces coloreados.
Solucin : N = 20 ; n = 10 ; D = 8 ; p = 0.8 ; X = numero de peces coloreados
8 20 8
8 12
5
10
5
= 5 5 = 0.24
P(X = 5) =
20
20
10
10
( En este caso E(X) = n*p = 10 * 0.4 = 4 )
B.
B.1.
Sea X una variable aleatoria continua. Se dice que X sigue una ley uniforme si su densidad f(x)
esta dada por :
39
f(x) =
1
ba
si x [a , b]
si x [a , b]
Fig.37
f(x)
1
ba
a
E(x)
Ejemplo : Sea X el ngulo que forma un lpiz arrojado al azar con una recta fija ( ver pagina 19 )
entonces X sigue una ley uniforme en el intervalo [0 , 2].
Se puede demostrar que si X sigue una ley uniforme :
b+a
2
2
(
b a)
V(X) =
12
E(X) =
B.2.
Se dice que X sigue una ley exponencial con parmetros si su densidad esta dada por :
e x
si x > 0
si x 0
f(x) =
f(x)
Fig.38
E(X) =
V(X ) =
40
B.3.
( p) = e x x p 1dx
0
( p ) = ( p 1 )!
Se dice que una variable aleatoria X sigue una ley Gamma con parmetros a y p si su densidad es
:
f(x) =
a p e ax y p 1
( p )
si x > 0
si x 0
0
( p > 0 , a > 0 ).
41
p
a
p
V(X) = 2
a
E(X) =
B.4.
B(p, q) =
( p) ( q )
= x p1 (1 x) q 1 dx
(p + q )
0
Se dice que una variable aleatoria X sigue una ley Beta con parmetros p y q si su densidad es :
f(x) =
x p1 (1 x) q 1
B(p, q)
si 0 < x < 1
si x 0 x 1
0
(p>0 , q>0)
Se puede demostrar que :
E(X) =
V(X) =
B.5.
p
p+q
p
(p + q) (p + q + 1)
2
f(x ) =
1 x m
, en el punto x = m
2
42
= 0.5
Fig.40
= 1.0
Conviene recordar las siguientes reas bajo la curva de la ley de Gauss ( Fig.41 ) :
95 %
68 %
m-
m+
m - 2
m + 2
99.7 %
m + 3
m -3
Fig.41
43
Fig.42
B.6.
Definicin : Se dice que una variable aleatoria X sigue una Ley Lognormal si su logaritmo
(neperiano, en base e) sigue una ley normal. A partir de esta definicin se puede demostrar que la
funcin de densidad tiene por expresin :
1 lnx m 2
1
e 2
f(x ) =
x 2
si x > 0
f(x ) = 0
si x 0
44
f(x)
Fig.43
x
0
La ley lognormal se presenta con frecuencia en el estudio de histogramas asociados con leyes de
muestras provenientes de yacimientos mineros.
Se puede demostrar que :
M = E ( X ) = e m +
2 = V ( X ) = M 2 e 1
45
VI.
La ley de Los grandes nmeros y el teorema del limite central constituyen uno de los resultados
ms importantes del calculo de probabilidades.
A)
La ley de Los grandes nmeros.
Sea X1, X2,......, Xn una sucesin de variables aleatorias independientes tales que E(X1) = E(X2) =
.....=E(Xn) = m, entonces cuando n tiende a infinito, se tiene :
X + X 2 + ..... + X n
P 1
= m 1,0
n
o sea que si n es grande, la probabilidad de que el promedio de las variables sea igual a la
esperanza matemtica m es muy prxima a 1,0.
B)
El teorema del limite central.
Este teorema pone de manifiesto la importancia que la ley de Gauss :
Teorema : Sea X1, X2,......, Xn una sucesin de variables aleatorias independientes tales que :
E(Xi) = mi
,
V(Xi) = 2i
Entonces, si n es grande, la variable aleatoria :
Z = X1 + X2 +.....+ Xn
sigue aproximadamente una ley de Gauss con esperanza matemtica E( Z ) = m1 + m2 +.....+ mn
y con varianza V( Z ) = 21 + 22 +.....+ 2n
El grado de aproximacin entre la variable Z y la ley de Gauss depende evidentemente de n y de
la ley de probabilidad de Los Xi. En la figura 43 hemos representado el caso en que todos Los Xi
siguen una ley uniforme en el intervalo [ 0 , 1 ], tambin hemos dibujado la densidad de la ley
normal de igual esperanza y varianza.
n=1
n=1
n=2
n=2
n=3
n=3
Ejemplo : Supongamos que se tiene una sucesin X1, X2,......, Xn de variables aleatorias
independientes tales que cada Xi sigue la ley de probabilidad siguiente :
46
Es fcil de ver que la variable aleatoria Z = X1 + X2 +.....+ Xn toma los valores 0, 1, 2,....., n con
probabilidades :
n 1 n
p k = P( X = k ) =
2
k
k = 0, 1, 2,..., n
El grfico de pk para n = 10 es :
Fig.45
200
10
2
100
10
2
10
Como puede observarse el Teorema del Limite Central explica porqu en tantas aplicaciones
aparecen distribuciones normales, ya que expresa que la suma de variables aleatorias, en
condiciones muy generales, tienden hacia la ley de Gauss. El ejemplo ms clsico e importante es
el de Los errores de medida, en que, al suponerse que el error total resulta de la suma de un gran
numero de errores, explica que la ley de Gauss aparezca naturalmente para la representacin de
tales errores.
El Teorema del Limite Central explica tambin porqu en la mquina de Galton las bolillas se
depositan segn una ley de Gauss.
47
VII.
LA INFERENCIA ESTADSTICA.
Teora de Muestras
Para utilizar Los modelos probabilstico que hemos presentado en Los captulos anteriores es
necesario entrar en el mundo emprico y hacer algunas mediciones. Por ejemplo, en muchos casos
es apropiado hacer hiptesis acerca de una variable aleatoria X, lo que conduce a un tipo
determinado de distribucin : normal, lognormal, gamma,...Sabemos que cada una de estas leyes
de probabilidad depende de uno o ms parmetros desconocidos, luego debemos obtener algunos
valores experimentales de X y despus utilizar estos valores de alguna manera apropiada para
estimar estos parmetros.
Formalicemos ahora la nocin importante de muestra aleatoria :
Definicin : Sea X una variable aleatoria con una ley de probabilidad. Sean X1, X2,......, Xn , n
variables aleatorias independientes en que cada una de ellas tiene la misma ley de probabilidad
que X. Llamaremos a ( X1, X2,......, Xn ) una muestra aleatoria de tamao n de la variable aleatoria
X.
Observaciones : en trminos intuitivos una muestra aleatoria de tamao n de una variable X
corresponde a n mediciones repetidas de X, hechas bsicamente bajo las mismas condiciones
(para garantizar la independencia). Las variables X1, X2,......, Xn son independientes de manera
que el resultado Xi no influya sobre el resultado Xj ( en caso contrario el muestreo de la variable
estara dirigido ).
La muestra aleatoria es un conjunto de variables aleatorias ( X1, X2,......, Xn ) y no es un conjunto
de nmeros o datos. En otras palabras la muestra aleatoria es un ente terico que se considera
antes de hacer las mediciones para obtener Los datos. Por ejemplo sea Xi = resultado de un dado
( X1, X2,......, Xn )
( 6, 2,...., 5 )
Experimento :
Tirar n veces el dado
Muestra aleatoria
de tamao n
Muestra numrica de
tamao n o realizacin
de la muestra aleatoria
TEORIA
Antes de realizar
las mediciones
PRACTICA
Despus de realizar
las mediciones
48
En general, Los valores numricos tomados por la muestra ( X1, X2,......, Xn ) se denotarn por
(x1, x2,......, xn).
Estadsticos : una vez definidos Los valores x1, x2,......, xn de la muestra, los utilizaremos de
alguna manera para hacer alguna inferencia acerca de la variable aleatoria X. En la prctica se
trata de resumir este conjunto de valores por caractersticas ms simples ( por ejemplo su
promedio aritmtico, valor ms grande, valor ms pequeo, etc...).
Se llama estadstico a una funcin H( X1, X2,......, Xn ) de la muestra aleatoria X1, X2,......, Xn
Observacin : Un estadstico es una funcin de X1, X2,......, Xn , por consiguiente :
Z = H( X1, X2,......, Xn ) es una variable aleatoria que toma el valor z = H(x1, x2,......, xn) una vez
realizado el experimento.
En general conviene estudiar Z y no z dado que este ltimo es un nmero, mientras que Z es una
variable aleatoria que puede tomar muchos valores y tiene en particular una esperanza matemtica
E(Z) y una varianza V(Z).
Como ejemplo de estadsticos tenemos los siguientes :
Experimento
mediciones
X 1 + X 2 + ... + X n
n
a)
X=
b)
S2 = 1
n
x + x 2 + ... + x n
x= 1
n
(X i X )2
s2 = 1
n
i =1
( x x)
i
i =1
c)
d)
TEORIA :
PRACTICA :
VARIABLES ALEATORIAS
NUMEROS
49
50
VIII.
a)
El estadstico X
i =1
Las propiedades ms importantes de X son las siguientes, en este caso de una muestra aleatoria
(X1, X2,...., Xn) tal que E(X1) = E(X2) =....= E(Xn) = m , V(X1) = V(X2) =....= V(Xn) = 2 :
i)
E( X ) = m
ii)
V (X ) =
iv)
2
n
X m
sigue una ley de Gauss de esperanza 0 y varianza
n
1.
Las relaciones ( i ) y ( ii ) resultan de las propiedades de la esperanza matemtica y de la varianza.
La relacin ( iii ) se deduce por aplicacin directa del teorema del limite central.
El estadstico S2n
b)
(X
2
i X)
i =1
E (S 2 n ) =
ii)
1
S 2n =
n
n 1 2
n
n
(X
2
2
i m) ( X m)
i =1
51
S2
n
1
S 2n =
n 1 =
n 1
n 1
(X
2
i X)
i =1
52
IX.
LA ESTIMACION PUNTUAL.
i)
1
m =
n
i =1
ii)
m =
1
( X1 + X n )
2
iii)
m =
1
(M + K )
2
iv)
m = X 1 + X 2 + ..... + X n
Observaciones :
a)
Es evidente que al proponer m como estimador del valor verdadero m, no esperamos que
m sea exactamente igual a m. Recordemos que m es una variable aleatoria y por lo tanto
puede tomar muchos valores, luego m tendr una cierta distribucin de probabilidades y
en particular una esperanza y una varianza.
b)
c)
Veamos los valores numricos que toman estos cuatro estimadores en una muestra de
tamao 12 obtenida al tirar un dado no cargado :
( X1, X2,....., X12 )
i).ii).-
(1, 3, 1, 1, 2, 1, 2, 5, 4, 2, 6, 2)
30
= 2,5
12
1
m o = (1 + 2) = 1,5
2
m o =
53
iii).iv).-
1
(6 + 1) = 3,5
2
m o = 30
m o =
En este ejemplo particular, debido a que el valor terico es m = 3,5, el mejor estimador de la
esperanza resulta ser (M + K)/2, pero este resultado podra deberse al azar; sin embargo el lector
puede repetir muchas veces el experimento ( tirar 12 veces un dado ) y comprobar que en
promedio, el estimador que ms se acerca al valor verdadero es m o = (M + K )/2.
El ejemplo anterior de origen a las siguientes e importantes preguntas :
d)
En adelante trataremos de precisar los conceptos que hemos discutido y resolver estas
interrogantes.
IX.1.
Definicin: Sea X una variable aleatoria con una distribucin de probabilidades la cual depende
de un parmetro desconocido . Sea (X1, X2,..., Xn) una muestra aleatoria de X y sean (x1, x2,...,
xn) los valores muestrales correspondientes. Llamaremos estimador de a una funcin de la
muestra :
= H(X1, X2,..., Xn)
y llamaremos estimacin de al valor numrico de esta funcin para los valores x1, x2,..., xn , es
decir :
o = H(x1, x2,..., xn)
Segn esta definicin, vemos que un estimador es un estadstico, luego es una variable aleatoria.
Definicin: Sea un estimador de un parmetro desconocido . Entonces diremos que es
insesgado ( o centrado, o sin desviacin sistemtica ) si :
E( ) =
Ejemplo: en el ejemplo de la pagina 55, el estimador de la esperanza matemtica m, definido por :
m = X1 + X2 +....+ Xn
no es insesgado ( se dice que es sesgado ). En efecto :
E( m ) = E(X1) + E(X2) +.....+ E(Xn) = n*m m
En trminos intuitivos, un estimador es insesgado si al repetir un numero N grande de veces el
experimento de obtener los valores ( x1, x2, ...., xn ), el promedio de las estimaciones obtenidas es
muy prximo al valor desconocido .
54
Ley de probabilidad de un
estimador insesgado.
Ley de probabilidad de
un estimador sesgado.
E( 1 ) =
E( 2 ) =
Fig.46
Tenemos entonces un primer criterio para los estimadores : restringirse a estimadores insesgados.
Definicin : Sea * un estimador insesgado del parmetro . Diremos que * es un estimador
insesgado de varianza mnima si para cualquier otro estimador insesgado , se tiene :
V( * ) V( )
es decir, entre todos los estimadores insesgados, * es aquel que tiene varianza mnima.
E( * ) = E( ) =
V( * ) < V( )
valores de *
valores que toma
Fig.47
Observacin : Sabemos que la varianza de una variable aleatoria mide su variabilidad respecto a
su valor esperado. Por lo tanto es intuitivamente atractivo exigir que un estimador insesgado
tenga varianza pequea porque de esta manera la variable aleatoria tiende a aproximarse a su
valor esperado . Luego si * y son dos estimadores insesgados con funciones de densidad
como la figura 47, preferimos * a porque V( * ) < V( ).
55
V( 1 ) < V( 2 )
Fig.48
La decisin no seria tan evidente en el caso de la figura 48 en que 2 es insesgado mientras que
1 no lo es. En este caso se preferira 1 porque a pesar de ser sesgado, sus valores seran ms
prximos a que los valores que proporciona 2 .
Estimadores Convergentes
Otro criterio para definir estimadores se basa en la siguiente definicin :
Definicin : Un estimador insesgado es convergente si se cumple, cuando n :
P( = ) 1
esta definicin establece que un estimador es convergente si al aumentar el tamao n de la
muestra, converge en sentido probabilstico hacia .
Se puede demostrar que un estimador es convergente si :
LimV () = 0
n
Ejemplo :
a)
1
La media muestral m 1 =
n
i =1
2
, valor que tiende hacia 0 cuando n .
matemtica m, porque V(m 1 ) =
n
b)
b)
El estimador m 2 =
V(m 2 ) =
2
2
( X1 + X n )
no es un estimador convergente de m, porque
2
56
IX.2
Hasta ahora solo hemos considerado criterios con los cuales podemos juzgar un estimador; es
decir dado un estimador podemos verificar si es insesgado, convergente, calcular su varianza y
comparar con otros estimadores. Sin embargo no disponemos de un mtodo que proporcione
estimadores. Existen varios procedimientos para obtener estimadores, uno de ellos es el mtodo
de los momentos que consiste en estimar el parmetro desconocido por el momento muestral
asociado.
Ejemplo:
i)
Esperanza matemtica :
1
m =
n
m = E(X)
ii)
i =1
Varianza :
1
2 =
n
= V(X)
iii)
(X
2
i X)
i =1
Momento de orden k :
1
k =
n
k = E(X )
i =1
Se puede demostrar que el mtodo de los momentos proporciona estimadores convergentes que
no siempre son insesgado y que no siempre son ptimos.
Uno de los mtodos ms utilizados en Estadstica es el mtodo de la mxima verosimilitud el cual
proporciona, bajo condiciones generales, estimadores ptimos.
El mtodo de la mxima verosimilitud.
Antes de explicar este mtodo estudiaremos un ejemplo introductorio :
Ejemplo :
En una urna hay 4 fichas que pueden ser blancas o negras pero se desconoce la proporcin : no se
conoce el parmetro p = ( nmero de fichas blancas )/4. Supongamos que hacemos dos
extracciones con devolucin y que obtenemos la primera blanca y la segunda negra. Con estos
datos estimar el valor de p.
Sea A el suceso que ocurri : A = La primera es blanca y la segunda es negra . La probabilidad
de A vara con p. El cuadro siguiente resume las diferentes alternativas :
Proporcin p
p = 0
0 B
4 N
Probabilidad
del suceso que
ocurri : P(A)
p =
1 B
3 N
*=
3/16
p =
2 B
2 N
2/4 * 2/4 =
4/16
57
p =
3 B
1 N
*=
3/16
p = 1
4 B
0 N
0
1
porque este valor maximiza la probabilidad del suceso que
2
ocurri, esto equivale a admitir que lo que ocurri era lo ms probable. En el caso general
supongamos una muestra aleatoria ( X1, X2,..., Xn ) la cual una vez realizado el experimento toma
el valor ( x1, x2,..., xn ). La probabilidad del suceso que ocurri es ( suponiendo que la variable es
discreta ) :
= P( X1 = x1, X2 = x2,...., Xn = xn )
= p(x1) * p(x2) *....*p(xn)
Estimaremos el valor de p por p o =
en que p(xi) = P( Xi = xi ).
Tendremos as la definicin siguiente :
Definicin : Se llama estimador de mxima verosimilitud a aquel valor que mximiza la
funcin siguiente, llamada funcin de verosimilitud.
= 0 , sin
=
Ln
x1 e x 2 e
x e
.....
x!
)=0
estimar el parmetro :
x
n e
x1!
x2 !
xn !
= n + ( xi )Ln Ln( x1!x 2 !.... x n !)
Ln(
) = n + xi
=0
e n xi
x1! x 2 !.... x n !
1
o =
n
i =1
x
Ejemplo 2 : En la ley exponencial : f ( x) = e
estimar el parmetro :
= e x1 e x 2 .... e x n = n e
Ln
= n Ln xi
Ln
58
xi
xi = 0
= X
o =
n
n
xi
i =1
1
X
Propiedad 2 : Los estimadores de mxima verosimilitud en el caso de ser insesgado son los
mejores estimadores posibles del parmetro .
b.-
c.-
N
k
Variable aleatoria de Poisson :
= x
d.-
e.-
b = Mx( X 1 , X 2 ,...., X n )
sin embargo estos estimadores son sesgados. Conviene utilizar los estimadores insesgados
siguientes :
a `=
n
a
n +1
n +1
b`=
b
n
59
f.-
12 =
n 1
(x x)
i
2 , que es insesgado.
i =1
(ln X i m ) 2
n 1
i =1
h.-
60
X.
Hasta ahora nos hemos ocupado de la estimacin puntual de un parmetro desconocido , es decir
la obtencin de un valor o que estime de manera razonable el valor desconocido a partir de un
conjunto de valores ( x1, x2,....,xn ). Somos conscientes de que en realidad o es una
aproximacin y aparece la pregunta siguiente : en qu medida el valor aproximado puede
desviarse del valor verdadero ?.
En particular nos preguntamos si es posible encontrar una magnitud d tal que se pueda afirmar
con certeza ( es decir con una probabilidad cercana a la unidad ) que se verifica la desigualdad
:
d
o - d o + d
o - d
o + d
Fig.49
Es decir la estimacin se acompaa de un intervalo [ o - d , o + d ] junto a una medida de la
probabilidad de que el parmetro verdadero sea interior a dicho intervalo. Precisemos estas
ideas con un ejemplo intuitivo :
Ejemplo :Supongamos que nos preguntan la edad E de una persona. Primero hacemos una
estimacin puntual, por ejemplo E o = 32 aos y luego hacemos afirmaciones del tipo :
a)
b)
c)
31 E 33
27 E 37
22 E 42
d=1
d=5
d = 10
Intervalo
Error
Cada afirmacin tiene una medida de la seguridad de que E est comprendido en el intervalo.
Al escribir 27 E 37 ( E = 32 5 ) con seguridad 1- diremos que E o = 32 es el valor
estimado de E y que d = 5 es el error asociado al nivel de seguridad 1-. Para que nuestra
afirmacin sea buena, 1- debe ser grande ( prximo a 1 ), sin embargo, a medida que 1- crece,
la magnitud del error ( d ) crece.
Los estadsticos han convenido en aceptar una probabilidad de confianza de 1- = 0.95.
A.
Sea X1, X2,...., Xn una muestra aleatoria de una variable X que sigue una ley normal de esperanza
m desconocida y varianza 2 conocida.
61
Z=
Ley de Z
0.95
Xm
Fig.50
-2
P( 2 Z 2) = 0.95*
P( 2
Xm
2) = 0.95
P(X
2
2
mX+
) = 0.95
n
n
n , X + 2
X n , X + n
X 1.64 n , X + 1.64
X 3 n , X + 3 n
Ejemplo : Se tiene una muestra aleatoria ( X1, X2, X3, X4 ) proveniente de una ley de Gauss con
m=0 ( que se supone desconocido ) y 2=1 ( que se supone conocido ). Los valores numricos
resultantes fueron : ( 0.9, -0.6, -0.4, 0.9 ). Encontrar el intervalo del 68 % de confianza y el del 95
% de confianza.
n , X +
0.2 1 4 , 0.2 + 1 4 = 0.3 , 0.7
* Observacin : En forma ms exacta, esta ecuacin se escribe :P( -1.96 Z 1.96 ) = 0.95
62
X 2
n , X + 2
0.2 2 4 , 0.2 + 2 4 = 0.8 , 1.2
INTERVALO
1- = 0.68
INTERVALO
1- = 0.95
[ -1.02 , -0.02 ]
[ -0.10 , 0.90 ]
[ 0.47 , 1.47 ]
[ -0.12 , 0.87 ]
[ -1.52 , 0.47 ]
[ -0.60 , 1.40 ]
[ -0.02 , 1.97 ]
[ -0.62 , 1.37 ]
I1
I2
I3
I4
Representemos en un grfico los intervalos obtenidos en las cuatro repeticiones del experimento :
Valor desconocido
-2
-1
68 %
I1
95 %
I2
I3
I4
Fig.51
En trminos frecuenciales, si se repite el experimento 100 veces, se debera obtener que 95
intervalos ( del 95 % de confianza ) contienen el valor desconocido, mientras que 5 intervalos no
lo contendran.
El intervalo de confianza que acabamos de estudiar est restringido al conocimiento de la
varianza 2. Sin embargo, en la prctica, este valor tambin es desconocido. Para encontrar el
intervalo de confianza para m en una ley de Gauss con m y ( 2 ) desconocidos, ser
necesario estudiar una nueva ley de probabilidad : La Ley de Student.
B.
La Ley de Student.
Sean X0, X1,...., Xn , n +1 variables aleatorias gaussianas e independientes tales que E(Xi) = 0 ,
V(Xi) = 2 . Se dice que la variable aleatoria :
63
T=
Xo
1 n
2
Xi
n i =1
sigue una Ley de Student con parmetros n ( o con n grados de libertad ). Se demuestra que la
densidad de T es :
n +1
n +1
t2 2
2
1 +
, - < t <
f(t ) =
n
n
n
2
Se obtiene, a partir de esta densidad, que si n > 2 :
E(T) = 0 , V(T) = n/n-2
Gauss
Fig.52
Student
64
P( -t T t ) = 0.95
-t
1- = 0.95
n
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
60
120
n > 120
t
12.706
4.303
3.182
2.776
2.571
2.447
2.365
2.306
2.262
2.228
2.201
2.179
2.160
2.145
2.131
2.120
2.110
2.101
2.093
2.086
2.080
2.074
2.069
2.064
2.060
2.056
2.052
2.048
2.045
2.042
2.021
2.000
1.980
1.960
65
C.
Xm
T=
(X
i =1
X)2
Xm
n (n 1)
n
( en que es el estimador : =
(X
i =1
X) 2
, ver pgina 59 )
n 1
Xm
t ) = 0.95
P X - t
m X + t
= 0.95
n
n
X t n , X + t n
66
2.776 17.64
2.776 17.64
El intervalo es 269
, 269 +
5
5
21.9
21.9
290.9
247.1
269
A veces se escribe lo anterior como : m = 269 21.9
( con 95 % de confianza ), con un error relativo : = 100*21.9/269 = 8.1 %
Ejemplo 2 : Dos examinadores A y B efectuaron una correccin doble sobre 30 pruebas. Las
notas figuran en la tabla siguiente :
A
13
15
12
16
18
15
14
18
17
20
B
14
16
13
16
17
15
15
17
16
17
A
15
16
15
17
16
13
15
11
14
15
B
17
17
15
18
16
14
16
12
14
18
A
17
15
16
18
14
16
15
17
14
15
B
16
15
18
20
15
15
15
19
16
16
Encontrar el intervalo de confianza para la esperanza matemtica de la variable Z = Nota de A Nota de B, usando 1 - = 0.95.
Solucin : A partir de los datos encontramos los valores numricos de Z : (-1, -1, -1, 0, 1, ....., -1)
= ( z1, z2,....., z30 ).
z = 0.53 ; 2 =
1 30
( z i z ) 2 = 1.57 : = 1.253
29 i =1
De las tablas de la ley de Student con n - 1 = 29 grados de libertad encontramos t = 2.045, luego
el intervalo de confianza para m = E(Z) es :
1.25
1.25
0.53 2.045
= 1.00 , 0.06
, 0.53 + 2.045
30
30
0.47
-1.0
0.47
-0.53
-0.06
67
Laboratorio
CIMM
Laboratorio
Bondar
Diferencia
Z
6.5
5.6
6.6
6.1
5.8
6.0
6.1
6.3
6.1
6.6
5.4
5.8
5.4
5.8
5.7
5.4
5.7
6.0
5.3
6.0
1.1
-0.2
1.2
0.3
0.1
0.6
0.4
0.3
0.8
0.6
, t = 2.262 y el intervalo
0.434
0.434
0.52 2.262
= 0.21 , 0.83
, 0.52 + 2.262
10
10
0.31
0.21
0.31
0.52
0.83
Debido a que el valor 0 no pertenece al intervalo, podemos concluir que el laboratorio CIMM
proporciona leyes significativamente ms altas que las que proporciona el laboratorio Bondar.
Para encontrar el intervalo de confianza para la varianza 2 de una ley de Gauss, es necesario
introducir otra ley de probabilidad.
D.
La ley de Chi-cuadrado.
Sea X1, X2,....,Xn una sucesin de variables aleatorias independientes tales que cada Xi sigue una
ley de Gauss con esperanza E(Xi) = 0 y varianza V(Xi) = 1. Se dice que una variable aleatoria :
Z = X12 + X22 +.....+ Xn2 sigue una ley de chi-cuadrado con parmetro n ( o con n grados de
libertad ).
Los mtodos de calculo de probabilidad permiten demostrar que Z tiene la densidad siguiente :
e z 2
n
2 n 2
2
z
(1)
f(z) =
n
1
2
si z > 0
si z 0
68
n=1
n=2
Grfico de
n=4
n=3
f(z)
n=5
Fig.53
E(Z) = n
, V(Z) = 2n
Las reas bajo la curva f(z) se encuentran tabuladas. A veces se utiliza la notacin 2n para indicar
la ley de chi-cuadrado con parmetro n.
D.
n
2
( X i X)
sigue una ley de Chi-cuadrado con parmetro n 1 (
La variable aleatoria T = i = 1
2
o con n 1 grados de libertad ).
Para encontrar el intervalo del 95 %
de confianza para 2 determinamos
dos nmeros a y b en la ley 2n-1 tales
que :
P( a T b ) = 0.95
P(a
2
(X i X)
0.025
0.025
0.95
(fig.54)
0
Fig.54
b) = 0.95
(X i X) 2
P
69
2
(X i X)
a
= 0.95
Ley de 2n
Valores de a y b para el intervalo
de confianza para 2
0.025
0.025
0 95
a
n
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
b
a
0.0506
0.216
0.484
0.831
1.237
1.690
2.180
2.700
3.247
3.816
4.404
5.009
5.629
6.262
6.908
b
7.3778
9.348
11.143
12.832
14.449
16.013
17.535
19.023
20.483
21.920
23.337
24.736
26.119
27.488
28.845
x = 0.122 ,
10
(x
i =1
x ) 2 = 6.327 , n = 10 , =
6.327
= 0.703
9
2.34
Hasta ahora todos los intervalo de confianza que hemos estudiado corresponden a parmetros de
una ley de Gauss. En el caso de una variable no gaussiana, la solucin es aproximada tal como
veremos a continuacin.
70
E.
Z=
Xm
n
Sigue una ley de Gauss con esperanza 0 y varianza 1 cuando n . Entonces cuando n es
grande, podemos afirmar que ( ver pgina 61 )
P X - 2
m X + 2
0.95
n
n
(1)
La diferencia con los casos anteriores es que los intervalos de confianza eran exactos mientras
que en (1) se tiene una igualdad aproximada.
a)
b)
( X X ) 2 ( n 1) y se
i
i = 1
Z=
V()
V(p) =
p(1 p)
(p) = p(1 p) = x(1 x)
V
n
n
n
71
1-p
0
, luego el intervalo es :
x(1 - x)
x(1 - x)
0.95
p x + 2
P x - 2
n
n
p = x =
501
= 0.501 ; el intervalo es :
1000
0.501 0.499
0.501 0.499
0.501 2
= [0.469,0.533]
, 0.501 + 2
1000
1000
0.469
0.533
O sea que la probabilidad p = probabilidad de que una persona prefiera Pepsi bien podra ser
inferior a 0.5 !
72
XI.
Una fbrica de ampolletas elctricas debe decidir cul de dos mtodos A B da una
vida mayor a las lmparas.
Las estadsticas de la Polla chilena desde 1934 a la fecha dan los resultados siguientes
para las terminaciones ( n = 820 sorteos ) :
97
87
Fig.55
83
84
71
78
80
80
88
72
0 sali 71 veces
1 sali 87 veces
9 sali 88 veces
9
Justificacin de la regla
Debemos conclur una de las dos alternativas siguientes :
i)
O bien la hiptesis H0 es cierta y se ha producido un suceso S1 de probabilidad
muy pequea ( 0.05 ).
ii)
O bien la hiptesis es falsa y debemos rechazarla.
Parece natural no admitir lo primero, luego se admite lo segundo y se rechaza la hiptesis.
Ejemplo : Un fabricante asegura que sus ampolletas tienen una vida media mo = 2400 horas. Se
supone que es conocido y vale = 300 horas y que la duracin de una ampolleta es gaussiana.
Se toma una muestra de n = 200 ampolletas y esta muestra ha dado x = 2320 horas.
Se puede considerar este resultado compatible con la hiptesis que la vida de las lmparas tenga
un valor medio mo = 2400 horas ?
i)
73
ii)
pgina 61 ) :
P X 2
mo X + 2
= 0.95
n
n
la cual es equivalente a :
P m o 2
X mo + 2
= 0.95
n
n
2340
Zona de rechazo
2400
Zona de
aceptacin
2460
Zona de rechazo
Fig.56
Estudiemos el problema desde el punto de vista de los intervalos de confianza : el intervalo del 95
% para el valor m desconocido es :
2
2
,
X
X
[2320 60,2320 + 60] = [2260,2380]
n
n
2260
2320
2380
P m o 2
n X m o + 2
n = 0.95
I
74
m o 2
(III)
(IV)
mo + 2 n
Observacin :
i)
No se deben invertir los pasos II y III, es decir el intervalo de aceptacin debe ser fijado
antes de hacer el experimento.
ii)
A menudo se elige un riesgo = 0.05.
iii)
La decisin de un test de hiptesis no es nunca definitiva y puede ser puesta en tela de
juicio luego de otra experiencia.
iv)
Al hacer un test de hiptesis se pueden cometer dos tipos de errores, tal como muestra la
tabla siguiente :
Decisin
Hiptesis
Verdadera
Hiptesis
Falsa
Aceptar
Decisin
Correcta
Error
Tipo II
Rechazar
Error
Tipo I
Decisin
Correcta
( m) = P( X I m)
75
Ley de X cuando m = mo
/2
/2
1-
mo
Ley de X cuando m = m
Fig.57
(m)
Se llama curva de potencial al grfico
sera :
Fig.58
1.0
mo
La curva de potencia indica, para cada valor de m, la probabilidad para que la receta
anterior conduzca al rechazo de la hiptesis H0 : m = mo cuando el verdadero valor del
parmetro es m.
b)
76
(m)
(m)
es la probabilidad de
potencia que tiene el test para descubrir la falsedad de la hiptesis H0. Luego la curva de potencia
ideal sera:
1.0
mo
Fig.59
m
I
c)
caso (b)
0.05
0.05
mo
mo
m o 1.64
m o + 1.64
Fig.60
77
La informacin que proporciona un intervalo de confianza tiene una analoga perfecta con la que
da un test, como se ve en el siguiente cuadro :
INTERVALO DE CONFIANZA
TEST DE HIPOTESIS
a) Error tipo I
b) Error tipo II
c) Extensin de la muestra para
aumentar la potencia del test
a) No cubre al parmetro
b) Cubre valores errneos
c) Extensin de la muestra para
reducir la longitud
del
intervalo
Existen otros test de hiptesis que no se refieren a parmetros de una ley de probabilidad, que son
los test de bondad del ajuste, los cuales estudiaremos a continuacin
XI.1.
Los test de bondad del ajuste se refieren a la comparacin de una observacin de datos con una
ley de probabilidad terica.
El ejemplo (b) de la pgina 61 referente a 820 terminaciones de la Polla nos proporciona un caso:
supongamos que queremos comparar las frecuencias observadas con las frecuencias tericas
correspondientes al modelo siguiente :
P0
P1
P9
n = 829
P0 = P1 =.....= 0.1
Fig.61
np0 = np1 =.....= np9 = 82 es la frecuencia terica de cada valor
Se tiene as el cuadro siguiente :
Valor
0
1
2
3
4
5
6
7
8
9
Total
Frecuencia
observada
71
87
83
84
78
80
97
80
72
88
820
Frecuencia
terica
82
82
82
82
82
82
82
82
82
82
820
Clase
a1
a2
Frecuencia
observada
o1
o2
c1
c2
Frecuencia
observada
o1
o2
ak
Total
ok
n
ck
Total
ok
n
Variable discreta
Variable continua
Ei = n f(x)dx
i = 1, 2,...., k
caso discreto
i = 1, 2,...., k
caso continuo
ci
El test de 2 se basa en la comparacin entre los valores observados oi y los valores tericos Ei,
utilizando el resultado siguiente :
Teorema : La variable aleatoria
k
(Oi Ei) 2
D=
(1)
Ei
i =1
sigue una ley de Chi - cuadrado con k - - 1 grados de libertad : 2 k - - 1 *
k-l1
= Ley de D
Fig.62
0 95
DMx
D vara entre 0 y DMximo con un 1 - = 0.95 de probabilidad. Esto nos induce la siguiente regla
de decisin :
* Este teorema es valido si X sigue la ley inferida, es decir si la hiptesis a comprobar es verdadera; es el
nmero de parmetros desconocidos.
79
k - - 1.
Ley 2n
1 - = 0.95
Fig.63
DMx
n
Dmx
1
2
3
4
5
6
7
8
9
10
3.841
5.991
7.815
9.488
11.070
12.592
14.067
15.507
16.919
18.307
Conclusin : como D0 DMx , se acepta la hiptesis que las terminaciones de la Polla son
equiprobables, al nivel de significacin = 0.05.
80
Frec.
Observada
229
211
93
35
7
7
576
Lo anterior significa que de los n = 576 cuadrados : 229 recibieron 0 impactos, 211 recibieron
exactamente 1 impacto,...., y 1 cuadrado recibi exactamente 5 impactos.
Se pide comprobar si X sigue una ley de Poisson.
Solucin : La ley de Poisson toma los valores 0, 1, 2,....con probabilidades :
k e
p(k) = P(X = k) =
, k = 0, 1, 2,....
k!
Existe un parmetro desconocido que es , el cual se estima por el promedio de los datos : = x
( ver pgina 58 ) :
o = (0 229 + 1 211 + 2 93 + 3 35 + 4 7 + 5 1) 576 = 0.929
Calculamos ahora las probabilidades y las frecuencias tericas :
p(0) = P( X = 0 ) =
e-0.929
= 0.395
-0.929
p(1) = P( X = 1 ) = 0.929e
= 0.367
2 -0.929
p(2) = P( X = 2 ) = (0.929) e
/2 = 0.170
3 -0.929
/6 = 0.053
p(3) = P( X = 3 ) = (0.929) e
4 -0.929
p(4) = P( X = 4 ) = (0.929) e
/24 = 0.012
p = P( X 5 ) = 1 - P( X < 5 )
= 0.003
np(0) = 227
np(1) = 211
np(2) = 98
np(3) = 31
np(4) = 7
np = 2
Como la ley de Poisson puede tomar, en teora, valores mayores que 5 hemos tomado un intervalo
infinito al final ( de no ser as, la suma 227 + 211 + 98 +.... sera inferior a n = 576 ). Se tiene as
el cuadro :
81
N
Impactos
0
1
2
3
4
5 ms
Total
Frec.
Observada
229
211
93
35
7
1
576
Frec.
Terica
227
211
98
31
7
2
576
Conclusin : Se acepta la hiptesis que los datos provienen de una ley de Poisson, al nivel =
0.05 porque D0 DMx .
Se puede demostrar la propiedad siguiente de la ley de Poisson : si los impactos son al azar ( es
decir sin apuntar ), entonces la variable X = nmero de impactos por cuadrado , sigue una ley
de Poisson. Al aceptar nuestra hiptesis concluimos que los bombardeos no apuntaban a zonas
especficas dentro del barrio.
El test de Kolmogorov - Smirnov.
El test de Kolmogorov - Smirnov sirve para comprobar la hiptesis de que una variable aleatoria
X sigue una ley de probabilidad especificada.
El test se basa en la comparacin de las funciones de distribucin terica y emprica ( ver pginas
3 - 4 y 15 - 16 ) :
F*(x) = porcentaje de valores de la muestra que son x
F (x) = P( X x )
F*(x) = funcin de distribucin emprica
F (x) = funcin de distribucin terica
El test toma como medida de disconformidad de las distribuciones empricas F*(x) al mdulo de
la mayor diferencia observada entre F*(x) y F(x) ( ver figura 64 ), es decir a :
D = Mx F*(x) - F(x)
82
Fig.64
Se demuestra que si los datos observados corresponden a una variable aleatoria con funcin de
distribucin F(x), entonces D sigue una ley de Kolmogorov Kn :
Ley de D
Fig.65
0.95
DMx
83
Numero de
datos n
5
10
15
20
25
30
40
n > 40
0.56
0.41
0.34
0.29
0.26
0.24
0.21
1.36 n
Frec.
Observada
71
87
83
84
78
80
97
80
72
88
820
Frec.
Terica
82
82
82
82
82
82
82
82
82
82
820
F*(x)
F(x)
F*(x) - F(x)
0.087
0.193
0.293
0.396
0.491
0.589
0.707
0.805
0.893
1.000
0.100
0.200
0.300
0.400
0.500
0.600
0.700
0.800
0.900
1.000
0.013
0.007
0.007
0.004
0.009
0.011
0.007
0.005
0.007
0.000
D0
820 = 0.0475
Conclusin : como D0 Dmx, aceptamos la hiptesis que los nmeros son equiprobables.
Aplicacin del test de Chi - cuadrado a las tablas de contingencia.
A veces un conjunto de datos se clasifica de acuerdo a caractersticas en un cuadro llamado tabla
de contingencia.
Ejemplo : En el ao 1897 se produce una peste. De 127 personas no vacunadas, 10 contrajeron la
peste. Sobre 147 personas vacunadas, 3 contrajeron la peste. Estos datos se pueden clasificar en la
tabla siguiente :
84
C
No Vacunad.
D
Vacunadas
Total
A
Contaminad.
10
B
No Contam.
117
Total
144
147
13
261
274
127
n = 274
H0 : A y B son independientes de C y D
H1 : A y B no son independientes de C y D
versus
H1 : Las relaciones anteriores no son verdaderas
El nmero esperado de observaciones en las celdas es : n*P(A C), n*P(A D), n*P(B C),
*
P(C) = 127/274 , P(D) = 1 P(C) = 147/274
la estimacin de los nmeros esperados en las celdas es
n P(A) P(C) = 6.03
* Observacin : Solo se han estimado dos parmetros desconocidos : P(A) y P(C). Las otras : P(B) y P(D)
fueron calculadas a partir de P(A) y P(C).
85
C
No Vac.
D
Vac.
Total
A
Cont.
10
B
No Cont.
117
Total
144
147
13
261
274
127
C
No Vac.
D
Vac.
Total
Tabla Observada
A
Cont.
6.03
B
No Cont.
120.97
Total
6.97
140.03
147
13
261
274
127
Tabla Terica
(O AC E AC ) 2 (O AD E AD ) 2 (O BC E BC ) 2 (O BD E BD ) 2
+
+
+
E AC
E AD
E BC
E BD
Ley
1 - = 0.95
Fig.66
0 95
DMx = 3.841
Se tiene entonces ( ver pgina 79 ) : P( D 3.841 ) = 0.95 ; lo que nos induce la regla de decisin
siguiente :
i).- Aceptar H0 ( A y B son independientes de C y D ) si :
D0 DMx = 3.841
ii).- Rechazar H0 si :
D0 > DMx = 3.841
En el ejemplo anterior, se tiene :
Do =
Conclusin : Como D0 > DMx se rechaza la hiptesis H0, lo que equivale a aceptar que A y B
dependen de C y D, es decir la vacuna produce resultados significativos.
Generalizacin : El esquema anterior se generaliza al caso de una tabla de contingencia q x r :
86
B1
B2
Br
Total
A1
O11
O21
A2
O12
O22
....
....
....
Aq
O1q
O2q
Or1
Or2
Orq
n1
nq
....
....
nq
Total
n1
n2
n r
n
B1
B2
Br
Total
Tabla Observada
A1
E11
E21
A2
E12
E22
....
....
....
Aq
E1q
E2q
Er1
Er2
Erq
n1
nq
....
....
nq
Total
n1
n2
n r
n
Tabla Terica
En este caso k = q x r
= q - 1 + r - 1 = q + r - 2 = nmero de parmetros desconocidos ( los parmetros
desconocidos son : P(A1), P(A2),..., P(Aq-1) y P(B1), P(B2),..., P(Br-1) porque P(Aq) y P(Bq) se
calculan mediante 1 - suma de probabilidades ).
r
D=
i =1 j =1
(Oij Eij) 2
Eij
En las tablas de la ley de chi-cuadrado con (q-1)(r-1) grados de libertad ( pgina 80 ) encontramos
el valor DMx. Se tiene la regla de decisin siguiente :
i).- Aceptar H0 ( A1, A2,...., Aq son independientes de B1, B2,...., Br ) si D0 DMx
ii).- Rechazar H0 si D0 > Dmx.
87
XII.
ANALISIS DE LA VARIANZA.
El anlisis de la varianza se ocupa de las tcnicas estadsticas para estudiar inferencias respecto de
medias de dos o ms muestras.
Supongamos que tenemos r muestras aleatorias y queremos comprobar la hiptesis :
versus
H0 : m1 = m2 =....= mr
H1 : no todas las esperanzas son iguales
Notaciones .
Sea xij el dato I de la muestra Mj. Las r muestras aleatorias se pueden ordenar en la tabla
siguiente:
Muestras
Promedios
M1
x11
x21
M2
x12
x22
.....
.....
.....
Mr
x1r
x2r
xn11
xn22
xnrr
x 1
x 2
.....
.....
xr
N = n1 + n2 +.....+ nr
x=
n1 x 1 + ..... + n r x 2
n1 + ..... + n r
Ejemplo : En una parte de un yacimiento con tres tipos de rocas R1, R2, R3 se han tomado 3, 4, 5
muestras respectivamente.
Fig.67
las leyes se dan en el cuadro siguiente :
88
Tipo de Roca
R2
0.70
0.61
0.67
0.62
R1
0.56
0.53
0.68
Leyes de Cobre
r=3
R3
0.77
0.73
0.63
0.74
0.68
x 1 = 0.59
x2 = 0.71
x 3 = 0.71
n1 = 3
n2 = 4
n3 = 5
x = 0.66
N = 12
Se tiene adems : numero total de datos : N = 12
Promedio de todas las observaciones : x = 0.66
En este ejemplo estaramos interesados en comprobar :
H0 : m1 = m2 = m3
versus H1 : no todas las esperanzas son iguales
Para comprobar este tipo de hiptesis se utiliza el resultado siguiente : si las r muestras son
muestras aleatorias de una misma variable X gaussiana, entonces la variable aleatoria :
r
nj
(x
D=
2
j - x) (r - 1)
j =1 i =1
r nj
(x
(1)
2
ij - x j ) (N - r)
j =1 i =1
sigue una ley F(r-1 , N-r) llamada ley de F de Snedecor con (r-1 , N-r) grados de libertad.
DMx
Fig.68
0.95
DMx
Fig.69
Valores de DMximo ( 1 - =0.95 )
Ley de F de Snedecor
n1
n2
1
2
3
4
5
6
7
8
9
10
1
161
18.51
10.13
7.71
6.61
5.99
5.59
5.32
5.12
4.96
2
200
19.00
9.55
6.94
5.79
5.14
4.74
4.46
4.26
4.10
3
216
19.16
9.28
6.59
5.41
4.76
4.35
4.07
3.86
3.71
4
225
19.25
9.12
6.39
5.19
4.53
4.12
3.84
3.63
3.48
5
230
19.30
9.01
6.26
5.05
4.39
3.97
3.69
3.48
3.33
DMx = 4.26.
Calculemos D0 segn la frmula (1). Encontremos el denominador :
r nj
Denominador =
(x ij x j ) 2 (N r)
j =1 i =1
= [ (0.56 0.59) + (0.53 0.59) + (0.68 0.59) + (0.70 0.65) + (0.61 0.65) +
(0.67 0.65) + (0.62 0.65) + (0.77 0.71) + (0.73 0.71) + (0.63 0.71) +
(0.74 0.71) + (0.68 0.71) ]/9 = 0.00336
90
nj
(x
Numerador =
2
j - x) (r - 1)
j =1 i =1
= [ (0.59 0.66) + (0.59 0.66) + (0.59 0.66) + (0.65 - 0.66) + (0.65 0.66) +
(0.65 0.66) + (0.65 0.66) + (0.71 0.66) + (0.71 0.66) + (0.71 0.66) +
(0.71 0.66) + (0.71 0.66) ]/2 = 0.01380
D0 = 4.11
Conclusin : Debemos aceptar H0 porque result D0 DMx sin embargo el valor de D0 es muy
prximo a DMx.
r
nj
( x
j =1 i =1
nj
[( x
r
j =1 i =1
r
nj
(x
j =1 i =1
x j ) + (x j x ) ]
ij
nj
( xi
j =1 i =1
nj
( x
j =1 i =1
nj
( x
j =1 i =1
r
j =1 i =1
nj
nj
ij
j =1 i =1
x j ) ( x j x) = 0
ij
nj
(x
j =1 i =1
x)2
x j ) + ( x j x ) + 2 ( xi j x j ) (x j x )
2
ij
ij
SSA (r 1)
SSW (N r)
91
XIII.
LA REGRESIN.
A menudo estamos interesados en una posible relacin entre dos o ms variables. Podemos
sospechar que cuando una de las variables cambia, la otra tambin cambia de manera previsible.
Es importante expresar tal relacin mediante una ecuacin matemtica que relacione las variables.
Esta ecuacin nos servir para predecir el valor de una variable partiendo del valor de la(s) otra(s)
variable(s).
Regresin Lineal Simple.
Si la relacin que existe entre la variable x y la variable y es una lnea recta, las variables estn
relacionadas por :
y = x +
En una situacin no determinstica es razonable postular que esta relacin est afectada por
errores experimentales o perturbaciones aleatorias. De acuerdo a lo anterior podemos formular el
siguiente modelo estadstico :
Modelo estadstico :
Se asume que Yi est relacionado con Xi por :
Yi = + Xi + ei
, i = 1, 2,....,n
en que :
(a).- x1, x2,....,xn son los valores de la variable x que han sido tomados para el estudio.
(b).- e1, e2,...., e3 son los errores aleatorios de la relacin lineal. Estos errores son
desconocidos y se asume que son variables aleatorias independientes, gaussianas, con esperanza
nula y varianza desconocida 2.
(c).- Los parmetros y son desconocidos.
El Mtodo de los Mnimos Cuadrados :
Si asumimos en forma tentativa que la formulacin del modelo es correcta, se puede proceder a la
estimacin de los parmetros y . El mtodo de los mnimos cuadrados constituye un mtodo
eficiente para estimar los parmetros de la regresin.
Supongamos que se ha graficado la recta y = a + bx. En el punto xi, el valor que predice la recta
para y es a + bxi, mientras que el valor observado es yi.
La discrepancia es di = yi a bxi. Al considerar todas las discrepancias, se toma :
n
n
2
D=
di =
(y i a bx i ) 2
(1)
i =1
i =1
92
como medida de la discrepancia global. Si el ajuste es bueno, D debera ser pequeo. El principio
del mtodo de los mnimos cuadrados es entonces : determinar los parmetros desconocidos de
manera de minimizar D. Los valores encontrados se denotan y .
Fig.70
Antes de encontrar las expresiones para y veamos las notaciones que utilizaremos :
x=
S 2x =
(x
x) 2 =
S xy =
(x
1
n
2
i
, y=
nx 2 , S 2y =
x)(y i y) =
1
n
(y
y) 2 =
2
i
ny 2
yi x y n
Escribiendo D en la forma :
D=
S xy 2 S 2xy
+ S y 2
D = n (y a bx ) + b S x
S
S x
x
S xy
Lo cual es mnimo si : y a bx = 0 , bS x
=0
Sx
2
Luego :
S xy
S 2x
, = y x
(1)
(2)
93
Produccin
x
1.5
2.0
3.0
1.5
3.5
3.0
4.5
4.0
4.0
2.5
Costo
y
2.5
3.1
3.8
2.1
4.3
3.2
4.8
3.9
4.4
3.0
Nota : Tanto la produccin como el costo han sido multiplicados por constantes.
La primera etapa lgica es dibujar los datos. Este grfico nos indicara si el modelo lineal es
adecuado.
Fig.71
Al hacer los clculos, se tiene :
x = 2.95 , y = 3.51
S 2x = 10.23 , S 2y = 6.85
S xy = 7.91
7.91
= 0.77
10.23
= 3.51 0.77 2.9501.24
y = 1.24 + 0.77 x
94
S 2y
S 2xy
S 2x
SSE = S y 2 S 2x =
( y
x i ) 2
i =1
En el ejemplo anterior :
SSE = 6.85 (0.77) 2 10.23 = 0.785
Propiedades de los estimadores de mnimos cuadrados
A)
los estimadores y son ptimos, es decir son insesgados : E( ) = , E( ) = y
tienen varianza mnima.
SSE
S2 =
es un estimador insesgado de 2.
B)
n2
S ( )
sigue una ley de Student con n 2 grados de libertad.
C)
Z= x
S
sigue una ley de Student con n 2 grados de libertad.
D)
T=
1 x2
S + 2
n Sx
+ x - ( + x)
W=
E)
sigue una ley de Student con n 2 grados de libertad.
1 (x x) 2
S +
S 2x
Estas propiedades nos sirven para establecer algunas inferencias respecto del modelo lineal.
i)
Inferencia respecto de la pendiente
ii)
El intervalo del 95 % de confianza para , deducido de la propiedad (C) es :
S
t
Sx
en que t se obtiene de las tablas de la ley de Student con parmetro n 2 ( ver pgina 64 ).
Ejemplo : En el ejemplo anterior, comprobar la hiptesis H0 : = 0.
Solucin : Encontremos el intervalo de confianza para :
= 0.77
S x = 10.23 = 3.20
t S +
n
x2
S 2x
0.54
1.24
1.94
iii)
Prediccin de la respuesta media para x = x*
El objetivo ms importante en un estudio de regresin es el de estimar el valor esperado de Y para
un valor especfico x = x* : para estimar E(Y x*) = + x* se utiliza el estimador + x * con
el siguiente intervalo de confianza, deducido de la propiedad (E) :
1
+ x * t S +
n
(x * x) 2
S 2x
3.94 0.26
3.68
3.94
4.20
Observacin Importante : Se debe tener mucho cuidado al utilizar el modelo lineal para valores x*
que estn fuera del rango de valores x observados. La figura 72 ilustra esta situacin :
96
y = + x
Fig.72
Relacin verdadera
Dominio de validez
del modelo
yi
y i
e i
1.5
2.0
3.0
1.5
3.5
3.0
4.5
4.0
4.0
2.5
2.5
3.1
3.8
2.1
4.3
3.2
4.8
3.9
4.4
3.0
2.40
2.78
3.55
2.40
3.94
3.55
4.71
4.32
4.32
3.17
-0.10
-0.32
-0.25
0.30
-0.36
0.35
-0.09
0.42
-0.08
0.17
97
Fig.73
Si los puntos forman una franja horizontal con respecto a cero, como la figura 73, entonces el
modelo es aceptable.
Fig.74
Si el ancho de la franja crece (o decrece) con y , como en la figura 74, entonces la varianza 2 no
es constante.
Fig.75
Si se observa un comportamiento sistemtico, como en la figura 75, entonces hay que considerar
un modelo cuadrtico u otro de tipo no lineal.
En algunos casos, en los cuales se conoce el oreden de medicin, es interesante estudiar el grfico
residuos versus orden en el tiempo.
98
Fig.76
El grfico de la figura 76 indica que los residuos consecutivos estn correlacionedos.
Otras Comprobaciones en el Modelo Lineal
Se puede considerar que el valor observado yi es la suma de dos componentes :
y i = ( + x i ) + ( y i x i )
Valor explicado
por la relacin
lineal
Valor observado
de y
Residuo o desviacin
respecto de la relacin
lineal
En una situacin ideal en la cual los puntos estn exactamente en una recta, los residuos son nulos
y la ecuacin + x i toma totalmente en cuenta los valores de y : se dice que la relacin lineal
explica los valores de y.
Como medida global de la discrepancia respecto de la linealidad se utiliza la suma de cuadrados
debida al error (ver pgina 94) :
SSE =
(y
x i ) 2 = S2y 2S2x
i =1
en que : S2y =
(y
i =1
Suma de cuadrados
Explicados por la
relacin lineal
(1)
Suma de cuadrados
De los residuos (no
explicada)
El termino 2S2x se llama suma de cuadrados debida a la regresin lineal. Si la recta proporciona
un buen ajuste. entonces este trmino comprende la mayor parte de S2y y deja solo una pequea
parte para SSE. En la situacin ideal en que los puntos estn en una recta, SSE es cero.
Como ndice del ajuste lineal se utiliza la cantidad :
99
r2 =
2S2x
S2y
S2xy
S2x S2y
62.57
= 0.89
10.23 6.85
Esto significa que el 89 % de la variacin de y es explicada por la relacin lineal, lo cual hace
satisfactorio al modelo en este aspecto.
Cuando el valor de r2 es pequeo, se debe concluir que la relacin lineal no constituye un buen
ajuste para los datos. Esto puede deberse a dos causas :
i) Hay muy poca relacin entre las variables (Fig.77a)
ii) La relacin subyacente no es lineal (Fig.77b)
Fig.77
100
El Test F.
Para comprobar la falta de ajuste (por ejemplo la situacin (b) de la figura 77), se utiliza el test F
el cual requiere disponer de varios valores de y para un mismo valor de x (ver figura 78).
Fig.78
En este caso los datos se ordenan segn la tabla siguiente, similar a la tabla del anlisis de la
varianza :
Valores
Valores
Promedios
diferentes de x
repetidos de y
x1
y11
y12
...... y1n1
y1
x2
...... y2n2
y2
xk
yk1
yk2
......
yknk
yk
ni
( y
ij
yi )2
i =1 j = 1
(SSE SSP) (k 2)
SSP (n k)
(*)
Ley de D
Fig.79
0.95
DMx
101
Regla de decisin :
i) Se acepta el ajuste si D0 DMx.
ii) Se rechaza el ajuste si D0 > DMx.
Ejemplo : En el conjunto de datos siguientes, efectuar el test F.
x
y
2
4
2
3
2
8
3
18
3
22
4
24
5
24
5
18
6
13
6
10
k=5
x
2
3
4
5
6
y
4, 3,8
18, 22
24
24, 18
13, 10, 16
y
5
20
24
21
13
SS
14
8
0
18
18
SSP = 14 + 8 + 0 + 18 + 18 = 58
Por otra parte : x = 4 , y = 14.55 , S 2x = 28 , S 2y = 571 , S xy = 50
= 1.786 , = 7.406 , SSE = S 2y 2S 2x = 482 , n = 11 , k = 5
D0 =
Fig.80
102
6
16
40
16.3
40
26.7
60
39.2
60
63.5
60
51.3
80
98.4
80
65.7
100
104.1
100
155.6
120
217.2
100
12.47
120
14.74
Fig.81
La observacin de la figura 81 nos sugiere utilizar las variables x = x , y =
x = x
y = y
40
4.04
40
5.17
60
6.26
60
7.97
60
7.16
Fig.82
103
80
9.92
80
8.11
y :
100
10.20
x = 74 , y' = 8.60 , S 2x = 6440 , S 2y' = 98.41 , S xy' = 766 , = 0.119 , = 0.206 , r 2 = 0.926
y = ( 0.206 + 0.119 x) 2
La tabla siguiente nos muestra algunos modelos no lineales y las transformaciones para obtener
una relacin lineal :
Modelo no Lineal
Transformacin
y = a e bx
y = a xb
1
a + bx
1
y=
(a + bx) 2
y' = 1
y=
1
b
=a+
y
1+ x
y' = 1
y' = 1
y =a + b x
y
y
, x' = x
, x' = x
, x' = 1
1+ x
y' = y , x' = x
La Regresin Multivariable.
Los conceptos estudiados es este captulo pueden ser extendidos a situaciones en las cuales existe
ms de una variable independiente.
Supongamos, que la variable y depende de las variables x, x, x ( la generalizacin a p
variables es inmediata). Por analoga con el modelo lineal simple, se puede formular el modelo
siguiente :
Yi = + 1xi + 2xi + 3xi + ei
i = 1, 2,...,n
En que xi, xi, xi son los valores de las variables independientes en el experimento i, siendo yi
la respuesta correspondiente. Se asume que los errores ei son variables aleatorias gaussianas
independientes, de esperanza nula y varianza 2 desconocida. Las constantes , 1, 2, 3 son
desconocidas.
Debido a la presencia de ms de dos variables, este modelo se llama regresin lineal mltiple.
Para estimar los parmetros , 1, 2, 3 se utiliza el mtodo de los mnimos cuadrados,
minimizando la cantidad :
D=
(y
i =1
104
( x i ' x' ) 2 =
i =1
S x'x" =
(x ' )
i
nx ' 2
i =1
i =1
i =1
etc.
Ejemplo : En la Oficina Salitrera de Pedro de Valdivia se observan durante 10 meses las variables
siguientes, en la planta de concentracin :
y = Recuperacin de la planta en %.
x = Temperatura del proceso.
x = Porcentaje de caliche vaciado.
x= Porcentaje de material con granulometra > 0.5 pulgadas.
Los datos figuran en la tabla siguiente :
Recuperacin
y
60.2
55.0
56.2
60.9
64.6
64.1
62.2
63.1
59.1
59.4
Temperatura
x
35.33
34.37
35.10
39.53
40.03
40.03
39.77
40.70
40.17
39.87
% Caliche
x
76.22
77.41
77.04
77.98
77.99
77.51
77.84
77.44
77.32
76.40
Granulometra
x
3.7
3.9
4.1
3.7
3.7
3.6
4.0
3.6
4.1
4.1
La ecuacin de regresin nos indica que la nica variable (de las consideradas) que hace subir la
recuperacin de la planta es la temperatura. Se pusieron calderas y se comprob que la
recuperacin subi significativamente.
Los residuos y i y i = y i 1x i ' 2 x i " 3 x i ' ' ' son los que figuran en la tabla siguiente :
105
yi
59.10
56.52
55.66
62.44
62.87
63.73
60.35
64.32
60.01
59.91
yi
60.2
55.0
56.2
60.9
64.6
64.1
62.2
63.1
59.1
59.4
ei
1.10
-1.52
0.54
-1.54
1.73
0.37
1.85
-1.22
-0.91
-0.51
De manera anloga a la regresin simple, el estudio de los residuos sirve para validar el modelo.
Ver pginas 99 101.
En el caso multivariable, como ndice del ajuste lineal, se utiliza el coeficiente de determinacin
r2, definido por :
S2
yy
2
r = 2 2
Sy S
y
(p)
i =1
(y
y i ) 2
i =1
y y
i
n y i y i = 76.86
i =1
r2 = 0.833 , = 0.913
106
La Regresin Polinmica.
En el caso en el cual se dispone de una variable independiente se puede suponer un modelo
polinmico del tipo :
Yi = + 1xi + 2xi2 +....+pxip + ei
que es un caso particular del modelo lineal mltiple, con : x = x , x = x2 ,......, x(p) = xp.
Por ejemplo, si se desea ajustar la parbola + 1x + 2x2,
D=
(y
1x i 2 x i ) 2
i =1
x i + 1 x i + 2 x i 3 = x i y i
2
x i + 1 x i + 2 x i 4 = x i y i
n + 1 x i + 2 x i 2 = y i
107
XIV.
ESTADISTICA NO PARAMETRICA.
Casi todos los mtodos estadsticos que hemos estudiado suponen que las variables que interesan
son gaussianas. Estos mtodos requieren, en general, el conocimiento de dos parmetros : la
esperanza matemtica y la varianza.
Ahora consideremos situaciones en las cuales no podemos hacer suposiciones referentes a los
parmetros de las variables, de aqu el trmino Estadstica no Parmetrica. Aplicaremos los
mtodos no parmetricos en las ocasiones en las cuales no tenemos motivos para suponer que las
variables son normales. Sin embargo como regla, los mtodos no parmetricos tienen menor
eficacia que los correspondientes mtodos paramtricos.
A.
M1 M2
3.7
3.9
4.1
4.7
4.9
6.1
6.4
6.8
7.6
9.8
11.1
15.1
Rango
10
11
12
108
n2
WMn
WMx
3
3
3
3
3
3
3
3
3
3
3
4
4
4
4
4
4
4
4
4
4
4
5
5
5
5
5
5
5
5
5
5
5
5
6
7
8
9
10
11
12
13
14
15
5
6
7
8
9
10
11
12
13
14
15
5
6
7
8
9
10
11
12
13
14
15
6
7
7
8
8
9
9
10
10
11
11
11
12
13
14
14
15
16
17
18
19
20
17
18
20
21
22
23
24
26
27
28
29
21
23
26
28
31
33
36
38
38
43
46
29
32
35
38
42
45
48
51
54
57
60
38
42
45
49
53
57
61
64
68
72
76
Ejemplo : Comprobar si los datos de las formaciones geolgicas evidencian que la formacin 2 es
ms rica que la formacin 1.
109
Un test no parmetrico excepcionalmente simple e intuitivo es el test de los signos. Este test
requiere disponer de dos muestras M1 y M2 de igual extensin y tomadas de a pares.
La hiptesis a comprobar es H0 : Las dos muestras corresponden a la misma variable aleatoria.
Se comprueba que no existe diferencia entre ambas muestras al examinar los signos de las
diferencias entre las parejas, los cuales deberan estar distribuidos uniformemente :
P( + ) = P( - ) =
Como regla de decisin se puede utilizar el test de 2; por lo menos se necesitan 10 parejas de
nmeros para que la comprobacin sea razonablemente sensitiva.
Ejemplo : La tabla siguiente muestra al nmero de obreros ausentes en dos turnos de una empresa
durante 16 das.
Tenemos 15 parejas de datos : no consideramos el da 7 porque los dos valores coinciden.
Da
Turno A
Turno B
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
8
6
5
0
5
2
4
3
9
6
11
8
5
8
10
3
7
7
7
2
3
3
4
5
8
8
12
7
6
9
7
5
Diferencia
AB
+
+
+
+
+
-
Se tiene entonces que de las 15 diferencias, en teora 7.5 seran ( + ) y 7.5 seran ( - ) :
Diferencias Observado
Oi
+
5
10
k
D=
i =1
(Oi Ei ) 2
sigue una ley 21 : k = 2 , l = 0
Ei
110
Terico
Ei
7.5
7.5
de la tabla de la pgina 84 deducimos al nivel 0.95 que DMx = 3.841. Por otra parte :
(5 7.5) 2 (10 7.5) 2
D0 =
+
= 1.67
7.5
7.5
Conclusin : Los datos no justifican la inferencia de que existe una diferencia en el ausentismo de
los dos turnos.
C.
A
2
3
1
B
1
2
1
C
3
1
-2
D
4
4
0
E
6
6
0
F
5
7
2
G
8
5
-3
H
7
9
2
I
10
10
0
J
9
8
-1
(lo anterior significa por ejemplo : para el profesor 1 el alumno A es el segundo en capacidad,
mientras que para el profesor 2 es el tercero en capacidad).
10
Se tiene que
d i 2 = 12 + 12 + (2) 2 + ..... + (1) 2 = 24 , n = 10
i =1
6.24
=1
= 0.85
10.99
111
Fig.83
En el baco del anexo, se entra con el valor 0.855 y en las curvas para n = 10 se determinan los
puntos A y A los cuales proporcionan el intervalo del 95 % de confianza para : 0.45 0.95.
Podemos conclur que el grado de acuerdo entre los dos profesores es significativo.
Observacin : El baco del anexo tambin es aplicable al coeficiente de correlacin .
112
113
Bibliografa
1.-
Sixto Ros
2.-
G. Bhattacharyya
3.-
A. Rickmers
4.-
S. Avazian
5.-
J. Davis
114