Вы находитесь на странице: 1из 114

ESTADISTICA

por
Marco Antonio Alfaro Sironvalle
Ingeniero Civil de Minas, Universidad de Chile

Doctor en Geoestadstica, Escuela de Minas de Pars.


Profesor de Estadstica, Probabilidades y Procesos Estocsticos, Universidad De Chile
Profesor de Evaluacin de Recursos Mineros en la Universidad de Santiago de Chile

Junio, 2000

0.

INTRODUCCIN A LA ESTADSTICA.

La palabra Estadstica se usa para caracterizar hechos numricos reunidos sistemticamente en


cualquier campo, ya sea de observacin o experimental. La Estadstica se puede dividir en tres
grandes captulos:
a)
Estadstica Descriptiva :
Se ocupa del estudio de datos, los cuales se disponen en
la forma ms conveniente para su anlisis o inspeccin.
b)
Teora de Probabilidades :
Se ocupa del estudio de un modelo matemtico, que
formaliza ciertos elementos de regularidad que sugieren leyes. Estas leyes se expresan en forma
de axiomas lgicos, desarrollando las consecuencias de los axiomas, produciendo as un conjunto
de teoremas o proposiciones.
c)
Inferencia Estadstica : Se ocupa de las relaciones entre el modelo matemtico y la
practica, constituyendo, en cierta forma, la rama aplicada de la estadstica.

I.

ESTADSTICA DESCRIPTIVA.

I.1.

DEFINICIONES.

a)
Fenmenos Aleatorios : Desde hace algunos aos se ha comenzado a estudiar, de manera
cientfica, los fenmenos aleatorios, que son aquellos en que las mismas causas dan lugar
resultados diferentes.
b)
Experimentos Aleatorios : Se llama experimento aleatorio a una experiencia cuyo
resultado depende del azar, es decir, puede variar cuando esta se repite en condiciones supuestas
idnticas, ejemplos.
- tirar un dado y ver el nmero que aparece.
- medir las horas de duracin de una ampolleta.
c)
Resultado : Es la informacin aportada por la realizacin de una experiencia. el conjunto
de todos los resultados posibles de un experimento se llama espacio muestral y se designa por la
letra , ejemplos:
- = { 1, 2, 3, 4, 5, 6 }, para el lanzamiento de un dado.
- = { x : x 0 }, si se mide la estatura de un individuo.
I.2.

PRESENTACIN DE RESULTADOS EXPERIMENTALES

a)
Variable estadstica asociada a un experimento : Si a cada resultado se le asocia un
nmero perteneciente a un cierto conjunto, se dice que este nmero es una variable estadstica. Se
utilizan letras maysculas para representar las variables estadsticas, ejemplos:
- X = estatura de un individuo.
- X= resultado de tirar un dado.
- X = temperatura a las 12 horas en un punto dado.
b)
Muestra de n resultados : Es el conjunto de valores tomados por una variable estadstica
durante n experimentos, ejemplo:
- M = { 6, 2, 3, 3, 4, 5, 6, 3, 1, 1 } si se tira 10 veces un dado.
- M = { 0.96; 1.02; 0.50; 030; 0.89 } si se analizan 5 muestras por cobre dentro de un
yacimiento.
En general : M = { x1, x2, ..., xn }.
I.3.

CASO DE UNA VARIABLE DISCRETA.

Una Variable estadstica es Discreta, si el conjunto de valores posibles se puede poner en la forma
R = { a1, a2, ... , ak }
en que k es el nmero de valores diferentes que puede tomar la muestra.
Sea una muestra de tamao n y sea ri el nmero de repeticiones del valor ai en la serie de n

experimentos. Se tiene la relacin ri = n

i =1

En donde ri es la frecuencia absoluta del valor ai. Se define la frecuencia relativa del valor ai
como:

fi =

ri
n

se tiene entonces la relacin :


k

fi = 1
i =1

Ejemplo: Sea la muestra


M = { 0, 3, 1, 1, 2, 1, 2, 2 }
,
n=8
a1 = 0 , a2 = 1 , a3 = 2 , a4 = 3 , k = 4
r1 = 1 , r2 = 3 , r3 = 3 , r4 = 1
f1 = 1/8 , f2 = 3/8 , f3 = 3/8 , f4 = 1/8
En el caso general se puede construir la siguiente tabla:
X
ri
fi

a1
r1
f1

a2
r2
f2

...........
...........
...........

ak
rk
fk

y dibujar un diagrama de frecuencias:


f2
f1
fk
a1

I.4.

ak

a2

CASO DE UNA VARIABLE CONTINUA.

Una variable estadstica es continua si toma sus valores en un conjunto continuo, es decir, un
intervalo del eje real.
Para reducir una muestra M = { x1, x2, ... , xn } de una variable continua, se definen clases, que
son intervalos disjuntos que cubren el dominio de definicin de la variable,
Ejemplo : Leyes de Cu de un conjunto de testigos, eligiendo clases iguales de magnitud 0.1
X
ri
fi
ci

0 x < 0.1
r1
f1
c1

0.1 x < 0.2


r2
f2
c2

0.2 x < 0.3


r3
f3
c3

...............
...............
...............
...............

Se define, anlogamente :
ri = numero de datos de la muestra que caen en la clase ci
fi = frecuencia relativa de la clase ci ( ci = ri / n)
ci = magnitud de la clase ci
La representacin grfica de la tabla anterior se llama histograma ( k = nmero de clases )

Histograma

fi

f2

Fig.1

f1
fk
0

0.1 0.2 0.3 0.4 0.5 0.6


c2

c1

0.7 0.8 0.9


ck

ci

Para construir un histograma, se recomienda, en Estadstica, un mnimo de 8 clases, para lo cual


se requiere un mnimo tambin de 30 datos. En el caso continuo tambin son vlidas las
relaciones:
k

ri = n

i =1

I.5.

f
i =1

=1

EL DIAGRAMA ACUMULADO

Para caracterizar una variable estadstica se utiliza tambin el diagrama acumulado F(x) que
representa la frecuencia relativa acumulada en el histograma hasta el punto x.
La figura 2 nos muestra como se construye el diagrama acumulado a partir del histograma.
0.30
0.20

0.10

0.10

0.05

0.20
0.05

F(x)

1.0

0.85

0.8

0.65

0.6
Fig.2
0.4

0.35

0.2

0.15
0.05

En trminos intuitivos F(x) representa el porcentaje de valores de la muestra que la muestra que
son inferiores a x.
I.6.

PARMETROS DE UNA DISTRIBUCIN ESTADSTICA.

Adems del histograma y del diagrama acumulado, existen varios parmetros que caracterizan el
comportamiento de una muestra.
a)
Parmetros de Tendencia Central :
Los parmetros de tendencia ms importantes son la media y la mediana.
i)
La Media Aritmtica : Sea la muestra M = { x1, x2, ..., xn } la medida tpica ms
comnmente utilizada es la media, definida simplemente por:

x=

x1 + x 2 + .... + x n 1 n
= xi
n
n i=1

En el caso en que los datos se han agrupado en un diagrama de frecuencias o un histograma, se


tendr lo siguiente:
Si la variable es discreta, se calcula por :
k

x = a i fi
i =1

Si la variable es continua, se calcula, aproximadamente por :


k

x = x i fi
i =1

en que xi es el punto medio de la clase ci.


ii)
La Mediana : Supongamos que la muestra M = { x1, x2, ..., xn } ha sido ordenada
de menor a mayor obtenindose la muestra ordenada M = { y1, y2, ..., yn } con y1 y2 ...... yn ,
se define la mediana por :
Si n es impar :
M = y n +1
2

Si n es par :

y n + y n+2
2
M= 2

Ejemplo :
Se dispone de la muestra, con datos de leyes de Cu siguientes :
M = { 0.95 , 1.02 , 0.90 , 4.03 , 1.10 } M = {0.90 , 0.95 , 1.02 , 1.10 , 4.03} = {y1, y2, y3, y4,
y5} luego la mediana es M = y3 = 1.02.
La mediana tiene la propiedad siguiente : el 50 % de los datos es menor que M y el 50% de los
datos es mayor que M, es decir M divide la muestra en dos partes iguales. La mediana esta menos
afectada por valores extremadamente altos ( o extremadamente pequeos ) que la media, en el
ejemplo anterior la media es : x = 1.60 valor muy afectado por el dato 4.03
La mediana se puede determinar grficamente utilizando el diagrama acumulado F(x). Segn lo
anterior la mediana es el valor xM para el cual se cumple la relacin F(xM) = 0.5

F(x)
1.0
0.8
0.6
Fig.3

0.50

0.4
0.2
XM

b)
Parmetros de dispersin :
Adems de poder encontrar la media de una muestra, resulta importante medir la variacin de los
datos con respecto a este valor central.
La variacin de los datos con respecto a la media esta caracterizada por las diferencias :
(x1 x), (x 2 x),....., (x n x). Para encontrar un indicador de la variacin, se pueden promediar
estas diferencias :

x1 x + x 2 x + .... + x n x
, pero
n
x + x + .... + x n
= 1 2
x =0
n

Luego la desviacin promedio es siempre nula. Esto proviene del hecho que las desviaciones
positivas se cancelan con las desviaciones negativas. Para definir una medida de la variacin se
toman entonces las diferencias elevadas al cuadrado : ( x1 x ) 2
Tenemos entonces la definicin siguiente :
Se llama Varianza de la muestra M = { x1, x2, ..., xn} a :

2 =
o bien :

2 =

( x1 x )2 +( x2 x )2 +
n

( x2 x) 2

,.......,

(xn x) 2 .

+( xn x )2

1
(x i x) 2

n i =1

La varianza constituye una medida de dispersin con respecto a la media y es un nmero 0, en


el nico caso en que 2 = 0 , es aquel de una muestra del tipo M = { a , a ,..., a } con a = cte., es
decir una muestra sin variacin.
Debido a que la varianza es una suma de cuadrados, la unidad de 2 es igual a la unidad de la
muestra elevada al cuadrado, es decir si X se mide en % de Cu, 2 se mide en (% de Cu)2. Por
esta razn se define la desviacin tpica como :

= 2

La desviacin tpica est expresada en las mismas unidades de la variable estadstica, tambin
constituye una medida de dispersin.
c)
Otras Medidas de Dispersin.
Existen otras medidas de dispersin basadas en los cuartiles o percentiles de orden .
Se llama percentil de orden ( 0 < < 1 ), al valor x tal que f(x) = . Este valor se puede
obtener grficamente utilizando la funcin F(x).
F(x)
1.0
0.8

Fig.4

x0.8

Percentil de orden 0.8

El percentil x divide la muestra de datos en dos partes : el % de los valores es menor que x y
el ( 1 - )% de los valores es mayor que x. Existen tres percentiles importantes llamados
cuartiles :
X0.25 se llama primer cuartil.
X0.50 se llama segundo cuartil ( y es la mediana ).
X0.75 se llama tercer cuartil.
Como medida de dispersin de la muestra se utiliza el recorrido intercuartlico, definido por :
R = x0.75 x0.25
La magnitud de R nos da una medida de la dispersin de la muestra ( ver figura 5 )

Histograma con poca dispersin

Histograma con mayor dispersin

x
F(x)

F(x)

0.75

0.75

0.25
0

0.25
x

R
Recorrido pequeo

R
Recorrido mayor

Fig.5

Observacin : otros autores utilizan como medida de dispersin el recorrido siguiente :


R = x0.90 x0.10
Otras medidas que se utilizan para caracterizar el comportamiento de una muestra son el
Coeficiente de Simetra y el Coeficiente de Kurtosis.
d)

El Coeficiente de Simetra .

El coeficiente de simetra , sirve para caracterizar comportamientos tales como :


>0

<0

a) Asimetra Negativa

=0

b) Asimetra Positiva

Fig.6

El Coeficiente de Simetra se define por :

=
En que :

3 =

1
n

(x
i =1

3
3

x )3

c) Simetra

Se puede demostrar que :


< 0 asimetra negativa.
> 0 asimetra positiva.
= 0 asimetra nula (simetra).
El Coeficiente de Exceso o de Kurtosis E.
e)
El coeficiente de Kurtosis E es una medida del grado de achatamiento de un histograma con
respecto al modelo terico de Gauss, el cual tiene por ecuacin :
Donde :
f ( x) =

1 xm

e 2

= varianza de la muestra.
m = media de la muestra = x .

E>0

E<0

Gauss

a) Histograma ms
puntiagudo que
la ley de Gauss

E=0

Gauss

b) Histograma ms
achatado que la
ley de Gauss

Gauss

c) Histograma sin
achatamiento

Fig.7

Al comparar un cierto histograma con la funcin f(x), se pueden presentar los casos siguientes :
El Coeficiente de Kurtosis se define se por:

E=

4
1 n

3
en
que

=
(x i x)4
4
4
n i =1

Se puede demostrar que :


- E > 0 Histograma mas puntiagudo que la ley de Gauss.
-

E = 0 Histograma sin achatamiento

E < 0 Histograma mas achatado que la ley de Gauss.

10

II.

VARIABLES ESTADISTICAS BIDIMENSIONALES.

A menudo se realizan experimentos cuyos resultados dan lugar a un par de nmeros o a una serie
de nmeros.
Ejemplo :
( X , Y ) , en que X = ley de Cu , Y = ley de S.
O bien :
( X , Y , Z ) , en que X = ley de Pb , Y = ley de Zn , y Z = ley de Au
En el caso bidimensional, una muestra de n observaciones es de la forma :
M = { (x1 , y1), (x2 , y2), ..., (xn , yn) }
La agrupacin de la muestra se hace mediante una tabla del tipo tabla de contingencia :
a0 y < a1
a1 y < a2

b0 x < b1
r11
r21

b1 x < b2
r12
r22

..........
..........
..........

bk-1 x < bk
r1k
r2k

ap-1 y < ap

rp1

rp2

..........

rpk

y un histograma en el espacio seria de la forma :

Fig.8

Un mtodo ms simple para ilustrar los datos bidimencionales es el Diagrama de Dispersin o


Nube de Puntos. Las dos medidas ( xi , yi ) se consideran como un par ordenado, que puede
representarse como un punto en el sistema de coordenadas rectangulares; la muestra :
M = { (x1 , y1), (x2 , y2), ..., (xn , yn) }
Constituye entonces una nube de puntos.

11

Fig.9
La figura 9 muestra la nube de correlacin ley de U3O8 radiactividad para 74 muestras, del
yacimiento Saelices (Espaa).
La figura 10 resume los casos que se podran encontrar al estudiar dos variables estadsticas X e
Y:

Fig.10
Existen herramientas para cuantificar los comportamientos anteriores y son la Covarianza y el
Coeficiente de Correlacin.
II.1

LA COVARIANZA.

Supongamos que nuestra muestra. M = { (x1 , y1), (x2 , y2), ..., (xn , yn) } la escribimos en
columnas, agregando una columna de productos xi*yi :

12

X
x1
x2

Y
y1
y2

X*Y
x1*y1
x2*y2

xn
Promedio X

yn
Promedio Y

xn*yn
Promedio X*Y

Se define la Covarianza entre x e y por :

c xy = xy x y
Lo cual se puede escribir tambin como :

n
n
n

= 1 x y 1 x 1 y
xy n
i i n
i n
i
i =1
i = 1 i = 1

Se puede demostrar que :


i)
Si la correlacin es positiva : Cxy > 0
ii)
Si la correlacin es negativa : Cxy < 0
iii)
Si la correlacin es nula :
Cxy = 0
Ejemplo : calcular Cxy en el caso de la muestra M = { (1,1) , (2,2) , (2,3) , (3,4) }
X
1
2
2
3
x=2

Y
1
2
3
4
y = 2 .5

X*Y
1
4
6
12
x y = 5.75

Cxy = 5.75 2*2.5 = 0.75 > 0


La unidad de la covarianza es (unidad de x)*(unidad de y), debido a lo anterior se prefiere usar
una cantidad adimencional, que es el Coeficiente de Correlacin, definido por :
C
= xy

x y

en que : x =
2

1
1
2
(x i x) 2 , y = (y i y) 2

n i =1
n i =1

es un nmero sin dimensin que verifica las propiedades siguientes :


i)
1 1
Si la correlacin es positiva : 0 < 1
ii)

13

iii)
iv)
v)
vi)

Si la correlacin es negativa : -1 < 0


Si la correlacin es nula :
=0
Si = 1, entonces
y = x + , con > 0
Si = -1, entonces
y = - x + , con > 0

Cuando cae en el intervalo achurado, se puede considerar que la correlacin (positiva o


negativa) es significativa :
Correlacin significativa

- 1.0

- 0.5

1.0

0.5
Correlacin debil

II.1

LA CURVA DE REGRESIN.

La curva de regresin y = m(x) representan el promedio de la variable y para un valor dado de x.


El valor numrico de m(x0) se puede hallar grficamente al promediar todos los valores que caen
en una franja cercana a x0 (fig. 11) :

Fig.11

En general m(x) es una funcin de x. Si esta funcin es una recta se dice que la regresin es lineal
(ver fig.12a ). Cuando no existe correlacin entre x e y, la curva de regresin es una constante.
(ver fig. 12b )

(b)

(a)
Fig.12

14

III.

CALCULO DE PROBABILIDADES.

En los prrafos anteriores hemos estudiado las situaciones aleatorias desde un punto de vista
descriptivo. Se hace necesario introducir un modelo matemtico. La exposicin axiomtica
moderna es el nico mtodo riguroso para construir la teora del clculo de probabilidades.
Antes de enunciar los axiomas de las probabilidades necesitamos introducir el concepto de
sucesos o eventos aleatorios :
Sucesos :
Sea un experimento aleatorio. Se llama espacio muestral al conjunto de todos los resultados
posibles. Se designa por la letra .
Ejemplos :
(i)
al tirar un dado = { 1, 2, 3, 4, 5, 6 }
al tirar una moneda ={ cara, sello }
(ii)
Se llama suceso a cualquier subconjunto del espacio muestral
Ejemplo : A = tirar un dado y sacar un nmero impar = { 1, 3, 5 }, es un suceso ya que es
subconjunto de = { 1, 2, 3, 4, 5, 6 }
Sea un experimento aleatorio y sea A un suceso, entonces al hacer un experimento solo caben
dos alternativas :
Ocurre el suceso A.
No ocurre el suceso A.
De acuerdo a lo anterior se definen otros tipos de sucesos :
a)
Suceso Seguro : Es aquel que siempre ocurre. Es fcil ver que suceso seguro y espacio
muestral son lo mismo. Lo designaremos con la letra .
b)
Suceso Imposible : Es aquel que nunca ocurre. Lo representaremos por la letra . Por
ejemplo al tirar un dado = sacar el nmero 7
c)
Suceso Contrario : A es el suceso contrario de A, si ocurre cuando no ocurre A. Ejemplo:
Si al tirar un dado A = { 2, 4, 6 }, entonces A = { 1, 3, 5 }.
Se tiene las siguientes relaciones lgicas :
A= A

d)
Suceso Interseccin : Sean A y B sucesos, se define la interseccin de A y B como el
suceso C que ocurre cuando A y B ocurren simultneamente. Escribamos C = A B.
Ejemplo: Si A = { 1, 2 } , B = { 2, 4, 6 }, entonces A B = { 2 }.
e)
Sucesos iIncompatible : Dos sucesos A y B se dicen incompatibles si no pueden ocurrir
simultneamente. En este caso, segn la definicin : A B = .

15

f)
Suceso Unin : Sean A y B sucesos, se define la unin de A y B como el suceso D que
ocurre cuando A B ambos a la vez. Se escribe D = A B.
Ejemplo: Si A = { 1, 2 } , B = { 2, 4, 6 } entonces A B = { 1, 2, 4, 6 }.
Se tiene la relacione lgica :
A A =
Los conceptos anteriores pueden visualizarse mediante los diagramas de Venn de la teora de
conjuntos :

AB

AB

AB=

Fig.13

III.1

DEFINICION AXIOMATICA DE LA PROBABILIDAD

Se llama probabilidad de un suceso A a un numero real P(A) que satisface los axiomas siguientes:
Axioma 1 :
P(A) 0
Axioma 2 :

P() = 1

Axioma 3 :

Si A y B son sucesos incompatibles, es decir A B = ,

entonces :
P(A B) = P(A) + P(B)

Observacin : El sistema de axiomas anteriores es incompleto; no nos dice como se calcula una
probabilidad, de modo que se puede adoptar la definicin de probabilidad al fenmeno que se
quiere estudiar.
Dependiendo de las condiciones del problema, se calculara la probabilidad de un suceso A por :
k
= N de casos favorables a A / N de casos totales
n

i)

P ( A) =

ii)

nA
P ( A) = lim
n n

En que nA es el numero de veces que ocurre A en una serie de n repeticiones del experimento.

16

iii)
En los casos de probabilidades geomtricas, se calcula P(A) como una razn de
longitudes, de reas o de volmenes.
Ejemplo: Si se tira en S un
s
punto al azar ( es decir sin
apuntar ), la probabilidad
S
de que impacte en s es : P(A) = s / S
Las tres maneras de calcular una probabilidad que hemos visto satisface los axiomas.
III.2

CONSECUENCIAS DE LOS AXIOMAS

Las propiedades siguientes resultan como consecuencia inmediata de los axiomas :


- Propiedad 1 : P( ) = 0
- Propiedad 2 : P ( A ) = 1 P( A )
- Propiedad 3 : P( A B ) = P( A ) + P( B ) P( A B ) ;
III.3

(AB)

PROBABILIDAD CONDICIONAL

Sea B un suceso del cual sabemos que ha ocurrido. La probabilidad condicional de un suceso A
dado que ha ocurrido B, escrita P( A B ), se define por :

P( A B ) =

P( A B )
P( B )

(1)
A

Y se llama probabilidad condicional de


A dado B. La probabilidad condicional
De B dado A se define por :

P ( B A) =

P( A B)
P ( A)

(2)

Regla de la multiplicacin : De (1) y (2) se deduce que :


P ( A B ) = P ( A) P ( B A) = P ( B ) P ( A B)

(3)

Ejemplo : Se sacan 2 cartas consecutivamente ( sin devolucin ) de una baraja. Sean :


A = La primera carta es un as
B = La segunda carta es un as
P( A B ) = P( A )*P( B A ) = (4 / 52)*(3 / 51) = 0,0045
La formula (3) se puede generalizar para ms sucesos, por ejemplo, con tres sucesos A, B, C :
P( A B C ) = P( A )*P( B A )*P( C A B )

17

(4)

Y para n sucesos A1, A2,....., An :


P(A1A2....An) = P(A1)*P(A2 A1)*P(A3 A1 A2)*.....*P(An A1 A2.... An-1)

(5)

Ejemplo : Se sacan 4 cartas consecutivamente ( sin devolucin ) de una baraja. Sean :


A1 = La primera es un as ; A2 = La segunda es un as
A3 = La tercera es un as ; A4 = La cuarta es un as :
P(A1A2A3A4) = (4 / 52)*(3 / 51)*(2 / 50)*(1 / 49) = 0,0000037
III.4

SUCESOS INDEPENDIENTES

En trminos intuitivos dos sucesos A y B son independientes si la ocurrencia de B no afecta la


ocurrencia de A. En trminos formales tendremos la definicin siguiente :
Definicin :Dos sucesos A y B son independientes si :
P( A B ) = P( A )

(6)

Al introducir la ecuacin (6) en la ecuacin (3), se tiene que si A y B son independientes,


entonces:
(7)
P( A B ) = P( A )*P( B )
Al introducir (7) en (2), se tiene :
P( B A ) = P( B )
Ejemplo : Se ponen al azar en una fila 3 personas A, B y C. Sean los sucesos :
S = A esta a la izquierda de B
T = C esta a la izquierda de B
Encontrar P( S ), P( T ), P(S T ), P( S T ), Son independientes S y T ?
Solucin :
= { ABC, ACB, BAC, BCA, CAB, CBA }
S = { ABC, ACB, CAB }
T = { ACB, CAB, CBA }
S T = { ACB, CAB }
Luego :
P( S ) = 3/6 = 1/2 = P( T )
P(S T ) = 2/6 = 1/3
P( S T ) = P(S T ) / P( T ) = (1/3) / (1/2) = 2 / 3
Luego S y T no son independientes porque P( S T ) P( S ).

18

IV.

VARIABLES ALEATORIAS

Se llama variable aleatoria al resultado de un experimento aleatorio cuando este resultado se


puede expresar por un numero. Se utilizan letras maysculas para describir las variables
aleatorias.
Ejemplos:
a)
X = resultado de tirar un dado
b)
Y = estatura de un individuo elegido al azar
c)
Z = resultado de tirar una moneda. Z no es una variable aleatoria porque su resultado (C
S) no es un numero.
Se puede observar que una variable aleatoria es la transposicin terica de una variable
estadstica.
Rango de una Variable Aleatoria : Se llama rango R de una variable aleatoria X al conjunto de
todos los valores que puede tomar X.
Ejemplo:
a)
X = resultado de tirar un dado R = { 1, 2, 3, 4, 5, 6 }
X = terminacin de la lotera R = { 0, 1, 2, 3, 4, 5, 6, 7, 8, 9 }
b)
c)
X = duracin de una ampolleta R = { t : t 0 }
Tipos de Variables Aleatorias : Existen dos tipos de variables aleatorias :
a)

Variable Aleatoria Discreta : es aquella en la cual el rango R es de la forma :


R = { x1, x2, x3,......, xn }

b)

x
x2

x1

xi

Variable Aleatoria Continua : es aquella en la cual el rango R es de la forma :


x

R = {x:a x b}

( a y b pueden ser eventualmente - y + ).


IV.1

DESCRIPCION PROBABILISTICA DE UNA VARIABLE ALEATORIA

Definicin 1 : Sea X una variable aleatoria


discreta, a cada valor posible xi le asociamos
un valor p(xi) = P( X = xi ), llamado
probabilidad de xi el cual satisface :
a) p ( xi ) 0
b) p(x1 ) + p(x 2 ) + .... + p(x i ) + .... = 1

p(x ) = 1
i

( p(xi) se llama funcin de probabilidad )


Ejemplo :Se tiran 3 monedas diferentes al aire. Sea X = numero de caras . Encontrar R y
p(xi).

19

Solucin : Los casos posibles del experimento son :


= { SSS, SSC, SCS, CSS, CCS, CSC, SCC, CCC }

X=0

X=2

X=1

X=3

R = { 0, 1, 2, 3 }
p( 0 ) = P( X = 0 ) = 1 / 8
p( 1 ) = P (X = 1 ) = 3 / 8
p( 2 ) = P (X = 2 ) = 3 / 8
p( 3 ) = P (X = 3 ) = 1 / 8

Luego

( Observamos que p(x1) + p(x2) + p(x3) + p(x4) = 1 )


Definicin 2 : Sea X una variable continua, entonces existe
una funcin f( x ) llamada densidad de probabilidad, la cual
satisface :
a)

f( x )

f(x) 0

b)

f(x)dx = 1

P( a X b )

c)

f(x)dx = P(a X b)
a

Observacin :en el caso de una variable


Aleatoria X continua, se tiene :
a

P( X = a) =

f ( x)dx = 0

a
es decir la probabilidad del suceso X = a es nula sin embargo esto no significa que el suceso X =
a es imposible.

Ejemplo : Sea X el ngulo que forma un lpiz con una recta fija. X es una variable aleatoria
continua con funcin de densidad f(x) como muestra la figura :

20

f(x)

calculamos P( /4 X /2 ) :

P(

X ) =
4
2

1/2

/2

1
1
dx =
2
8
/4

La funcin de Distribucin de Probabilidades.


Otra herramienta que sirve para caracterizar probabilisticamente a una variable aleatoria X es la
funcin de distribucin de probabilidades, definida por
F( x ) = P( X x )
Observacin : F( x ) es la transposicin terica del diagrama acumulado ( ver pagina 4 ). Si X es
continua, segn la formula ( c ) de la pagina 22, se tiene :
x

F(x) = f(x)dx ,

lo que implica :

f(x) =

dF(x)
dx

Propiedades de F( x ) : F( x ) satisface las propiedades siguientes :


a)
b)
c)

F( - ) = P( X - ) = P( ) = 0
F( + ) = P( X + ) = P( ) = 1
F( x ) es una funcin que no decrece, es decir : si a b, entonces F( a ) F( b )
F(x)

Fig.14

IV.2

EL VALOR ESPERADO O ESPERANZA MATEMATICA DE UNA VARIABLE


ALEATORIA.

La significacin intuitiva de la esperanza matemtica de una variable aleatoria X es la siguiente :


es un valor medio de la variable X, en que todos los valores que X puede tomar estn ponderados
por su probabilidad respectiva. Se utiliza la notacin E(X) para representar la esperanza
matemtica.

21

Fig.15

Ejemplo : Sea X = resultado de tirar un dado.


E(X) = 1*1/6 + 2*1/6 + 3*1/6 + 4*1/6 + 5*1/6 + 6*1/6

1/6

E(X) = 3.5

E(X)

La significacin de este resultado es la siguiente : si se repite un numero n grande de veces el


experimento de tirar un dado y se registran las observaciones de X en una muestra, se obtendr,
por ejemplo : M = { 6, 3, 5, 5, ....., 2 }, y en condiciones ideales debera tenerse :
x = 6 + 3 + 5 + 5 + ......+ 2 = 3.5
n
O sea que la esperanza matemtica es un promedio terico de la variable X.
La definicin formal de esperanza matemtica de una variable aleatoria es la siguiente :
Definicin :
a)
Sea X una variable aleatoria discreta, en la cual p( xi ) = P( X = xi ), se define la
esperanza matemtica de X como :
p(xi)
Fig.16

E(X ) = x i p( x i)
i

x1

xi

x2

b)
Sea X una variable aleatoria continua, con funcin de densidad f(x), se define la
esperanza matemtica de X como :

f(x)
Fig.17

E(X) = x f(x)dx

Observacin : si la variable aleatoria X es continua, E( X ) representa la abscisa del centro de


gravedad de la masa ubicada bajo la curva f( x ) :

xG =
Centro de Gravedad

x f(x)dx

= E(X)

f(x)dx

f(x)
es igual a 1

Fig.18
E(x) = xG
Ejemplo : sea f( x ) como en la figura,
22

Entonces :
b

Fig.19

1
1
E(X) = x
dx =
x dx
ba
b a a
a

E(X) =

f(x)

1 x
b a
b+a
=
=
b a 2 a 2(b a)
2
2

1/(b-a)
a

E(x)

Esperanza Matemtica de una Funcin de X


Sea H( X ) una funcin de X, se define la esperanza de H( X ) por :
a)

Si X es discreta

E[H(X)] = H(x i ) p(x i )


i

b)

Si X es continua

E[H(X)] =

H(x) f(x)dx

Ejemplo : En el caso anterior encontrar E( X2 ), ( H( X ) = X2 )


b

E(X 2 ) = x 2
a

E( X 2) =

1
1
dx =
x 2dx
ba
b a a

b
3 3 (b a) ( b2 + ab + a 2) ( b2 + ab + a 2)
1 x3
= b a =
=
b a 3 a 3 (b a)
3 (b a)
3

Propiedades de la Esperanza Matemtica.


Las siguientes son las propiedades de la esperanza matemtica, las cuales se pueden probar apartir
de la definicin :
E( C ) = C
Propiedad 1 :

Propiedad 2 :

E( X + C ) = E( X ) + C

Propiedad 3 :

E( X * C ) = C * E( X )

Las propiedades 2 y 3 se generalizan de la siguiente forma :

E( X + ) = E(X ) + ( y = cte. )
La Esperanza matemtica constituye una medida de tendencia central de una distribucin terica
de probabilidades. Por analoga de lo que vimos en Estadstica Descriptiva, definiremos una
medida de dispersin terica : La Varianza.
IV.3

LA VARIANZA DE UNA VARIABLE ALEATORIA.

Definicin : Se llama varianza de una variable aleatoria X a la cantidad :


23

V(X) = E(X m) 2

(1)

Donde m = E( X ). Se puede demostrar, al desarrollar (X m) 2 = X 2 2mX + m 2 que :

V(X) = E(X 2 ) m 2

(2)

Ejemplo : en el ejemplo de la pagina 22, encontrar V( X ). Solucin : utilizando la ecuacin ( 2 ) y


las expresiones de m y E( X2 ), se tiene :
2

b2 + ab + a 2 b + a
(b a) 2
V(X) =

=
3
12
2

( ver figura 20 )

f1(x)
X
X

f2(x)
a

a b
V( X ) = (b a)2 / 12

b
V( X' ) = (b' a')2 / 12

V( X ) < V( X' )

Menor dispersin

Mayor dispersin

Fig.20 : Comparacin de varianzas para 2 variables X y X'


La varianza es una medida de la dispersin de los valores que toma la variable aleatoria, con
respecto a la esperanza matemtica.
Observacin :
a)

El numero positivo V( X ) se expresa en unidades cuadradas de X. Por esta razn se


define la desviacin tpica de X como :

x = V(X)
x constituye tambin una medida de dispersin.
b)

Se utilizan otros smbolos para designar la varianza, tales como x2, D2(X), Var(X), 2,...

Propiedades de la Varianza.
Las siguientes son las propiedades de la varianza, las cuales se pueden probar apartir de la
definicin :

24

Propiedad 1 :
V( C ) = 0
,en que C es una constante ( en otras palabras,
una constante no tiene dispersin )

Propiedad 2 :

V( X + C ) = V( X )

( al sumar una constante la varianza no

Densidad de X

Densidad de Y = X + 2

E(X)

E(X+2)

Fig.21

varia , ver figura 21 )

Propiedad 3 :

V( C*X ) = C2 * V( X )

( ver figura 22 )

Ley de X

Ley de Y = 4*X

1
0.25
1

V( Y ) = 16*V( X ) = 16/12 = 4/3

V( X ) = 1/12
Fig.22

Las propiedades 2 y 3 se generalizan en la siguiente forma :

V( X + ) = 2 V(X)

25

( y = ctes. )

IV.4

VARIABLES ALEATORIAS MULTIDIMENSIONALES

Estudiaremos principalmente el caso bidimensional; la generalizacin a n dimensiones es


inmediata. Para describir probabilisticamente una variable aleatoria bidimencional ( X , Y )
tendremos la definicin siguiente :
Definicin :
a)

Sea ( X , Y ) una variable bidimensional discreta ( es decir ambas son discretas ), a cada
resultado posible ( xi , yj ) le asociamos un valor :
p( xi , yj ) = P( X = xi , Y = yj )
Fig.23

el cual satisface :

p(x , y ) = 1
i

p( xi , yj )

yj
y
xi
x

a)

Sea ( X , Y ) una variable aleatoria bidimensional continua (es decir ambas son
continuas), entonces existe una funcin f(x , y) llamada densidad de probabilidad
conjunta que satisface las condiciones :
i)

f(x, y) 0

ii)

f(x, y )dxdy = 1

iii) P((X, Y ) D) =

f(x, y)dxdy

26

f ( x,y)

f ( x,y )

Volumen

0
D

Volumen
bajo
la
funcin f(x,y) es igual a
1.

f (x, y)dxdy

representa la

D
probabilidad de que el resultado caiga en
una zona D del plano.
(c)

(b)

Fig.24

Ejemplo 1: Se tiran 3 monedas. Sea X = numero de caras , Y = N cara N sellos. Encontrar


p( xi , yj ). Solucin : los casos totales y su par ( xi , yj ) asociado son :
= { SSS, SSC, SCS, CSS, CCS, CSC, SCC, CCC }
(0,3)
Luego :

(1,1)

p(0,3) = 1/8

p(1,1) = 3/8

p(2,1) = 3/8

p(3,3) = 1/8

3/8

2
3

3/8
1

(3,3)

(2,1)

x1

x2

x3

x4

3
0

y1

3/8

3/8

y2

1/8

1/8

1/8
3

1/8

Fig.25

Ejemplo 2 : Dos personas deciden juntarse entre las 0 hrs y 1 hrs. Cada una decide no esperar ms
de 10 minutos a la otra. Si estas personas llegan al azar entre las 0 h y 1 h cual es la probabilidad
de que se encuentren ?.

27

Solucin : Sea X = instante en que llega la 1 persona


Y = instante en que llega la 2 persona
Variacin de X :

0 x 60

Variacin de Y :

0 y 60

La densidad de la variable ( X , Y ) es f (x,y) = cte. Porque la personas llegan al azar :

f (x , y) = 1 / 360

Fig.26

La altura h vale 1/3600


porque el volumen bajo
f ( x , y ) es 1.

h
60
y

60
x

Conjunto de resultados posibles

Los casos favorables son aquellos definidos por la desigualdades :


x y 10

y x 10

y = x + 10
60

f(x,y)
y = x - 10

60

1/3600
10
0 10

60

60
x

volumen

Fig.27
estas desigualdades determinan la zona D en la cual se encuentran las personas ( figura 27 ) :
3600 2500 11
Probabilidad = Area de D * 1/3600 =
=
3600
36

28

IV.1.

LEYES MARGINALES DE PROBABILIDAD

a)

Sea ( X ,Y ) una variable aleatoria bidimensional discreta. Supongamos que conocemos


p(xi , yi ) y deseamos conocer p(xi) = P( X = xi ). Se tiene :
( X = xi ) = ( X = xi , Y = y1) ( X = xi , Y = y2) .........

tomando probabilidades :

p( xi ) = p( xi , y1) + p( xi , y 2 ) + ...... = p(x i , y j )


p( x i ) = p(x i , y j )

se llama funcin de probabilidad marginal de X. Anlogamente :

q( y j) = P(Y = y j) = p(x i , y j )
i

se llama funcin de probabilidad marginal de Y.


b)

Sea ( X ,Y ) continua, en este caso se definen las densidades marginales por :

f(x) = f(x, y )dy

densidad marginal de X.

densidad marginal de Y.

g(y ) = f(x, y )dx

IV.2.

VARIABLES ALEATORIAS INDEPENDIENTES

En trminos intuitivos, dos variables aleatorias son independientes si el resultado de una no


influye sobre el resultado de la otra. En trminos formales, tendremos la definicin siguiente ( ver
pagina 17 formula 7 ) :
a)

Se dice que las variables aleatorias discretas X e Y son independientes si se tiene


(para todo xi , yi) :
P( X = xi , Y = yj) = P( X = xi )*P( Y = yj ) p(xi , yj) = p(xi)*q(yj)

b)

Se dice que las variables aleatorias continuas X e Y son independientes si se tiene


(para todo x , y)

f(x, y) = f(x) g(y)


Ejemplo : estudiar si las variables X e Y del ejemplo 1 de la pagina 26 son independientes :
Solucin : Veamos el cuadro :

29

x1
0

y
y1
1
y2
3
p(xi)

Se tiene :

x3
2
3
8

3
8

3
8

1
8
1
8

P( X = 1 , Y = 1 ) = 3/8
P( X = 1 ) = 1/8
,

Como P( X = 1 , Y = 1 )
IV.3.

x2
1
3
8

x4
3
0
1
8
1
8

q(yj)
6
8
2
8

P( Y = 1 ) = 6/8 = 3/4

P( X = 1 ) * P( Y = 1 ), entonces X e Y no son independientes.

ESPERANZA MATEMATICA DE UNA FUNCION DE DOS VARIABLES X e Y.

Sea H( X,Y ) una funcin de X y de Y. Se define la esperanza matemtica de H( X ,Y ) por :

E[H(X, Y)] = H( x i , y j) p(x i , y j )


i

E[H(X, Y)] =

si ( X , Y ) es discreta

H(x , y ) f(x , y )dxdy


i

si ( X , Y ) es continua

Utilizando esta definicin se pueden establecer los dos teoremas siguientes :

Teorema 1 :

Teorema 2 :

E(X + Y) = E(X) + E(Y)


Si las variables aleatorias X e Y son independientes, entonces :

E(X Y) = E(X) E(Y)


Como un ejemplo veamos la demostracin del teorema 2 en el caso que ( X ,Y ) es continua :

E(X Y) =

x y f(x, y)dxdy = x y f(x) g(y )dxdy

E(X Y ) =
IV.4.

x f(x)dx y g(y)dy = E(X) E(Y)

LA COVARIANZA DE DOS VARIABLES ALEATORIAS x e y

Definiremos a continuacin una nueva cantidad que nos dar, en cierto sentido, una medida de la
dependencia entre dos variables aleatorias X e Y.
Definicin : se llama covarianza de X e Y a la cantidad :

30

C xy = E(XY) E(X) E(Y)


( a veces se utilizan otras notaciones para la covarianza, tales como : cov(x,y), xy, xy, kxy )
Propiedades de la Covarianza.
a)

Como consecuencia inmediata del teorema 2, pagina 29, se tiene que :


Si X e Y son independientes, entonces : Cxy = 0

b)

Se tiene la relacin siguiente, cuando X = Y

C xx = E(X 2 ) [E(X)] = V(X)


2

c)

( ver formula 2, pag. 23 )

Se puede demostrar que si ( en promedio ) X crece, Y tambin crece, entonces Cxy > 0 y
que si ( en promedio ) al crecer X, Y decrece, entonces Cxy < 0.

Fig.28
Varianza de una suma de variables aleatorias
Deseamos encontrar una expresin para la varianza de la suma de variables aleatorias : Z = X+Y:

V(Z) = V(X + Y) = E(X + Y) 2 [E(X + Y)]

= E(X 2 ) [E(X)] + E(Y 2 ) [E(Y)] + 2 [E(XY) E(X) E(Y)]


2

lo que implica que :

V(X + Y) = V(X) + V(Y) + 2 C xy

(1)

Si X e Y son independientes, entonces Cxy = 0, luego :


V( X + Y ) = V( X ) + V( Y )

(2)

La propiedad (2) se puede generalizar para n variables X1, X2, ......., Xn independientes entre
ellas:
V( X1 + X2 +.......+ Xn ) = V( X1 ) + V( X2 ) +.......+ V( Xn )
31

(3)

El coeficiente de correlacin entre dos variables aleatorias X e Y.


El coeficiente de correlacin constituye otra medida de la dependencia entre dos variables
aleatorias X e Y.
Definicin : Se llama coeficiente de correlacin lineal al cuociente :

xy =

Cxy
V(X) V(Y)

Se puede observar que xy esta ntimamente relacionado con la covarianza, sin embargo xy es un
numero sin dimensin.
Propiedades de xy :

Propiedad 1 : Si X e Y son independientes, entonces :


xy = 0

Propiedad 2 : Se tiene la desigualdad siguiente :


-1 xy 1

Propiedad 3 :

Si xy = 1, entonces Y = *X + con > 0


Si xy = -1, entonces Y = - *X + con > 0
y

xy = 1

xy = -1
Fig.29

En la figura 30 se pueden observar distintas situaciones y el xy asociado :

32

Fig.30

33

V.

MODELOS PROBABILISTICOS.

Estudiaremos a continuacin una serie de modelos de variables aleatorias unidimensionales :


binomiales, Poisson, exponencial, Gauss, etc.,....
Comenzaremos por el estudio de los modelos de variables aleatorias discretas :
A.

Modelos de variables aleatorias discretas.

A.1.

Variable aleatoria de Bernulli.

La variable aleatoria de Bernulli es una de las mas simples. Por definicin X es una variable de
Bernulli ( X sigue la ley de Bernulli ) si X toma solamente dos valores a y b, con probabilidades
p
1-p

Fig.31

respectivamente 1 p y p ( 0 p 1 ) :
Se puede probar que :

E(X) = a (1 p) + b p
V(X) = (b a) 2 p (1 p)

Ejemplo : se tira una moneda y sea X = 0 si sale cara, X = 1 si sale sello :


1/2

1/2

Fig.32

A.2.

Variable aleatoria geomtrica.

El experimento que conduce a una variable aleatoria geomtrica es el siguiente :


Supongamos un experimento que se repite de manera independiente un numero indefinido de
veces. En cada repeticin solo caben dos alternativas :
i)

Ocurre un suceso A con probabilidad p.

ii)

Ocurre un suceso con probabilidad 1 p.

El experimento se detiene cuando ocurre por primera vez el suceso A. Sea X = numero de
repeticiones necesarias .
El conjunto de resultados posibles es :
= { A , BA , BBA , BBBA ,...... }

X=1

X=2

X=3

34

X = 4 ,....

Las probabilidades asociadas son :


P( X = 1 ) = P( A ) = p
P( X = 2 ) = P( BA ) = P( B ) * P( A ) = (1 p)*p ( por la independencia )
P( X = 3 ) = P( BBA ) = P( B ) * P( B ) * P( A ) = (1 p)2*p.

P(X = k) = (1 p) k 1 p

Fig.33
p(1 p)
2

p(1 p)

Se puede demostrar que :


1
p

E(X)

V(X) =

1 p
2
p

Ejemplo : se tira una moneda hasta que aparezca por primera vez cara. Entonces X = numero
de lanzamientos necesarios sigue una ley geomtrica con parmetros p = . En particular
E( X ) = 2.
1/2

1/4
1/8
1/16
1

1/32
5

Fig.34
A.3

La variable aleatoria Binomial.

El experimento que conduce a una variable binomial es el siguiente :


Supongamos un experimento que se repite de manera independiente n veces. En cada repeticin
solo caben dos alternativas :
i)
ii)

Ocurre un suceso A con probabilidad p


Ocurre un suceso B con probabilidad 1- p

35

El espacio muestral asociado al experimento es :


= { BB...B, ABB...B, BAB...B,....,....,....,AAA...A }
n

X=0 X=1 X=1

X=n

Sea X = numero de veces que aparece A en las n repeticiones .


Para deducir una formula general estudiemos los casos n = 1, 2, 3 :
n = 1

i)

= { B, A }
X=0

P( X = 0 ) = 1 p

X=1

Los trminos corresponden al desarrollo de [ (1 p) + p ]1

P( X = 1) = p
n = 2

ii)

= { BB, AB, BA, AA }


X=0

X=1

X=2

P( X = 0 ) = P( BB ) = P(B)*P(B) = (1 - p)2
P( X = 1 ) = P( AB, BA ) = P(AB)*P(BA) = 2p*(1 - p)
P( X = 2 ) = P( AA ) = p2
n = 3

iii)

= { BBB, ABB, BAB, BBA, AAB, ABA, BAA, AAA }


X=0

P( X
P( X
P( X
P( X
iii)

=
=
=
=

0)
1)
2)
3)

=
=
=
=

Los trminos corresponden al


desarrollo de [(1 p) + p]2

(1 p)3
3p(1 p)2
3p2(1 p)
p3

X=1

X=2

X=3

Los trminos corresponden al


desarrollo de [(1 p) + p]3

Para un valor de n ms general, se tiene la formula siguiente, deducida del teorema del
binomio :

n
p k (1 p) n k
P(X
k)
=
=
=
Pk

k

k = 0, 1, ...., n

en particular : P0 = P( X = 0 ) = (1 p)n
Pn = P( X = n ) = pn
Se puede probar que si X sigue una ley binomial con parmetros n y p, entonces :

36

E(X) = n p
V(X) = n p (1 p)
Ejemplo : Sea una familia de n = 4 hijos, entonces X = numero de hijos varones es una
variable binomial de parmetros n = 4 , p = 0.5. Adems : P( X = 4) = (0.5)4 = 1 / 16
La esperanza matemtica de X es : E(X) = n*p = 4*1/2 = 2, resultado que corresponde a la
intuicin.


n
En la formula P k = P(X = k) = p k (1 p) n k , el valor de se calcula por :
n

n!
n =

k k!(n k)!
con :

k! = 1 2 3 ..... k

0! = 1 ( por definicin )

Ejemplo : Se sabe que la probabilidad de que un camin este averiado a la entrada de un turno es
p = 0.1. Si la empresa dispone de 30 camiones cual es la probabilidad de que haya exactamente
5 camiones averiados ?
Sea X = numero de camiones averiados
30
P( X = 5) = (0.1)5 (0.9) 25 = 0.102
5

( Observar que E(X) = n*p = 3 )


A.4.

La variable aleatoria de Poisson.

Es frecuente encontrar en la practica situaciones en que se aplica la Ley Binomial con p muy
pequeo y n muy grande. Por ejemplo, se ha determinado que la probabilidad de que aparezca
una pieza defectuosa es p = 0.01 y se renen las piezas en cajas de 200 piezas, la probabilidad de
que en la caja existan r piezas defectuosas es :
200
P(X = r) = (0.01) r (0.99) 200 r
r

Este valor se puede calcular de manera exacta o bien se puede calcular de manera aproximada
utilizando el siguiente teorema :

k e
n
lim p k (1 p) n k =
n
k!
k
np=

37

El limite anterior significa que n tiende a infinito manteniendo constante e igual a el producto
n*p ( esto implica que p debe ser pequeo ). Se tiene entonces :

Pk = P(X = k ) =

k e

k = 0, 1, 2,.....

k!

Estas probabilidades Pk, limites de las probabilidades binomiales cuando n y n*p = =


constante, constituyen la llamada Ley de Poisson.
P2
P1
P0

Fig.35

Lo anterior significa que la Ley de Poisson aproxima bien a la binomial cuando n es grande y p
pequeo; se considera que la aproximacin es buena si p < 0.1 y si n*p < 5.
Ejemplo : en el caso anterior de las piezas defectuosas :
200
P(X = 3) = (0.01) 3 (0.99)197 = 0.1813
3

utilizando Poisson, con = n p = 200 0.01 = 2 :

P(X = 3)

2 3 e 2
= 0.1805
3!

Esperanza matemtica y varianza :


Se puede demostrar que la esperanza matemtica y la varianza de la Ley de Poisson estn dadas
por :
E( X ) =
V( X ) =
A.5.

La Ley Hipergeometrica.

El experimento que conduce a la ley hipergeometrica es el siguiente :


Sea un lote de N piezas, de las cuales D = p*N son defectuosas (luego N D = N p*N =N(1- p)
son aceptables) Se sacan al azar, una a una y sin devolver al lote, n piezas :

38

p*N defectuosas
N p*N
no defectuosas

Muestreo
sin reemplazamiento

(nN)

n piezas

N piezas

Fig.36

Sea X = numero de piezas defectuosas en la muestra de n piezas .


Los valores que toma X son los que define la desigualdad :
Mximo entre 0 y D N + n x Mnimo entre n y D
Se puede demostrar que :

a)

D N D

P(X = k) = k n k
N


n

b)

E(X) = n p

c)

V(X) =

n p(1 p) (N n)
N 1

Ejemplo : en un estanque hay 20 peces de los cuales 8 son coloreados. Se pescan 10 peces,
calcular la probabilidad de que existan 5 peces coloreados.
Solucin : N = 20 ; n = 10 ; D = 8 ; p = 0.8 ; X = numero de peces coloreados

8 20 8
8 12


5
10
5
= 5 5 = 0.24

P(X = 5) =
20

20


10

10
( En este caso E(X) = n*p = 10 * 0.4 = 4 )
B.

Modelos de variables aleatorias continuas.

B.1.

La variable Aleatoria Uniforme.

Sea X una variable aleatoria continua. Se dice que X sigue una ley uniforme si su densidad f(x)
esta dada por :

39

f(x) =

1
ba

si x [a , b]

si x [a , b]

Fig.37

f(x)

1
ba

a
E(x)

Ejemplo : Sea X el ngulo que forma un lpiz arrojado al azar con una recta fija ( ver pagina 19 )
entonces X sigue una ley uniforme en el intervalo [0 , 2].
Se puede demostrar que si X sigue una ley uniforme :

b+a
2
2
(
b a)
V(X) =
12
E(X) =

B.2.

La Ley Exponencial con parmetros ( > 0 ).

Se dice que X sigue una ley exponencial con parmetros si su densidad esta dada por :

e x

si x > 0

si x 0

f(x) =

f(x)

Fig.38

Se puede demostrar que :

E(X) =
V(X ) =

40

B.3.

La variable aleatoria Gamma.

Se define en Matemticas la funcin gamma ( p ) como la integral :

( p) = e x x p 1dx
0

la cual presenta la propiedad, siendo p un entero > 0 :

( p ) = ( p 1 )!
Se dice que una variable aleatoria X sigue una ley Gamma con parmetros a y p si su densidad es
:

f(x) =

a p e ax y p 1
( p )

si x > 0

si x 0

0
( p > 0 , a > 0 ).

Grfico de f(x) para p > 2


Fig.39

Se puede demostrar que :

41

p
a
p
V(X) = 2
a
E(X) =

B.4.

La variable aleatoria Beta.

Se define en Matemticas la funcin Beta B(p,q) como :


1

B(p, q) =

( p) ( q )
= x p1 (1 x) q 1 dx
(p + q )
0

Se dice que una variable aleatoria X sigue una ley Beta con parmetros p y q si su densidad es :

f(x) =

x p1 (1 x) q 1
B(p, q)

si 0 < x < 1
si x 0 x 1

0
(p>0 , q>0)
Se puede demostrar que :

E(X) =

V(X) =
B.5.

p
p+q

p
(p + q) (p + q + 1)
2

La variable aleatoria normal o gaussiana.

Definicin: se da el nombre de variable aleatoria normal ( o gaussiana ) a toda variable definida


en el eje ( - , + ) y que tiene la densidad :

f(x ) =

1 x m

Se puede demostrar que :


E(X) = m
V(X) = 2
El parmetro m no influye en la forma de la curva f(x), su variacin conduce a un desplazamiento
de la curva a lo largo del eje x. En cambio, al variar se altera la forma de la curva ; en efecto, es
fcil de ver que el mximo de f(x) es igual a :

, en el punto x = m

2
42

o sea que si disminuye , aumenta el mximo de f(x) :

= 0.5
Fig.40
= 1.0

Conviene recordar las siguientes reas bajo la curva de la ley de Gauss ( Fig.41 ) :
95 %

68 %

m-

m+

m - 2

m + 2

99.7 %

m + 3

m -3
Fig.41

En smbolos, si X sigue una ley de Gauss, con parmetros m y :


P( m- X m+ ) = 0,68
P( m-2 X m+2 ) = 0,95
P( m-3 X m+3 ) = 0,997
Las variables aleatorias normales aparecen con gran frecuencia en Estadstica. Por ejemplo los
errores de mediciones siguen como regla una variable aleatoria normal.
Un mtodo mecnico para generar una variable aleatoria gaussiana consiste en la maquina de
Galton, compuesta por un conjunto de bolillas que son desviadas en su trayectoria por una serie
de clavos, depositndose en los recipientes inferiores ( Fig.42 )

43

Fig.42
B.6.

La variable aleatoria Lognormal.

Definicin : Se dice que una variable aleatoria X sigue una Ley Lognormal si su logaritmo
(neperiano, en base e) sigue una ley normal. A partir de esta definicin se puede demostrar que la
funcin de densidad tiene por expresin :
1 lnx m 2


1
e 2
f(x ) =
x 2

si x > 0

f(x ) = 0

si x 0

44

f(x)

Fig.43

x
0

La ley lognormal se presenta con frecuencia en el estudio de histogramas asociados con leyes de
muestras provenientes de yacimientos mineros.
Se puede demostrar que :
M = E ( X ) = e m +

2 = V ( X ) = M 2 e 1

45

VI.

LA LEY DE LOS GRANDES NUMEROS Y EL TEOREMA DEL LIMITE


CENTRAL

La ley de Los grandes nmeros y el teorema del limite central constituyen uno de los resultados
ms importantes del calculo de probabilidades.
A)
La ley de Los grandes nmeros.
Sea X1, X2,......, Xn una sucesin de variables aleatorias independientes tales que E(X1) = E(X2) =
.....=E(Xn) = m, entonces cuando n tiende a infinito, se tiene :
X + X 2 + ..... + X n

P 1
= m 1,0
n

o sea que si n es grande, la probabilidad de que el promedio de las variables sea igual a la
esperanza matemtica m es muy prxima a 1,0.
B)
El teorema del limite central.
Este teorema pone de manifiesto la importancia que la ley de Gauss :
Teorema : Sea X1, X2,......, Xn una sucesin de variables aleatorias independientes tales que :
E(Xi) = mi
,
V(Xi) = 2i
Entonces, si n es grande, la variable aleatoria :
Z = X1 + X2 +.....+ Xn
sigue aproximadamente una ley de Gauss con esperanza matemtica E( Z ) = m1 + m2 +.....+ mn
y con varianza V( Z ) = 21 + 22 +.....+ 2n
El grado de aproximacin entre la variable Z y la ley de Gauss depende evidentemente de n y de
la ley de probabilidad de Los Xi. En la figura 43 hemos representado el caso en que todos Los Xi
siguen una ley uniforme en el intervalo [ 0 , 1 ], tambin hemos dibujado la densidad de la ley
normal de igual esperanza y varianza.
n=1
n=1
n=2
n=2
n=3
n=3

Fig.44: Densidades de X1 , X1+X2 y X1+X2+X3

Ejemplo : Supongamos que se tiene una sucesin X1, X2,......, Xn de variables aleatorias
independientes tales que cada Xi sigue la ley de probabilidad siguiente :

46

Es fcil de ver que la variable aleatoria Z = X1 + X2 +.....+ Xn toma los valores 0, 1, 2,....., n con
probabilidades :

n 1 n
p k = P( X = k ) =
2
k

k = 0, 1, 2,..., n

El grfico de pk para n = 10 es :

Fig.45

200
10
2
100
10
2

10

Como puede observarse el Teorema del Limite Central explica porqu en tantas aplicaciones
aparecen distribuciones normales, ya que expresa que la suma de variables aleatorias, en
condiciones muy generales, tienden hacia la ley de Gauss. El ejemplo ms clsico e importante es
el de Los errores de medida, en que, al suponerse que el error total resulta de la suma de un gran
numero de errores, explica que la ley de Gauss aparezca naturalmente para la representacin de
tales errores.
El Teorema del Limite Central explica tambin porqu en la mquina de Galton las bolillas se
depositan segn una ley de Gauss.

47

VII.

LA INFERENCIA ESTADSTICA.

Teora de Muestras
Para utilizar Los modelos probabilstico que hemos presentado en Los captulos anteriores es
necesario entrar en el mundo emprico y hacer algunas mediciones. Por ejemplo, en muchos casos
es apropiado hacer hiptesis acerca de una variable aleatoria X, lo que conduce a un tipo
determinado de distribucin : normal, lognormal, gamma,...Sabemos que cada una de estas leyes
de probabilidad depende de uno o ms parmetros desconocidos, luego debemos obtener algunos
valores experimentales de X y despus utilizar estos valores de alguna manera apropiada para
estimar estos parmetros.
Formalicemos ahora la nocin importante de muestra aleatoria :
Definicin : Sea X una variable aleatoria con una ley de probabilidad. Sean X1, X2,......, Xn , n
variables aleatorias independientes en que cada una de ellas tiene la misma ley de probabilidad
que X. Llamaremos a ( X1, X2,......, Xn ) una muestra aleatoria de tamao n de la variable aleatoria
X.
Observaciones : en trminos intuitivos una muestra aleatoria de tamao n de una variable X
corresponde a n mediciones repetidas de X, hechas bsicamente bajo las mismas condiciones
(para garantizar la independencia). Las variables X1, X2,......, Xn son independientes de manera
que el resultado Xi no influya sobre el resultado Xj ( en caso contrario el muestreo de la variable
estara dirigido ).
La muestra aleatoria es un conjunto de variables aleatorias ( X1, X2,......, Xn ) y no es un conjunto
de nmeros o datos. En otras palabras la muestra aleatoria es un ente terico que se considera
antes de hacer las mediciones para obtener Los datos. Por ejemplo sea Xi = resultado de un dado

( X1, X2,......, Xn )

( 6, 2,...., 5 )
Experimento :
Tirar n veces el dado

Muestra aleatoria
de tamao n

Muestra numrica de
tamao n o realizacin
de la muestra aleatoria

TEORIA
Antes de realizar
las mediciones

PRACTICA
Despus de realizar
las mediciones

48

En general, Los valores numricos tomados por la muestra ( X1, X2,......, Xn ) se denotarn por
(x1, x2,......, xn).
Estadsticos : una vez definidos Los valores x1, x2,......, xn de la muestra, los utilizaremos de
alguna manera para hacer alguna inferencia acerca de la variable aleatoria X. En la prctica se
trata de resumir este conjunto de valores por caractersticas ms simples ( por ejemplo su
promedio aritmtico, valor ms grande, valor ms pequeo, etc...).
Se llama estadstico a una funcin H( X1, X2,......, Xn ) de la muestra aleatoria X1, X2,......, Xn
Observacin : Un estadstico es una funcin de X1, X2,......, Xn , por consiguiente :
Z = H( X1, X2,......, Xn ) es una variable aleatoria que toma el valor z = H(x1, x2,......, xn) una vez
realizado el experimento.
En general conviene estudiar Z y no z dado que este ltimo es un nmero, mientras que Z es una
variable aleatoria que puede tomar muchos valores y tiene en particular una esperanza matemtica
E(Z) y una varianza V(Z).
Como ejemplo de estadsticos tenemos los siguientes :
Experimento
mediciones
X 1 + X 2 + ... + X n
n

a)

X=

b)

S2 = 1
n

x + x 2 + ... + x n
x= 1
n

(X i X )2

s2 = 1
n

i =1

( x x)
i

i =1

c)

K = Mn( X1, X2,......, Xn )

k = Mn( x1, x2,......, xn )

d)

M = Mx( X1, X2,......, Xn )

m = Mx( x1, x2,......, xn )

TEORIA :

PRACTICA :

VARIABLES ALEATORIAS

NUMEROS

49

X se llama promedio muestral, S2 varianza muestral, K valor ms pequeo observado o mnimo,


M valor ms grande o mximo.

50

VIII.

ESTUDIO DE ALGUNOS ESTADISTICOS.

a)

El estadstico X

Se define la media muestral por :


1
X=
n

i =1

Las propiedades ms importantes de X son las siguientes, en este caso de una muestra aleatoria
(X1, X2,...., Xn) tal que E(X1) = E(X2) =....= E(Xn) = m , V(X1) = V(X2) =....= V(Xn) = 2 :
i)

E( X ) = m

ii)

V (X ) =

iv)

Para n grande, la variable Z =

2
n

X m
sigue una ley de Gauss de esperanza 0 y varianza
n

1.
Las relaciones ( i ) y ( ii ) resultan de las propiedades de la esperanza matemtica y de la varianza.
La relacin ( iii ) se deduce por aplicacin directa del teorema del limite central.
El estadstico S2n

b)

Se define la varianza muestral S2n por :


1
S 2n =
n

(X

2
i X)

i =1

Las propiedades ms importantes de S2n son :


i)

E (S 2 n ) =

ii)

1
S 2n =
n

n 1 2

n
n

(X

2
2
i m) ( X m)

i =1

Observacin : La propiedad ( i ) se obtiene al tomar esperanza matemtica en ( ii ). Esta


propiedad expresa que la esperanza matemtica de S2n no es igual a 2 sino que es igual a
n 1
n

. Por esta razn se prefiere utilizar el estadstico S2n-1, definido por :

51

S2

n
1
S 2n =

n 1 =
n 1
n 1

(X

2
i X)

i =1

este estadstico presenta la propiedad : E ( S 2 n 1 ) = 2 . Sin embargo cuando n es grande


n
1 y da lo mismo utilizar S2n S2n-1 .
(n100):
n 1

52

IX.

LA ESTIMACION PUNTUAL.

En este prrafo consideraremos el problema de estimar uno o ms parmetros desconocidos


asociados con una ley de probabilidad de una variable aleatoria X, a partir de una muestra
aleatoria de X.
Supongamos que la ley de probabilidad de X depende del parmetro desconocido . Queremos
utilizar de alguna manera la muestra ( X1, X2,....., Xn ) con el objeto de estimar el valor de .
Por ejemplo, supongamos que queremos estimar la esperanza matemtica m de una variable X. Se
pueden definir muchos estimadores del valor de m desconocido :

i)

1
m =
n

i =1

ii)

m =

1
( X1 + X n )
2

iii)

m =

1
(M + K )
2

iv)

m = X 1 + X 2 + ..... + X n

( M y K son el valor mximo y el mnimo de la muestra )

Observaciones :
a)

Es evidente que al proponer m como estimador del valor verdadero m, no esperamos que
m sea exactamente igual a m. Recordemos que m es una variable aleatoria y por lo tanto
puede tomar muchos valores, luego m tendr una cierta distribucin de probabilidades y
en particular una esperanza y una varianza.

b)

Parece evidente que el estimador ( iv ) es un mal estimador, en el sentido de que siempre


proporciona un valor numrico alejado del valor verdadero m. Por otra parte parece
intuitivo que el estimador ( i ) es mejor que el estimador ( ii ) porque el segundo no utiliza
toda la informacin.

c)

Veamos los valores numricos que toman estos cuatro estimadores en una muestra de
tamao 12 obtenida al tirar un dado no cargado :
( X1, X2,....., X12 )

i).ii).-

(1, 3, 1, 1, 2, 1, 2, 5, 4, 2, 6, 2)

30
= 2,5
12
1
m o = (1 + 2) = 1,5
2
m o =

53

iii).iv).-

1
(6 + 1) = 3,5
2
m o = 30
m o =

En este ejemplo particular, debido a que el valor terico es m = 3,5, el mejor estimador de la
esperanza resulta ser (M + K)/2, pero este resultado podra deberse al azar; sin embargo el lector
puede repetir muchas veces el experimento ( tirar 12 veces un dado ) y comprobar que en
promedio, el estimador que ms se acerca al valor verdadero es m o = (M + K )/2.
El ejemplo anterior de origen a las siguientes e importantes preguntas :

d)

Qu caractersticas queremos que posea un buen estimador ?


Cmo decidimos que un estimador es mejor que otro ?
Dado un parmetro desconocido Cul es el estimador ptimo ?

En adelante trataremos de precisar los conceptos que hemos discutido y resolver estas
interrogantes.
IX.1.

CRITERIOS PARA LOS ESTIMADORES

Definicin: Sea X una variable aleatoria con una distribucin de probabilidades la cual depende
de un parmetro desconocido . Sea (X1, X2,..., Xn) una muestra aleatoria de X y sean (x1, x2,...,
xn) los valores muestrales correspondientes. Llamaremos estimador de a una funcin de la
muestra :
= H(X1, X2,..., Xn)
y llamaremos estimacin de al valor numrico de esta funcin para los valores x1, x2,..., xn , es
decir :
o = H(x1, x2,..., xn)
Segn esta definicin, vemos que un estimador es un estadstico, luego es una variable aleatoria.
Definicin: Sea un estimador de un parmetro desconocido . Entonces diremos que es
insesgado ( o centrado, o sin desviacin sistemtica ) si :
E( ) =
Ejemplo: en el ejemplo de la pagina 55, el estimador de la esperanza matemtica m, definido por :
m = X1 + X2 +....+ Xn
no es insesgado ( se dice que es sesgado ). En efecto :
E( m ) = E(X1) + E(X2) +.....+ E(Xn) = n*m m
En trminos intuitivos, un estimador es insesgado si al repetir un numero N grande de veces el
experimento de obtener los valores ( x1, x2, ...., xn ), el promedio de las estimaciones obtenidas es
muy prximo al valor desconocido .

54

Ley de probabilidad de un
estimador insesgado.

Ley de probabilidad de
un estimador sesgado.

E( 1 ) =

E( 2 ) =

Fig.46
Tenemos entonces un primer criterio para los estimadores : restringirse a estimadores insesgados.
Definicin : Sea * un estimador insesgado del parmetro . Diremos que * es un estimador
insesgado de varianza mnima si para cualquier otro estimador insesgado , se tiene :
V( * ) V( )
es decir, entre todos los estimadores insesgados, * es aquel que tiene varianza mnima.

E( * ) = E( ) =

V( * ) < V( )

valores de *
valores que toma

Fig.47
Observacin : Sabemos que la varianza de una variable aleatoria mide su variabilidad respecto a
su valor esperado. Por lo tanto es intuitivamente atractivo exigir que un estimador insesgado
tenga varianza pequea porque de esta manera la variable aleatoria tiende a aproximarse a su
valor esperado . Luego si * y son dos estimadores insesgados con funciones de densidad
como la figura 47, preferimos * a porque V( * ) < V( ).

55

V( 1 ) < V( 2 )

Fig.48
La decisin no seria tan evidente en el caso de la figura 48 en que 2 es insesgado mientras que
1 no lo es. En este caso se preferira 1 porque a pesar de ser sesgado, sus valores seran ms
prximos a que los valores que proporciona 2 .
Estimadores Convergentes
Otro criterio para definir estimadores se basa en la siguiente definicin :
Definicin : Un estimador insesgado es convergente si se cumple, cuando n :
P( = ) 1
esta definicin establece que un estimador es convergente si al aumentar el tamao n de la
muestra, converge en sentido probabilstico hacia .
Se puede demostrar que un estimador es convergente si :
LimV () = 0
n
Ejemplo :
a)

1
La media muestral m 1 =
n

i es un estimador convergente de la esperanza

i =1
2
, valor que tiende hacia 0 cuando n .
matemtica m, porque V(m 1 ) =
n

b)

b)

El estimador m 2 =

V(m 2 ) =

2
2

( X1 + X n )
no es un estimador convergente de m, porque
2

, valor que no tiende hacia 0 cuando n .

56

IX.2

METODOS PARA CONSTRUIR ESTIMADORES

Hasta ahora solo hemos considerado criterios con los cuales podemos juzgar un estimador; es
decir dado un estimador podemos verificar si es insesgado, convergente, calcular su varianza y
comparar con otros estimadores. Sin embargo no disponemos de un mtodo que proporcione
estimadores. Existen varios procedimientos para obtener estimadores, uno de ellos es el mtodo
de los momentos que consiste en estimar el parmetro desconocido por el momento muestral
asociado.
Ejemplo:
i)

Esperanza matemtica :
1
m =
n

m = E(X)
ii)

i =1

Varianza :
1
2 =
n

= V(X)
iii)

(X

2
i X)

i =1

Momento de orden k :
1
k =
n

k = E(X )

i =1

Se puede demostrar que el mtodo de los momentos proporciona estimadores convergentes que
no siempre son insesgado y que no siempre son ptimos.
Uno de los mtodos ms utilizados en Estadstica es el mtodo de la mxima verosimilitud el cual
proporciona, bajo condiciones generales, estimadores ptimos.
El mtodo de la mxima verosimilitud.
Antes de explicar este mtodo estudiaremos un ejemplo introductorio :
Ejemplo :
En una urna hay 4 fichas que pueden ser blancas o negras pero se desconoce la proporcin : no se
conoce el parmetro p = ( nmero de fichas blancas )/4. Supongamos que hacemos dos
extracciones con devolucin y que obtenemos la primera blanca y la segunda negra. Con estos
datos estimar el valor de p.
Sea A el suceso que ocurri : A = La primera es blanca y la segunda es negra . La probabilidad
de A vara con p. El cuadro siguiente resume las diferentes alternativas :
Proporcin p

p = 0
0 B
4 N

Probabilidad
del suceso que
ocurri : P(A)

p =
1 B
3 N
*=
3/16

p =
2 B
2 N
2/4 * 2/4 =
4/16

57

p =
3 B
1 N
*=
3/16

p = 1
4 B
0 N
0

1
porque este valor maximiza la probabilidad del suceso que
2
ocurri, esto equivale a admitir que lo que ocurri era lo ms probable. En el caso general
supongamos una muestra aleatoria ( X1, X2,..., Xn ) la cual una vez realizado el experimento toma
el valor ( x1, x2,..., xn ). La probabilidad del suceso que ocurri es ( suponiendo que la variable es
discreta ) :
= P( X1 = x1, X2 = x2,...., Xn = xn )
= p(x1) * p(x2) *....*p(xn)
Estimaremos el valor de p por p o =

en que p(xi) = P( Xi = xi ).
Tendremos as la definicin siguiente :
Definicin : Se llama estimador de mxima verosimilitud a aquel valor que mximiza la
funcin siguiente, llamada funcin de verosimilitud.

p(x1) * p(x2) *....*p(xn) si Xi es discreta


f(x1) * f(x2) *....*f(xn) si Xi es continua

en trminos matemticos, se toma como estimacin de la solucin de la ecuacin

= 0 , sin

embargo resulta ms simple ( lo cual es equivalente ) de resolver la ecuacin :


Ln(

Ejemplo 1 : En la ley de Poisson : p ( x) =

=
Ln

x1 e x 2 e

x e

.....

x!

)=0
estimar el parmetro :

x
n e

x1!
x2 !
xn !
= n + ( xi )Ln Ln( x1!x 2 !.... x n !)

Ln(

) = n + xi

=0

e n xi
x1! x 2 !.... x n !

1
o =
n

i =1

x
Ejemplo 2 : En la ley exponencial : f ( x) = e
estimar el parmetro :

= e x1 e x 2 .... e x n = n e
Ln

= n Ln xi

Ln

58

xi

xi = 0

= X

o =

n
n
xi
i =1

1
X

Propiedades de los estimadores de mxima verosimilitud.

Propiedad 1 : Los estimadores de mxima verosimilitud son convergentes.

Propiedad 2 : Los estimadores de mxima verosimilitud en el caso de ser insesgado son los
mejores estimadores posibles del parmetro .

Propiedad 3 : Si es un estimador de mxima verosimilitud de , entonces si n es grande, la


ley de probabilidad de es aproximadamente gaussiana con esperanza y varianza V( ).

Propiedad 4 : Si es un estimador de mxima verosimilitud de , entonces g( ) es el


estimador de mxima verosimilitud de g().

Ejemplos de estimadores mximo verosmiles


Los ejemplos que se dan a continuacin corresponden a los modelos de variables aleatorias
estudiados anteriormente ( ver pginas 38 51 )
a.-

Variable aleatoria de Bernulli :


p = x

b.-

Variable aleatoria geomtrica :


p = 1
x

c.-

Variable aleatoria binomial con parmetros N y p :


N
p k = p k (1 p ) N k
p = x

N

k
Variable aleatoria de Poisson :
= x

d.-

e.-

Variable aleatoria uniforme en [a , b] :


a = Mn( X 1 , X 2 ,...., X n )

b = Mx( X 1 , X 2 ,...., X n )

sin embargo estos estimadores son sesgados. Conviene utilizar los estimadores insesgados
siguientes :
a `=

n
a
n +1

n +1
b`=
b
n

59

f.-

Ley exponencial con parmetro :


= 1 x

Ley de Gauss con parmetros m y :


n
1
2
m = x
,
=
( xi x ) 2
n
i =1
2
sin embargo es sesgado; si n es pequeo conviene utilizar :
g.-

12 =

n 1

(x x)
i

2 , que es insesgado.

i =1

Ley lognormal con parmetros m y :


n
n
1
1
2
m =
(ln X i m ) 2
ln X i
, =
n
n
i =1
i =1
n
1
2
2
y un estimador insesgado para es .
1 =

(ln X i m ) 2
n 1
i =1
h.-

60

X.

ESTIMACIN POR INTERVALOS DE CONFIANZA.

Hasta ahora nos hemos ocupado de la estimacin puntual de un parmetro desconocido , es decir
la obtencin de un valor o que estime de manera razonable el valor desconocido a partir de un
conjunto de valores ( x1, x2,....,xn ). Somos conscientes de que en realidad o es una
aproximacin y aparece la pregunta siguiente : en qu medida el valor aproximado puede
desviarse del valor verdadero ?.
En particular nos preguntamos si es posible encontrar una magnitud d tal que se pueda afirmar
con certeza ( es decir con una probabilidad cercana a la unidad ) que se verifica la desigualdad
:
d

o - d o + d
o - d

o + d

Fig.49
Es decir la estimacin se acompaa de un intervalo [ o - d , o + d ] junto a una medida de la
probabilidad de que el parmetro verdadero sea interior a dicho intervalo. Precisemos estas
ideas con un ejemplo intuitivo :
Ejemplo :Supongamos que nos preguntan la edad E de una persona. Primero hacemos una
estimacin puntual, por ejemplo E o = 32 aos y luego hacemos afirmaciones del tipo :
a)
b)
c)

Creo que E verifica


:
Estoy seguro que
:
Estoy casi seguro que :
Confianza o
Seguridad

31 E 33
27 E 37
22 E 42

d=1
d=5
d = 10

Intervalo

Error

Cada afirmacin tiene una medida de la seguridad de que E est comprendido en el intervalo.
Al escribir 27 E 37 ( E = 32 5 ) con seguridad 1- diremos que E o = 32 es el valor
estimado de E y que d = 5 es el error asociado al nivel de seguridad 1-. Para que nuestra
afirmacin sea buena, 1- debe ser grande ( prximo a 1 ), sin embargo, a medida que 1- crece,
la magnitud del error ( d ) crece.
Los estadsticos han convenido en aceptar una probabilidad de confianza de 1- = 0.95.
A.

Intervalo de confianza para la esperanza matemtica m de una ley de Gauss con


conocido

Sea X1, X2,...., Xn una muestra aleatoria de una variable X que sigue una ley normal de esperanza
m desconocida y varianza 2 conocida.

61

Se puede probar que la variable aleatoria :

Z=

Ley de Z

0.95

Xm
Fig.50

-2

sigue una ley de Gauss con esperanza 0 y varianza 1.

Por propiedad de la ley de Gauss ( ver pgina 46 ) se tiene :

P( 2 Z 2) = 0.95*
P( 2

Xm

2) = 0.95

mediante una transformacin algebraica, llegamos a :

P(X

2
2
mX+
) = 0.95
n
n

La ultima relacin nos dice que la probabilidad de que el intervalo X 2

n , X + 2

contenga el valor desconocido m es 0.95. A tal probabilidad la llamaremos probabilidad de


confianza del intervalo.
Otros intervalos de confianza, para otros niveles son :

X n , X + n

X 1.64 n , X + 1.64

X 3 n , X + 3 n

Intervalo del 68 % de confianza

Intervalo del 90 % de confianza


Intervalo del 99.7 % de confianza

Ejemplo : Se tiene una muestra aleatoria ( X1, X2, X3, X4 ) proveniente de una ley de Gauss con
m=0 ( que se supone desconocido ) y 2=1 ( que se supone conocido ). Los valores numricos
resultantes fueron : ( 0.9, -0.6, -0.4, 0.9 ). Encontrar el intervalo del 68 % de confianza y el del 95
% de confianza.

n , X +


0.2 1 4 , 0.2 + 1 4 = 0.3 , 0.7

= Intervalo del 68 % de confianza.

* Observacin : En forma ms exacta, esta ecuacin se escribe :P( -1.96 Z 1.96 ) = 0.95

62


X 2

n , X + 2


0.2 2 4 , 0.2 + 2 4 = 0.8 , 1.2

= Intervalo del 95 % de confianza.

Repitamos unas veces ms el experimento ( generacin numrica de X1, X2, X3, X4 ) y


obtengamos los intervalos asociados :
MUESTRA

INTERVALO
1- = 0.68

INTERVALO
1- = 0.95

( -1.0, -0.4, -0.8, 0.1 )


( 0.3, 0.9, -1.0, 1.4 )
( 0.6, 0.8, 0.8, 1.7 )
( -0.1, 0.0, 2.5, -0.9 )

[ -1.02 , -0.02 ]
[ -0.10 , 0.90 ]
[ 0.47 , 1.47 ]
[ -0.12 , 0.87 ]

[ -1.52 , 0.47 ]
[ -0.60 , 1.40 ]
[ -0.02 , 1.97 ]
[ -0.62 , 1.37 ]

I1
I2
I3
I4

Representemos en un grfico los intervalos obtenidos en las cuatro repeticiones del experimento :
Valor desconocido

-2

-1

68 %

I1
95 %

I2
I3
I4
Fig.51
En trminos frecuenciales, si se repite el experimento 100 veces, se debera obtener que 95
intervalos ( del 95 % de confianza ) contienen el valor desconocido, mientras que 5 intervalos no
lo contendran.
El intervalo de confianza que acabamos de estudiar est restringido al conocimiento de la
varianza 2. Sin embargo, en la prctica, este valor tambin es desconocido. Para encontrar el
intervalo de confianza para m en una ley de Gauss con m y ( 2 ) desconocidos, ser
necesario estudiar una nueva ley de probabilidad : La Ley de Student.
B.

La Ley de Student.

Sean X0, X1,...., Xn , n +1 variables aleatorias gaussianas e independientes tales que E(Xi) = 0 ,
V(Xi) = 2 . Se dice que la variable aleatoria :

63

T=

Xo
1 n
2
Xi
n i =1

sigue una Ley de Student con parmetros n ( o con n grados de libertad ). Se demuestra que la
densidad de T es :

n +1
n +1

t2 2
2

1 +
, - < t <
f(t ) =
n
n
n
2
Se obtiene, a partir de esta densidad, que si n > 2 :
E(T) = 0 , V(T) = n/n-2

Gauss

Fig.52
Student

El grfico de f(t) es cercano a la ley de Gauss con parmetros m = 0 , = 1. Si n 120 la ley de


Student coincide con la ley de Gauss.
La ley de Student se encuentra tabulada; en tablas figura el valor t tal que :
P( - t T t ) = 1-
n la pgina siguiente se tiene un extracto de una tabla de la ley de Student para 1- = 0.95.

64

Tabla de la Ley de Student


0.95

P( -t T t ) = 0.95
-t

1- = 0.95
n
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
60
120
n > 120

t
12.706
4.303
3.182
2.776
2.571
2.447
2.365
2.306
2.262
2.228
2.201
2.179
2.160
2.145
2.131
2.120
2.110
2.101
2.093
2.086
2.080
2.074
2.069
2.064
2.060
2.056
2.052
2.048
2.045
2.042
2.021
2.000
1.980
1.960

65

C.

Intervalo de confianza para la esperanza matemtica de una ley de Gauss en que es


desconocido.

En este caso m y son desconocidos. Se demuestra que la variable aleatoria :

Xm

T=

(X
i =1

X)2

Xm

n (n 1)
n

( en que es el estimador : =

(X
i =1

X) 2
, ver pgina 59 )

n 1

sigue una ley de Student con n -1 grados de libertad.


En las tablas de la ley de Student con n -1 grados de libertad encontramos el valor t tal que ( ver
pgina 64 ) :
P( - t T t ) = 0.95
P( - t

Xm
t ) = 0.95

despus de una transformacin en las desigualdades, se tiene :

P X - t
m X + t
= 0.95
n
n

X t n , X + t n

es el intervalo del 95 % de confianza para m.

Ejemplo 1 : La resistencia a la rotura, expresada en kilos, de 5 ejemplares de cuerda son : 280,


240, 270, 285, 270.
Estimar la resistencia media m utilizando un intervalo confidencial del 95 % ( suponiendo ley de
Gauss ).
Solucin : n = 5 de las tablas de la ley de Student con 4 grados de libertad encontramos t =
2.776 ( pgina 64 ).
x=

280 + 240 + 270 + 285 + 270


= 269
5
(280 269) 2 + (240 269) 2 + (270 269) 2 + (285 269) 2 + (270 269) 2
= 17.64
4

66


2.776 17.64
2.776 17.64

El intervalo es 269
, 269 +

5
5

21.9

es decir [ 247.1 , 290.9 ]

21.9

290.9
247.1
269
A veces se escribe lo anterior como : m = 269 21.9
( con 95 % de confianza ), con un error relativo : = 100*21.9/269 = 8.1 %
Ejemplo 2 : Dos examinadores A y B efectuaron una correccin doble sobre 30 pruebas. Las
notas figuran en la tabla siguiente :
A
13
15
12
16
18
15
14
18
17
20

B
14
16
13
16
17
15
15
17
16
17

A
15
16
15
17
16
13
15
11
14
15

B
17
17
15
18
16
14
16
12
14
18

A
17
15
16
18
14
16
15
17
14
15

B
16
15
18
20
15
15
15
19
16
16

Encontrar el intervalo de confianza para la esperanza matemtica de la variable Z = Nota de A Nota de B, usando 1 - = 0.95.
Solucin : A partir de los datos encontramos los valores numricos de Z : (-1, -1, -1, 0, 1, ....., -1)
= ( z1, z2,....., z30 ).

z = 0.53 ; 2 =

1 30
( z i z ) 2 = 1.57 : = 1.253
29 i =1

De las tablas de la ley de Student con n - 1 = 29 grados de libertad encontramos t = 2.045, luego
el intervalo de confianza para m = E(Z) es :

1.25
1.25
0.53 2.045
= 1.00 , 0.06
, 0.53 + 2.045
30
30

0.47
-1.0

0.47
-0.53

-0.06

Debido a que el valor 0 no pertenece al intervalo de confianza, podemos afirmar que el


examinador A es ms severo que el examinador B.
Ejemplo 3 : La tabla siguiente muestra los resultados de anlisis de oro ( en gr/ton ) para 10
muestras enviadas a dos laboratorios qumicos diferentes :

67

Laboratorio
CIMM
Laboratorio
Bondar
Diferencia
Z

6.5

5.6

6.6

6.1

5.8

6.0

6.1

6.3

6.1

6.6

5.4

5.8

5.4

5.8

5.7

5.4

5.7

6.0

5.3

6.0

1.1

-0.2

1.2

0.3

0.1

0.6

0.4

0.3

0.8

0.6

Encontrar si estas diferencias son significativas.


Solucin : Se tiene :
es :

z = 0.52 , 2 = 0.188 , = 0.434

, t = 2.262 y el intervalo

0.434
0.434
0.52 2.262
= 0.21 , 0.83
, 0.52 + 2.262
10
10

0.31
0.21

0.31
0.52

0.83

Debido a que el valor 0 no pertenece al intervalo, podemos concluir que el laboratorio CIMM
proporciona leyes significativamente ms altas que las que proporciona el laboratorio Bondar.
Para encontrar el intervalo de confianza para la varianza 2 de una ley de Gauss, es necesario
introducir otra ley de probabilidad.
D.

La ley de Chi-cuadrado.

Sea X1, X2,....,Xn una sucesin de variables aleatorias independientes tales que cada Xi sigue una
ley de Gauss con esperanza E(Xi) = 0 y varianza V(Xi) = 1. Se dice que una variable aleatoria :
Z = X12 + X22 +.....+ Xn2 sigue una ley de chi-cuadrado con parmetro n ( o con n grados de
libertad ).
Los mtodos de calculo de probabilidad permiten demostrar que Z tiene la densidad siguiente :

e z 2
n
2 n 2
2
z

(1)

f(z) =

n
1
2

si z > 0

si z 0

68

n=1
n=2

Grfico de

n=4

n=3

f(z)
n=5

Fig.53

Utilizando (1) se obtiene :

E(Z) = n

, V(Z) = 2n

Las reas bajo la curva f(z) se encuentran tabuladas. A veces se utiliza la notacin 2n para indicar
la ley de chi-cuadrado con parmetro n.
D.

Intervalo de confianza para la varianza 2 de una ley de Gauss

Para encontrar el intervalo de confianza para 2 se utiliza el resultado siguiente :

n
2
( X i X)
sigue una ley de Chi-cuadrado con parmetro n 1 (
La variable aleatoria T = i = 1
2
o con n 1 grados de libertad ).
Para encontrar el intervalo del 95 %
de confianza para 2 determinamos
dos nmeros a y b en la ley 2n-1 tales
que :
P( a T b ) = 0.95

P(a

2
(X i X)

0.025
0.025

0.95

(fig.54)
0

Fig.54

b) = 0.95

despus de una transformacin simple se llega al intervalo del 95 % de confianza para 2 :


2
(X i X) 2
(X i X)
= 0.95
P
2
b
a

y el intervalo del 95 % de confianza para es :

(X i X) 2
P

69

2
(X i X)
a

= 0.95

Ley de 2n
Valores de a y b para el intervalo
de confianza para 2

0.025

0.025

0 95

a
n
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16

b
a
0.0506
0.216
0.484
0.831
1.237
1.690
2.180
2.700
3.247
3.816
4.404
5.009
5.629
6.262
6.908

b
7.3778
9.348
11.143
12.832
14.449
16.013
17.535
19.023
20.483
21.920
23.337
24.736
26.119
27.488
28.845

La tabla adjunta proporciona los valores de a y b.


Ejemplo :Los valores siguientes provienen de una ley de Gauss. Encontrar el intervalo del 95 %
de confianza para 2 :
M = ( 0.25, -0.74, 0.05, 1.13, 1.06, -0.86, -0.22, -1.12, 0.72, 0.95 )

x = 0.122 ,

10

(x
i =1

x ) 2 = 6.327 , n = 10 , =

6.327
= 0.703
9

En la tabla anterior, con n 1 = 9 encontramos : a = 2.70 , b = 19.02, el intervalo es :


[ 6.327/19.02 , 6.327/2.70 ] = [ 0.33 , 2.34 ]
0.33

2.34

Hasta ahora todos los intervalo de confianza que hemos estudiado corresponden a parmetros de
una ley de Gauss. En el caso de una variable no gaussiana, la solucin es aproximada tal como
veremos a continuacin.

70

E.

Intervalo de confianza para la esperanza matemtica de una variable aleatoria no


necesariamente gaussiana.

Segn el teorema del lmite central, deducimos que la variable aleatoria Z :

Z=

Xm
n

Sigue una ley de Gauss con esperanza 0 y varianza 1 cuando n . Entonces cuando n es
grande, podemos afirmar que ( ver pgina 61 )

P X - 2
m X + 2
0.95
n
n

(1)

La diferencia con los casos anteriores es que los intervalos de confianza eran exactos mientras
que en (1) se tiene una igualdad aproximada.
a)

Si es conocido y si la ley de X no es demasiado asimtrica, se puede aplicar (1)


cuando n 30.

b)

Si es desconocido, se estima su valor por =

( X X ) 2 ( n 1) y se

i
i = 1

puede aplicar (1) cuando n 100.


F.

Intervalo de confianza para parmetros estimados por el mtodo de mxima


verosimilitud.

Sea el estimador de mxima verosimilitud de entonces cuando n es grande, la variable


aleatoria :

Z=


V()

Sigue una ley de Gauss con esperanza 0 y varianza 1, luego :


P( 2 V() + 2 V () ) 0.95
Aproximacin vlida cuando n 100. Cuando V() depende de parmetros desconocidos se
() .
utiliza V
Ejemplo : En la variable aleatoria de Bernulli, estimar el parmetro p mediante un intervalo del
95% de confianza.
Sea X una variable de Bernulli,
Entonces E(X) = p , V(X) = p(1 p)
El estimador mximo verosmil de p es :
p = X ( ver pgina 62 ) el cual verifica : E( p) = p ,

V(p) =

p(1 p)
(p) = p(1 p) = x(1 x)
V
n
n
n
71

1-p
0

, luego el intervalo es :


x(1 - x)
x(1 - x)
0.95
p x + 2
P x - 2
n
n

Ejemplo numrico : en la propaganda televisiva se entrevistaron n = 1000 personas y 501


personas prefirieron Pepsi.
Entonces

p = x =

501
= 0.501 ; el intervalo es :
1000

0.501 0.499
0.501 0.499
0.501 2
= [0.469,0.533]
, 0.501 + 2
1000
1000

0.469

0.533

O sea que la probabilidad p = probabilidad de que una persona prefiera Pepsi bien podra ser
inferior a 0.5 !

72

XI.

TEST DE HIPTESIS ESTADSTICAS.

Ejemplos introductorios de hiptesis estadsticas


a)
b)

Una fbrica de ampolletas elctricas debe decidir cul de dos mtodos A B da una
vida mayor a las lmparas.
Las estadsticas de la Polla chilena desde 1934 a la fecha dan los resultados siguientes
para las terminaciones ( n = 820 sorteos ) :

97
87

Fig.55

83

84

71

78

80

80

88
72

0 sali 71 veces
1 sali 87 veces
9 sali 88 veces
9

Se puede afirmar que estos nmeros son equiprobables ?


El estadstico aborda este tipo de problemas de la manera siguiente :
Considera una hiptesis Ho ( en el ltimo ejemplo : H0 = los nmeros son
a)
equiprobables ) y una hiptesis alternativa H1 ( en el ejemplo : H1 = los nmeros no son
equiprobables ).
b)

Se aplica un cierto nmero de experimentos ( en el ejemplo : obtencin de 819 datos ) y


se define un cierto suceso S1 del cual sabemos que si H0 es cierta, S1 tiene una
probabilidad muy pequea ( por ejemplo 0.05 ).
S1

P(S1) = = nivel de significacin

Entonces si al aplicar el conjunto de experimentos se produce el suceso S1 rechazamos H0 y en


consecuencia aceptamos H1. En caso contrario aceptamos H0.

Justificacin de la regla
Debemos conclur una de las dos alternativas siguientes :
i)
O bien la hiptesis H0 es cierta y se ha producido un suceso S1 de probabilidad
muy pequea ( 0.05 ).
ii)
O bien la hiptesis es falsa y debemos rechazarla.
Parece natural no admitir lo primero, luego se admite lo segundo y se rechaza la hiptesis.
Ejemplo : Un fabricante asegura que sus ampolletas tienen una vida media mo = 2400 horas. Se
supone que es conocido y vale = 300 horas y que la duracin de una ampolleta es gaussiana.
Se toma una muestra de n = 200 ampolletas y esta muestra ha dado x = 2320 horas.
Se puede considerar este resultado compatible con la hiptesis que la vida de las lmparas tenga
un valor medio mo = 2400 horas ?
i)

Se fija un nivel de significacin = 0.05.

73

ii)
pgina 61 ) :

Se supone que H0 : m = mo = 2400 es verdadera, luego se cumple la relacin (ver

P X 2
mo X + 2
= 0.95
n
n

la cual es equivalente a :

P m o 2
X mo + 2
= 0.95
n
n

Utilizando los datos mo = 2400 , = 300 , n = 100, se tiene :

P( 2340 X 2460) = 095


Pero result x = 2320 , por consiguiente se rechaza la hiptesis.
Ley de X cuando H0 es verdadera
0.95

2340
Zona de rechazo

2400
Zona de
aceptacin

2460
Zona de rechazo

Fig.56

Estudiemos el problema desde el punto de vista de los intervalos de confianza : el intervalo del 95
% para el valor m desconocido es :

2
2

,
X
X
[2320 60,2320 + 60] = [2260,2380]

n
n

2260

2320

2380

y debemos rechazar la hiptesis porque el valor mo = 2400 no pertenece al intervalo.


El test de hiptesis que acabamos de estudiar se puede resumir en la receta siguiente :
Test de hiptesis sobre la esperanza m de una ley de gauss con conocido.
Se desea comprobar la hiptesis H0 : m = mo siendo H1 : m mo.
(I)
Elegir el nivel de significacin pequeo ( 0.05 )
(II)
Si H0 es cierta, se elige un intervalo de aceptacin I tal que :

P m o 2

n X m o + 2

n = 0.95
I

74

m o 2
(III)
(IV)

mo + 2 n

Se procede a la extraccin de la muestra ( X1, X2,....., Xn ) anotando el valor de x ,


realizacin de X .
Conclusin :
a)
Si x I se acepta la hiptesis H0
b)
Si x I se rechaza la hiptesis H0

Observacin :
i)
No se deben invertir los pasos II y III, es decir el intervalo de aceptacin debe ser fijado
antes de hacer el experimento.
ii)
A menudo se elige un riesgo = 0.05.
iii)
La decisin de un test de hiptesis no es nunca definitiva y puede ser puesta en tela de
juicio luego de otra experiencia.
iv)
Al hacer un test de hiptesis se pueden cometer dos tipos de errores, tal como muestra la
tabla siguiente :
Decisin
Hiptesis
Verdadera
Hiptesis
Falsa

Aceptar
Decisin
Correcta
Error
Tipo II

Rechazar
Error
Tipo I
Decisin
Correcta

Observacin : En general, para un valor dado de n, disminuir la probabilidad de un tipo de error


implica necesariamente un aumento en la probabilidad del otro tipo de error. El nico medio para
reducir ambos es aumentando n. En la prctica un tipo de error puede ser ms serio que el otro : el
problema especfico dispondr cul necesita un control ms estricto.
v)

La hiptesis H0 se llama hiptesis nula y H1 se llama hiptesis alternativa.

Potencia de un test de hiptesis.


Supongamos el caso del test anterior : comprobar la hiptesis H0 : m = mo.
Se llama potencia del test a la probabilidad de rechazar la hiptesis H0 cuando el valor del
parmetro es m.

( m) = P( X I m)

75

Ley de X cuando m = mo
/2

/2
1-
mo

Ley de X cuando m = m

Fig.57

(m)
Se llama curva de potencial al grfico
sera :

(m) versus m. En el caso anterior la curva de potencial


(m)

Fig.58

1.0

mo

Observar que si m es muy diferente de mo la probabilidad de rechazar H0 es 1.0.


Observaciones :
a)

La curva de potencia indica, para cada valor de m, la probabilidad para que la receta
anterior conduzca al rechazo de la hiptesis H0 : m = mo cuando el verdadero valor del
parmetro es m.

b)

Si I es el intervalo de aceptacin de la receta y si m I,

rechazar la hiptesis H0 acertadamente. En este caso

76

(m)

(m)

es la probabilidad de

indica de una cierta manera la

potencia que tiene el test para descubrir la falsedad de la hiptesis H0. Luego la curva de potencia
ideal sera:

1.0

mo

Fig.59
m

I
c)

Existen otros intervalos de aceptacin ( dependiendo del problema ) :


caso (a)

caso (b)

0.05

0.05
mo

mo

m o 1.64

m o + 1.64

Fig.60

El caso (a) se utiliza en los siguientes test :


i)
H0 : m = mo versus H1 : m < mo
ii)
H0 : m mo versus H1 : m < mo
El caso (b) se utiliza en los siguientes test :
i)
H0 : m = mo versus H1 : m > mo
ii)
H0 : m mo versus H1 : m > mo
Relacin entre los intervalos de confianza y los test de hiptesis
El ejemplo anterior nos muestra que existe una ntima relacin entre el intervalo de confianza
para un parmetro y el test de una hiptesis relativa al mismo.
En general, dada una variable aleatoria X cuya ley de probabilidad depende de un parmetro ,
encontramos dos funciones T1 y T2 ( las cuales dependen de X1, X2,....., Xn ; ver pginas 61 70 )
tales que :
P( T1 T2 ) = 1 -
Entonces si al hacer la hiptesis H0 : = , una vez obtenida la muestra ( x1, x2,....., xn ), el
intervalo :
[ t1 , t2 ]
no cubre el valor del parmetro o, debemos rechazar la hiptesis al nivel de significacin .
Esto ltimo permite obtener test de hiptesis a partir de los intervalos de confianza ya estudiados,
lo cual proponemos como ejercicio al lector.

77

La informacin que proporciona un intervalo de confianza tiene una analoga perfecta con la que
da un test, como se ve en el siguiente cuadro :
INTERVALO DE CONFIANZA

TEST DE HIPOTESIS
a) Error tipo I
b) Error tipo II
c) Extensin de la muestra para
aumentar la potencia del test

a) No cubre al parmetro
b) Cubre valores errneos
c) Extensin de la muestra para
reducir la longitud
del
intervalo

Existen otros test de hiptesis que no se refieren a parmetros de una ley de probabilidad, que son
los test de bondad del ajuste, los cuales estudiaremos a continuacin
XI.1.

TEST DE BONDAD DEL AJUSTE

Los test de bondad del ajuste se refieren a la comparacin de una observacin de datos con una
ley de probabilidad terica.
El ejemplo (b) de la pgina 61 referente a 820 terminaciones de la Polla nos proporciona un caso:
supongamos que queremos comparar las frecuencias observadas con las frecuencias tericas
correspondientes al modelo siguiente :

P0

P1

P9

n = 829
P0 = P1 =.....= 0.1

Fig.61
np0 = np1 =.....= np9 = 82 es la frecuencia terica de cada valor
Se tiene as el cuadro siguiente :
Valor
0
1
2
3
4
5
6
7
8
9
Total

Frecuencia
observada
71
87
83
84
78
80
97
80
72
88
820

Frecuencia
terica
82
82
82
82
82
82
82
82
82
82
820

La hiptesis a comprobar sera : H0 . Los valores son equiprobables .


Existen dos test para comprobar este tipo de hiptesis que son el test de chi-cuadrado y el test de
Kolmogorov-Smirnov.
78

El test de Chi - cuadrado : 2


Sean x1, x2,...., xn los resultados de n observaciones de una variable aleatoria X. Los datos se han
agrupado de la manera siguiente :
Valor

Clase

a1
a2

Frecuencia
observada
o1
o2

c1
c2

Frecuencia
observada
o1
o2

ak
Total

ok
n

ck
Total

ok
n

Variable discreta

Variable continua

de la observacin de esta agrupacin y considerando otra informacin disponible sobre la variable


en estudio, se infiere una ley de probabilidad para la variable aleatoria X ( si X es discreta se
utiliza p(xi) = P(X = xi ) y si X es continua se utiliza su densidad f(x) ). Esta ley de probabilidad
depende de parmetros desconocidos 1, 2,....., los cuales se estiman por el mtodo de la
mxima verosimilitud.
Una vez calculados los parmetros, se calculan las frecuencias tericas asociadas :
Ei = n p(a i )

Ei = n f(x)dx

i = 1, 2,...., k

caso discreto

i = 1, 2,...., k

caso continuo

ci

El test de 2 se basa en la comparacin entre los valores observados oi y los valores tericos Ei,
utilizando el resultado siguiente :
Teorema : La variable aleatoria
k
(Oi Ei) 2
D=
(1)
Ei
i =1
sigue una ley de Chi - cuadrado con k - - 1 grados de libertad : 2 k - - 1 *

k-l1

= Ley de D

Fig.62
0 95

DMx

D vara entre 0 y DMximo con un 1 - = 0.95 de probabilidad. Esto nos induce la siguiente regla
de decisin :
* Este teorema es valido si X sigue la ley inferida, es decir si la hiptesis a comprobar es verdadera; es el
nmero de parmetros desconocidos.
79

Sea Do el valor numrico calculado segn la formula (1), entonces :


i)
ii)

Si 0 Do Dmx , entonces se acepta la hiptesis que la variable aleatoria X sigue la ley


de probabilidad p(xi) f(x).
Si Do DMx , entonces se rechaza la hiptesis.

El valor de DMximo se calcula segn las tablas de la ley 2


este valor para 1 - = 0.95.

k - - 1.

La tabla siguiente proporciona

Ley 2n
1 - = 0.95

Fig.63

DMx
n

Dmx

1
2
3
4
5
6
7
8
9
10

3.841
5.991
7.815
9.488
11.070
12.592
14.067
15.507
16.919
18.307

Ejemplo 1 : Comprobar si las terminaciones de la Polla son equiprobables :


Solucin : El nmero de parmetros desconocidos es = 0, porque la hiptesis H0 nos proporciona
el valor del parmetro p = 0.1. Adems k = 10.
En la tabla de 2 10 - 0 - 1 = 29 encontramos DMx = 16.919.
Ahora calculamos Do ( ver pgina 77 )
D0 =

(71 82) 2 (87 82) 2


(88 82) 2
+
+ ....... +
= 6.537
82
82
82

Conclusin : como D0 DMx , se acepta la hiptesis que las terminaciones de la Polla son
equiprobables, al nivel de significacin = 0.05.

80

En algunos casos en que el dominio de la variable aleatoria X es infinito, se debe tomar un


intervalo de agrupacin extremo tambin infinito, tal como muestra el ejemplo siguiente.
Ejemplo : Un barrio de Londres sufri durante los bombardeos de la segunda guerra mundial 537
impactos. La zona ha sido dividida en 576 cuadrados de 500m x 500m. Se estudi la variable
aleatoria X = nmero de impactos por cuadrado, obtenindose el cuadro :
N
Impactos
0
1
2
3
4
5
Total

Frec.
Observada
229
211
93
35
7
7
576

Lo anterior significa que de los n = 576 cuadrados : 229 recibieron 0 impactos, 211 recibieron
exactamente 1 impacto,...., y 1 cuadrado recibi exactamente 5 impactos.
Se pide comprobar si X sigue una ley de Poisson.
Solucin : La ley de Poisson toma los valores 0, 1, 2,....con probabilidades :
k e
p(k) = P(X = k) =
, k = 0, 1, 2,....
k!
Existe un parmetro desconocido que es , el cual se estima por el promedio de los datos : = x
( ver pgina 58 ) :
o = (0 229 + 1 211 + 2 93 + 3 35 + 4 7 + 5 1) 576 = 0.929
Calculamos ahora las probabilidades y las frecuencias tericas :
p(0) = P( X = 0 ) =
e-0.929
= 0.395
-0.929
p(1) = P( X = 1 ) = 0.929e
= 0.367
2 -0.929
p(2) = P( X = 2 ) = (0.929) e
/2 = 0.170
3 -0.929
/6 = 0.053
p(3) = P( X = 3 ) = (0.929) e
4 -0.929
p(4) = P( X = 4 ) = (0.929) e
/24 = 0.012
p = P( X 5 ) = 1 - P( X < 5 )
= 0.003

np(0) = 227
np(1) = 211
np(2) = 98
np(3) = 31
np(4) = 7
np = 2

Como la ley de Poisson puede tomar, en teora, valores mayores que 5 hemos tomado un intervalo
infinito al final ( de no ser as, la suma 227 + 211 + 98 +.... sera inferior a n = 576 ). Se tiene as
el cuadro :

81

N
Impactos
0
1
2
3
4
5 ms
Total

Frec.
Observada
229
211
93
35
7
1
576

Frec.
Terica
227
211
98
31
7
2
576

Por otra parte k = 6 , = 1.


En la tabla 26-1-1 = 24 encontramos DMx = 9.488. Ahora calculamos D0 :
k
(Oi Ei) 2 (229 227) 2 (211 211) 2
(1 2) 2
D0 =
=
+
+ ...... +
= 1.289
Ei
227
211
2
i =1

Conclusin : Se acepta la hiptesis que los datos provienen de una ley de Poisson, al nivel =
0.05 porque D0 DMx .
Se puede demostrar la propiedad siguiente de la ley de Poisson : si los impactos son al azar ( es
decir sin apuntar ), entonces la variable X = nmero de impactos por cuadrado , sigue una ley
de Poisson. Al aceptar nuestra hiptesis concluimos que los bombardeos no apuntaban a zonas
especficas dentro del barrio.
El test de Kolmogorov - Smirnov.
El test de Kolmogorov - Smirnov sirve para comprobar la hiptesis de que una variable aleatoria
X sigue una ley de probabilidad especificada.
El test se basa en la comparacin de las funciones de distribucin terica y emprica ( ver pginas
3 - 4 y 15 - 16 ) :
F*(x) = porcentaje de valores de la muestra que son x
F (x) = P( X x )
F*(x) = funcin de distribucin emprica
F (x) = funcin de distribucin terica
El test toma como medida de disconformidad de las distribuciones empricas F*(x) al mdulo de
la mayor diferencia observada entre F*(x) y F(x) ( ver figura 64 ), es decir a :
D = Mx F*(x) - F(x)

82

Fig.64
Se demuestra que si los datos observados corresponden a una variable aleatoria con funcin de
distribucin F(x), entonces D sigue una ley de Kolmogorov Kn :

Ley de D
Fig.65
0.95

DMx

Lo anterior nos induce la siguiente regla de decisin :


i).- Aceptar la hiptesis si D0 DMx
ii).- Rechazar la hiptesis si D0 > DMx
La tabla siguiente nos proporciona el valor de DMx para el nivel de confianza 1 - = 0.95 :

83

Valor crtico para el test de


Kolmogorov - Smirnov
1 - = 0.95
DMx

Numero de
datos n
5
10
15
20
25
30
40
n > 40

0.56
0.41
0.34
0.29
0.26
0.24
0.21
1.36 n

Ejemplo : Aplicar el test de Kolmogorov - Smirnov a las terminaciones de la Polla.


Solucin : Se tiene el cuadro siguiente :
Valor
0
1
2
3
4
5
6
7
8
9
Total

Frec.
Observada
71
87
83
84
78
80
97
80
72
88
820

Frec.
Terica
82
82
82
82
82
82
82
82
82
82
820

F*(x)

F(x)

F*(x) - F(x)

0.087
0.193
0.293
0.396
0.491
0.589
0.707
0.805
0.893
1.000

0.100
0.200
0.300
0.400
0.500
0.600
0.700
0.800
0.900
1.000

0.013
0.007
0.007
0.004
0.009
0.011
0.007
0.005
0.007
0.000

Se tiene entonces que D0 = 0.013. En la tabla anterior encontramos D Mx = 1.36

D0

820 = 0.0475

Conclusin : como D0 Dmx, aceptamos la hiptesis que los nmeros son equiprobables.
Aplicacin del test de Chi - cuadrado a las tablas de contingencia.
A veces un conjunto de datos se clasifica de acuerdo a caractersticas en un cuadro llamado tabla
de contingencia.
Ejemplo : En el ao 1897 se produce una peste. De 127 personas no vacunadas, 10 contrajeron la
peste. Sobre 147 personas vacunadas, 3 contrajeron la peste. Estos datos se pueden clasificar en la
tabla siguiente :

84

C
No Vacunad.
D
Vacunadas
Total

A
Contaminad.
10

B
No Contam.
117

Total

144

147

13

261

274

127

n = 274

que es una tabla de contingencia de 2 x 2.


Cuando se consideran estas caractersticas es interesante comprobar si son o no independientes.
La hiptesis a comprobar sera :
versus

H0 : A y B son independientes de C y D
H1 : A y B no son independientes de C y D

Estas hiptesis se pueden escribir como :


H0 : P( A C ) = P(A)*P(C) , P( A D ) = P(A)*P(D)
P( B C ) = P(B)*P(C) , P( B D ) = P(B)*P(D)

versus
H1 : Las relaciones anteriores no son verdaderas
El nmero esperado de observaciones en las celdas es : n*P(A C), n*P(A D), n*P(B C),

n*P(B D) y segn la hiptesis ser : n*P(A)*P(C), n*P(A)*P(D), n*P(B)*P(C), n*P(B)*P(D).


Como ninguna de estas probabilidades es conocida, deben ser estimadas a partir de los datos :
P(A) = 13/274 , P(B) = 1 P(A) = 261/274

*
P(C) = 127/274 , P(D) = 1 P(C) = 147/274
la estimacin de los nmeros esperados en las celdas es
n P(A) P(C) = 6.03

n P(B) P(C) = 120.97

n P(A) P(D) = 6.97

n P(B) P(D) = 140.03

Tenemos entonces las tablas siguientes :

* Observacin : Solo se han estimado dos parmetros desconocidos : P(A) y P(C). Las otras : P(B) y P(D)
fueron calculadas a partir de P(A) y P(C).
85

C
No Vac.
D
Vac.
Total

A
Cont.
10

B
No Cont.
117

Total

144

147

13

261

274

127

C
No Vac.
D
Vac.
Total

Tabla Observada

A
Cont.
6.03

B
No Cont.
120.97

Total

6.97

140.03

147

13

261

274

127

Tabla Terica

Para comprobar la hiptesis H0, se utiliza la variable aleatoria :


D=

(O AC E AC ) 2 (O AD E AD ) 2 (O BC E BC ) 2 (O BD E BD ) 2
+
+
+
E AC
E AD
E BC
E BD

la cual sigue una ley de chi-cuadrado con k - - 1 = 1, grado de libertad ( porque : k = 4 , =


nmero de parmetros desconocidos = 2 ).

Ley

1 - = 0.95

Fig.66
0 95

DMx = 3.841

Se tiene entonces ( ver pgina 79 ) : P( D 3.841 ) = 0.95 ; lo que nos induce la regla de decisin
siguiente :
i).- Aceptar H0 ( A y B son independientes de C y D ) si :
D0 DMx = 3.841
ii).- Rechazar H0 si :
D0 > DMx = 3.841
En el ejemplo anterior, se tiene :
Do =

(10 6.03) 2 (117 120.97) 2 (3 6.97) 2 (144 140.03) 2


+
+
+
= 5.12
6.03
120.97
6.97
140.03

Conclusin : Como D0 > DMx se rechaza la hiptesis H0, lo que equivale a aceptar que A y B
dependen de C y D, es decir la vacuna produce resultados significativos.
Generalizacin : El esquema anterior se generaliza al caso de una tabla de contingencia q x r :

86

B1
B2

Br
Total

A1
O11
O21

A2
O12
O22

....
....
....

Aq
O1q
O2q

Or1

Or2

Orq

n1

nq

....
....

nq

Total
n1
n2

n r
n

B1
B2

Br
Total

Tabla Observada

A1
E11
E21

A2
E12
E22

....
....
....

Aq
E1q
E2q

Er1

Er2

Erq

n1

nq

....
....

nq

Total
n1
n2

n r
n

Tabla Terica

En este caso k = q x r
= q - 1 + r - 1 = q + r - 2 = nmero de parmetros desconocidos ( los parmetros
desconocidos son : P(A1), P(A2),..., P(Aq-1) y P(B1), P(B2),..., P(Br-1) porque P(Aq) y P(Bq) se
calculan mediante 1 - suma de probabilidades ).
r

D=

i =1 j =1

(Oij Eij) 2
Eij

sigue una ley 2k- - = 2qr-q-r+1 = 2(q-1)(r-1)

En las tablas de la ley de chi-cuadrado con (q-1)(r-1) grados de libertad ( pgina 80 ) encontramos
el valor DMx. Se tiene la regla de decisin siguiente :
i).- Aceptar H0 ( A1, A2,...., Aq son independientes de B1, B2,...., Br ) si D0 DMx
ii).- Rechazar H0 si D0 > Dmx.

87

XII.

ANALISIS DE LA VARIANZA.

El anlisis de la varianza se ocupa de las tcnicas estadsticas para estudiar inferencias respecto de
medias de dos o ms muestras.
Supongamos que tenemos r muestras aleatorias y queremos comprobar la hiptesis :
versus

H0 : m1 = m2 =....= mr
H1 : no todas las esperanzas son iguales

Notaciones .
Sea xij el dato I de la muestra Mj. Las r muestras aleatorias se pueden ordenar en la tabla
siguiente:
Muestras

Promedios

M1
x11
x21

M2
x12
x22

.....
.....
.....

Mr
x1r
x2r

xn11

xn22

xnrr

x 1

x 2

.....
.....

xr

N = n1 + n2 +.....+ nr

x=

n1 x 1 + ..... + n r x 2
n1 + ..... + n r

Ejemplo : En una parte de un yacimiento con tres tipos de rocas R1, R2, R3 se han tomado 3, 4, 5
muestras respectivamente.

Fig.67
las leyes se dan en el cuadro siguiente :

88

Tipo de Roca
R2
0.70
0.61
0.67
0.62

R1
0.56
0.53
0.68

Leyes de Cobre

r=3

R3
0.77
0.73
0.63
0.74
0.68

x 1 = 0.59

x2 = 0.71

x 3 = 0.71

n1 = 3

n2 = 4

n3 = 5

x = 0.66
N = 12
Se tiene adems : numero total de datos : N = 12
Promedio de todas las observaciones : x = 0.66
En este ejemplo estaramos interesados en comprobar :
H0 : m1 = m2 = m3
versus H1 : no todas las esperanzas son iguales
Para comprobar este tipo de hiptesis se utiliza el resultado siguiente : si las r muestras son
muestras aleatorias de una misma variable X gaussiana, entonces la variable aleatoria :
r

nj

(x
D=

2
j - x) (r - 1)

j =1 i =1
r nj

(x

(1)
2
ij - x j ) (N - r)

j =1 i =1

sigue una ley F(r-1 , N-r) llamada ley de F de Snedecor con (r-1 , N-r) grados de libertad.

Ley de D = F(r-1 , N-r)


1 - = 0.95
0.95

DMx
Fig.68

Tenemos entonces la siguiente regla de decisin :


89

i).- Aceptar H0 ( m1 = m2 =.....= mr ) si D0 DMx.


ii).- Rechazar H0 si D0 > DMx.
Esta regla se justifica porque si la Hiptesis es verdadera, entonces debera tenerse que
x1 x 2 ..... x r x luego el numerador de la expresin (1) sera pequeo. En el caso de
ser falsa la hiptesis, el numerador sera grande.
La tabla siguiente proporciona los valores de DMximo en funcin de n1 y n2 correspondientes a la
ley F(n1 , n2) para 1 - =0.95.
F(n1 , n2)

0.95

DMx

Fig.69
Valores de DMximo ( 1 - =0.95 )
Ley de F de Snedecor
n1

n2
1
2
3
4
5
6
7
8
9
10

1
161
18.51
10.13
7.71
6.61
5.99
5.59
5.32
5.12
4.96

2
200
19.00
9.55
6.94
5.79
5.14
4.74
4.46
4.26
4.10

3
216
19.16
9.28
6.59
5.41
4.76
4.35
4.07
3.86
3.71

4
225
19.25
9.12
6.39
5.19
4.53
4.12
3.84
3.63
3.48

5
230
19.30
9.01
6.26
5.05
4.39
3.97
3.69
3.48
3.33

Ejemplo : En el caso anterior, comprobar la hiptesis : H0 : m1 = m2 = m3


Calculemos primero DMx. Debemos utilizar la tabla anterior : F(r1 , Nr) = F(2 , 9) = F(n1 , n2)

DMx = 4.26.
Calculemos D0 segn la frmula (1). Encontremos el denominador :
r nj
Denominador =
(x ij x j ) 2 (N r)
j =1 i =1
= [ (0.56 0.59) + (0.53 0.59) + (0.68 0.59) + (0.70 0.65) + (0.61 0.65) +
(0.67 0.65) + (0.62 0.65) + (0.77 0.71) + (0.73 0.71) + (0.63 0.71) +
(0.74 0.71) + (0.68 0.71) ]/9 = 0.00336

90

nj

(x

Numerador =

2
j - x) (r - 1)

j =1 i =1
= [ (0.59 0.66) + (0.59 0.66) + (0.59 0.66) + (0.65 - 0.66) + (0.65 0.66) +
(0.65 0.66) + (0.65 0.66) + (0.71 0.66) + (0.71 0.66) + (0.71 0.66) +
(0.71 0.66) + (0.71 0.66) ]/2 = 0.01380

D0 = 4.11

Conclusin : Debemos aceptar H0 porque result D0 DMx sin embargo el valor de D0 es muy
prximo a DMx.
r

Consideremos ahora la cantidad :

nj

( x
j =1 i =1

nj

[( x
r

j =1 i =1
r

nj

(x
j =1 i =1

x j ) + (x j x ) ]

ij

nj

( xi
j =1 i =1

nj

( x
j =1 i =1

nj

( x
j =1 i =1
r

j =1 i =1

nj

nj

ij

j =1 i =1

x j ) ( x j x) = 0

x) 2 se llama suma total de cuadrados ( abreviado : SST ). El termino

ij

x j ) 2 se llama suma de cuadrados entre grupos ( abreviado : SSW ). El trmino

x ) 2 se llama suma de cuadrados entre grupos. Luego tenemos que :

nj

(x

j =1 i =1

es fcil de ver que : 2


El trmino

x)2

x j ) + ( x j x ) + 2 ( xi j x j ) (x j x )
2

ij

ij

SST = SSA + SSW


Luego la ecuacin (1) se puede escribir como :
D=

SSA (r 1)
SSW (N r)

91

XIII.

LA REGRESIN.

A menudo estamos interesados en una posible relacin entre dos o ms variables. Podemos
sospechar que cuando una de las variables cambia, la otra tambin cambia de manera previsible.
Es importante expresar tal relacin mediante una ecuacin matemtica que relacione las variables.
Esta ecuacin nos servir para predecir el valor de una variable partiendo del valor de la(s) otra(s)
variable(s).
Regresin Lineal Simple.
Si la relacin que existe entre la variable x y la variable y es una lnea recta, las variables estn
relacionadas por :
y = x +
En una situacin no determinstica es razonable postular que esta relacin est afectada por
errores experimentales o perturbaciones aleatorias. De acuerdo a lo anterior podemos formular el
siguiente modelo estadstico :
Modelo estadstico :
Se asume que Yi est relacionado con Xi por :
Yi = + Xi + ei

, i = 1, 2,....,n

en que :
(a).- x1, x2,....,xn son los valores de la variable x que han sido tomados para el estudio.
(b).- e1, e2,...., e3 son los errores aleatorios de la relacin lineal. Estos errores son
desconocidos y se asume que son variables aleatorias independientes, gaussianas, con esperanza
nula y varianza desconocida 2.
(c).- Los parmetros y son desconocidos.
El Mtodo de los Mnimos Cuadrados :
Si asumimos en forma tentativa que la formulacin del modelo es correcta, se puede proceder a la
estimacin de los parmetros y . El mtodo de los mnimos cuadrados constituye un mtodo
eficiente para estimar los parmetros de la regresin.
Supongamos que se ha graficado la recta y = a + bx. En el punto xi, el valor que predice la recta
para y es a + bxi, mientras que el valor observado es yi.
La discrepancia es di = yi a bxi. Al considerar todas las discrepancias, se toma :
n
n
2
D=
di =
(y i a bx i ) 2
(1)

i =1

i =1

92

como medida de la discrepancia global. Si el ajuste es bueno, D debera ser pequeo. El principio
del mtodo de los mnimos cuadrados es entonces : determinar los parmetros desconocidos de
manera de minimizar D. Los valores encontrados se denotan y .

Fig.70
Antes de encontrar las expresiones para y veamos las notaciones que utilizaremos :
x=

S 2x =

(x

x) 2 =
S xy =

(x

1
n
2
i

, y=

nx 2 , S 2y =

x)(y i y) =

1
n

(y

y) 2 =

2
i

ny 2

yi x y n

Escribiendo D en la forma :
D=

(y a bx ) = ((y y) b(x x) + (y a bx))


i

despus de una transformacin algebraica se llega a :


2

S xy 2 S 2xy

+ S y 2
D = n (y a bx ) + b S x

S
S x
x

S xy
Lo cual es mnimo si : y a bx = 0 , bS x
=0
Sx
2

Luego :

S xy
S 2x

, = y x

(1)

(2)

Ejemplo : en una empresa minera se dispone de los datos siguientes : x = Produccin en


toneladas , y = Costo de produccin. Hallar la recta de regresin :

93

Produccin
x
1.5
2.0
3.0
1.5
3.5
3.0
4.5
4.0
4.0
2.5

Costo
y
2.5
3.1
3.8
2.1
4.3
3.2
4.8
3.9
4.4
3.0

Nota : Tanto la produccin como el costo han sido multiplicados por constantes.
La primera etapa lgica es dibujar los datos. Este grfico nos indicara si el modelo lineal es
adecuado.

Fig.71
Al hacer los clculos, se tiene :
x = 2.95 , y = 3.51
S 2x = 10.23 , S 2y = 6.85

S xy = 7.91

7.91
= 0.77
10.23
= 3.51 0.77 2.9501.24

y = 1.24 + 0.77 x

Volvamos a las ecuaciones de la pgina anterior. El valor mnimo de D es : D Min =

y utilizando la expresin (2) para :


D Min = S 2y 2 S 2x

94

S 2y

S 2xy
S 2x

se llama suma de cuadrados debida al error a :


2

SSE = S y 2 S 2x =

( y

x i ) 2

i =1

En el ejemplo anterior :
SSE = 6.85 (0.77) 2 10.23 = 0.785
Propiedades de los estimadores de mnimos cuadrados
A)
los estimadores y son ptimos, es decir son insesgados : E( ) = , E( ) = y
tienen varianza mnima.
SSE
S2 =
es un estimador insesgado de 2.
B)
n2
S ( )
sigue una ley de Student con n 2 grados de libertad.
C)
Z= x
S

sigue una ley de Student con n 2 grados de libertad.
D)
T=
1 x2
S + 2
n Sx
+ x - ( + x)
W=
E)
sigue una ley de Student con n 2 grados de libertad.
1 (x x) 2

S +

S 2x

Estas propiedades nos sirven para establecer algunas inferencias respecto del modelo lineal.
i)
Inferencia respecto de la pendiente
ii)
El intervalo del 95 % de confianza para , deducido de la propiedad (C) es :
S
t
Sx
en que t se obtiene de las tablas de la ley de Student con parmetro n 2 ( ver pgina 64 ).
Ejemplo : En el ejemplo anterior, comprobar la hiptesis H0 : = 0.
Solucin : Encontremos el intervalo de confianza para :

= 0.77

S x = 10.23 = 3.20

S2 = 0.785/8 = 0.098 ; S = 0.313


En la tabla de la ley de Student con n 2 = 8 grados de libertad encontramos t = 2.306 (pgina
64); luego el intervalo es : 0.77 0.23
0.54 0.77 1.00
Conclusin : se rechaza H0.
ii)
Inferencias respecto de .
El intervalo del 95 % de confianza para , deducido de la propiedad (D) es :
95

t S +
n

x2
S 2x

en que t se obtiene de las tablas de la ley de Student con parmetro n 2.


Ejemplo : En el caso anterior encontrar el intervalo del 95 % de confianza para .
Solucin : S 2x = 10.23 ; S = 0.313 ; n = 10 ; x = 2.95 ; = 1.24 ; t = 2.306 ; luego el
intervalo es : 1.24 0.70

0.54

1.24

1.94

iii)
Prediccin de la respuesta media para x = x*
El objetivo ms importante en un estudio de regresin es el de estimar el valor esperado de Y para
un valor especfico x = x* : para estimar E(Y x*) = + x* se utiliza el estimador + x * con
el siguiente intervalo de confianza, deducido de la propiedad (E) :
1

+ x * t S +
n

(x * x) 2
S 2x

en que t se obtiene de las tablas de la ley de Student con parmetros n 2.


Ejemplo : En el caso anterior y = 1.24 + 0.77 x ; la estimacin para x* = 3.5 es y = 3.94 y el
intervalo del 95 % de confianza es :
1 (3.5 2.95) 2
394 2.306 0.313 +
10.23
10

3.94 0.26

3.68

3.94

4.20

Observacin Importante : Se debe tener mucho cuidado al utilizar el modelo lineal para valores x*
que estn fuera del rango de valores x observados. La figura 72 ilustra esta situacin :

96

y = + x

Fig.72
Relacin verdadera

Dominio de validez
del modelo

XIII.1 VALIDACION DEL MODELO LINEAL


Recordemos las hiptesis del modelo lineal :
a) La relacin subyacente es lineal.
b) Independencia de los errores.
c) Varianza constante.
d) Distribucin normal.
Estudio de Residuos.
Una de las tcnicas ms importantes para criticar el modelo es el estudio de los residuos,
definidos por :
e i = y i y i
i = 1, 2,...,n.
Ejemplo : En el caso anterior, se tiene el cuadro siguiente. Para validar el modelo sera necesario
hacer un test sobre la normalidad de los e i . Sin embargo resulta ms simple estudiar el grfico
residuo valor de prediccin, es decir e i versus y i , el cual, en el ejemplo, es el que aparece en la
figura 73.
xi

yi

y i

e i

1.5
2.0
3.0
1.5
3.5
3.0
4.5
4.0
4.0
2.5

2.5
3.1
3.8
2.1
4.3
3.2
4.8
3.9
4.4
3.0

2.40
2.78
3.55
2.40
3.94
3.55
4.71
4.32
4.32
3.17

-0.10
-0.32
-0.25
0.30
-0.36
0.35
-0.09
0.42
-0.08
0.17

97

Fig.73
Si los puntos forman una franja horizontal con respecto a cero, como la figura 73, entonces el
modelo es aceptable.

Fig.74
Si el ancho de la franja crece (o decrece) con y , como en la figura 74, entonces la varianza 2 no
es constante.

Fig.75
Si se observa un comportamiento sistemtico, como en la figura 75, entonces hay que considerar
un modelo cuadrtico u otro de tipo no lineal.
En algunos casos, en los cuales se conoce el oreden de medicin, es interesante estudiar el grfico
residuos versus orden en el tiempo.

98

Fig.76
El grfico de la figura 76 indica que los residuos consecutivos estn correlacionedos.
Otras Comprobaciones en el Modelo Lineal
Se puede considerar que el valor observado yi es la suma de dos componentes :
y i = ( + x i ) + ( y i x i )
Valor explicado
por la relacin
lineal

Valor observado
de y

Residuo o desviacin
respecto de la relacin
lineal

En una situacin ideal en la cual los puntos estn exactamente en una recta, los residuos son nulos
y la ecuacin + x i toma totalmente en cuenta los valores de y : se dice que la relacin lineal
explica los valores de y.
Como medida global de la discrepancia respecto de la linealidad se utiliza la suma de cuadrados
debida al error (ver pgina 94) :
SSE =

(y

x i ) 2 = S2y 2S2x

i =1

en que : S2y =

(y

y) 2 es una suma de cuadrados que representa la variacin total de los

i =1

valores y. Se puede escribir entonces :


S2y = 2S2x + SSE
Suma total de
cuadrados de y

Suma de cuadrados
Explicados por la
relacin lineal

(1)
Suma de cuadrados
De los residuos (no
explicada)

El termino 2S2x se llama suma de cuadrados debida a la regresin lineal. Si la recta proporciona
un buen ajuste. entonces este trmino comprende la mayor parte de S2y y deja solo una pequea
parte para SSE. En la situacin ideal en que los puntos estn en una recta, SSE es cero.
Como ndice del ajuste lineal se utiliza la cantidad :

99

r2 =

2S2x
S2y

S2xy

(se utiliz frmula (2) pgina 92)

S2x S2y

llamada Coeficiente de Determinacin. Esta cantidad est relacionada con el coeficiente de


correlacin muestral entre x e y (ver pgina 12). En efecto : r = . El coeficiente de determinacin
r2 sirve como medida de la linealidad de la regresin.
Al introducir r2 la relacin (1) queda :
S2y = r2 S2y + SSE

SSE = S2y (1 r2)

Ejemplo : Encontrar r2 en el ejemplo anterior.


S2
Solucin : r 2 = 2 xy 2
Sx S y
S2xy = (7.91)2 = 62.57 , S2x = 10.23 , S2y = 6.85
r2 =

62.57
= 0.89
10.23 6.85

Esto significa que el 89 % de la variacin de y es explicada por la relacin lineal, lo cual hace
satisfactorio al modelo en este aspecto.
Cuando el valor de r2 es pequeo, se debe concluir que la relacin lineal no constituye un buen
ajuste para los datos. Esto puede deberse a dos causas :
i) Hay muy poca relacin entre las variables (Fig.77a)
ii) La relacin subyacente no es lineal (Fig.77b)

Fig.77

100

El Test F.
Para comprobar la falta de ajuste (por ejemplo la situacin (b) de la figura 77), se utiliza el test F
el cual requiere disponer de varios valores de y para un mismo valor de x (ver figura 78).

Fig.78
En este caso los datos se ordenan segn la tabla siguiente, similar a la tabla del anlisis de la
varianza :
Valores
Valores
Promedios
diferentes de x
repetidos de y
x1
y11
y12
...... y1n1
y1
x2
...... y2n2
y2
xk

yk1

yk2

......

yknk

yk

Se define la suma de cuadrados de errores SSP por :


SSP =

ni

( y

ij

yi )2

i =1 j = 1

Se demuestra entonces que la variable aleatoria


D=

(SSE SSP) (k 2)
SSP (n k)

(*)

sigue una ley F de Snedecor con (k 2 , n k) grados de libertad.

Ley de D
Fig.79
0.95

DMx

* Observacin : si el ajuste es razonable, D debe ser pequeo.

101

Regla de decisin :
i) Se acepta el ajuste si D0 DMx.
ii) Se rechaza el ajuste si D0 > DMx.
Ejemplo : En el conjunto de datos siguientes, efectuar el test F.
x
y

2
4

2
3

2
8

3
18

3
22

4
24

5
24

5
18

6
13

6
10

Reordenando los datos tenemos :

k=5

x
2
3
4
5
6

y
4, 3,8
18, 22
24
24, 18
13, 10, 16

y
5
20
24
21
13

SS
14
8
0
18
18

SSP = 14 + 8 + 0 + 18 + 18 = 58
Por otra parte : x = 4 , y = 14.55 , S 2x = 28 , S 2y = 571 , S xy = 50
= 1.786 , = 7.406 , SSE = S 2y 2S 2x = 482 , n = 11 , k = 5
D0 =

(SSE SSP) (k 2) ( 482 58) 3


=
= 14.62
SSP (n k)
58 6

En las tablas de la ley F(k 2 , n k) = F(3 , 6) encontramos (ver pgina 89) :


DMx = 4.76
Conclusin : se rechaza el ajuste lineal. Hay que considerar adems que r 2 = S2xy S2x S2y = 0.156 ,
que es un valor muy pequeo.
En este ejemplo una relacin cuadrtica resulta mejor que una relacin lineal (Fig.80.).

Fig.80

102

6
16

XIII.2. RELACIONES NO LINEALES


En la prctica existen muchos casos en los cuales no es posible ajustar una recta, esto puede
detectarse por el grfico de los valores observados y por el clculo de un r2 pequeo. En el caso
no lineal, los mtodos estadsticos de ajuste son ms complicados. Sin embargo, en algunos casos
es posible transformar las variables de manera de obtener una relacin aproximadamente lineal; el
modelo lineal debe aplicarse entonces sobre las variables transformadas.
Ejemplo : En 10 autos se midieron las variables siguientes : x : velocidad , y : distancia necesaria
para detenerse al frenar. Se obtuvo :
Velocidad x
Distancia y

40
16.3

40
26.7

60
39.2

60
63.5

60
51.3

80
98.4

80
65.7

100
104.1

100
155.6

120
217.2

100
12.47

120
14.74

Lo cual proporciona el grfico siguiente :

Fig.81
La observacin de la figura 81 nos sugiere utilizar las variables x = x , y =

x = x
y = y

40
4.04

40
5.17

60
6.26

60
7.97

60
7.16

Fig.82

Por otra parte :

103

80
9.92

80
8.11

y :

100
10.20

x = 74 , y' = 8.60 , S 2x = 6440 , S 2y' = 98.41 , S xy' = 766 , = 0.119 , = 0.206 , r 2 = 0.926

y' = 0.206 + 0.119 x

y = ( 0.206 + 0.119 x) 2

La tabla siguiente nos muestra algunos modelos no lineales y las transformaciones para obtener
una relacin lineal :
Modelo no Lineal

Transformacin

y = a e bx

y' = lny , x' = x

y = a xb

y' = lny , x' = lnx

1
a + bx
1
y=
(a + bx) 2

y' = 1

y=

1
b
=a+
y
1+ x

y' = 1
y' = 1

y =a + b x

y
y

, x' = x
, x' = x

, x' = 1
1+ x

y' = y , x' = x

La Regresin Multivariable.
Los conceptos estudiados es este captulo pueden ser extendidos a situaciones en las cuales existe
ms de una variable independiente.
Supongamos, que la variable y depende de las variables x, x, x ( la generalizacin a p
variables es inmediata). Por analoga con el modelo lineal simple, se puede formular el modelo
siguiente :
Yi = + 1xi + 2xi + 3xi + ei
i = 1, 2,...,n
En que xi, xi, xi son los valores de las variables independientes en el experimento i, siendo yi
la respuesta correspondiente. Se asume que los errores ei son variables aleatorias gaussianas
independientes, de esperanza nula y varianza 2 desconocida. Las constantes , 1, 2, 3 son
desconocidas.
Debido a la presencia de ms de dos variables, este modelo se llama regresin lineal mltiple.
Para estimar los parmetros , 1, 2, 3 se utiliza el mtodo de los mnimos cuadrados,
minimizando la cantidad :
D=

(y

1 x i ' 2 x i " 3 x i ' ' ' ) 2

i =1

Al derivar parcialmente D con respecto a , 1, 2, 3 se llega al sistema de ecuaciones siguiente,


llamado sistema normal :

104

1S 2 + 2S x'x" + 3S x'x''' = S x'y


x'

1S x'x" + 2S 2 + 3S x"x''' = S x"y


x"

1S x'x''' + 2S x"x''' + 3S 2 = S x'''y


x'''

= y 1 x' 2 x" 3 x' ' '


en que :
S2 =
x'

( x i ' x' ) 2 =

i =1

S x'x" =

(x ' )
i

nx ' 2

i =1

(x 'x' )(x "x" ) = x 'x " nx' x"


i

i =1

i =1

etc.
Ejemplo : En la Oficina Salitrera de Pedro de Valdivia se observan durante 10 meses las variables
siguientes, en la planta de concentracin :
y = Recuperacin de la planta en %.
x = Temperatura del proceso.
x = Porcentaje de caliche vaciado.
x= Porcentaje de material con granulometra > 0.5 pulgadas.
Los datos figuran en la tabla siguiente :
Recuperacin
y
60.2
55.0
56.2
60.9
64.6
64.1
62.2
63.1
59.1
59.4

Temperatura
x
35.33
34.37
35.10
39.53
40.03
40.03
39.77
40.70
40.17
39.87

% Caliche
x
76.22
77.41
77.04
77.98
77.99
77.51
77.84
77.44
77.32
76.40

Granulometra
x
3.7
3.9
4.1
3.7
3.7
3.6
4.0
3.6
4.1
4.1

En este caso, el sistema normal de ecuaciones proporciona la solucin :

= 70.23 , 1 = 0.867 , 2 = 0.172 , 3 = 7.742


y la ecuacin :

y = 70.23 + 0.867 x'0.172 x"7.742 x' ' '

La ecuacin de regresin nos indica que la nica variable (de las consideradas) que hace subir la
recuperacin de la planta es la temperatura. Se pusieron calderas y se comprob que la
recuperacin subi significativamente.
Los residuos y i y i = y i 1x i ' 2 x i " 3 x i ' ' ' son los que figuran en la tabla siguiente :

105

yi
59.10
56.52
55.66
62.44
62.87
63.73
60.35
64.32
60.01
59.91

yi
60.2
55.0
56.2
60.9
64.6
64.1
62.2
63.1
59.1
59.4

ei
1.10
-1.52
0.54
-1.54
1.73
0.37
1.85
-1.22
-0.91
-0.51

De manera anloga a la regresin simple, el estudio de los residuos sirve para validar el modelo.
Ver pginas 99 101.
En el caso multivariable, como ndice del ajuste lineal, se utiliza el coeficiente de determinacin
r2, definido por :
S2
yy
2
r = 2 2
Sy S
y

y se llama coeficiente de correlacin mltiple a = r.


Si llamamos :
SSE =

(p)

( y i 1x i ' 2 x i " 3 x i ' ' '.... p x i ) 2 =

i =1

(y

y i ) 2

i =1

entonces se puede demostrar que :


SSE = S 2y (1 r 2 )
SSE
es un estimador insesgado de 2. (p = nmero de variables independientes)
n p 1
S se llama desviacin standard de estimacin y representa, en cierto sentido, la magnitud de los
errores ei.
y que : S 2 =

Ejemplo : Calcular r2, , SSE, S2 y S en el caso de los datos de salitre.


Solucin : S 2y = 91.58 , S 2 = 77.45 , S yy =
y

y y
i

n y i y i = 76.86

i =1

r2 = 0.833 , = 0.913

Utilizando la tabla anterior :


SSE = (1.10)2 + (-1.52)2 +....+(-0.51)2 = 15.313
S2 = SSE/(10-4) = 2.552 , S = 1.598
Del anlisis de los residuos ei y del valor de r2, concluimos en este caso que el modelo lineal
mltiple es satisfactorio.

106

La Regresin Polinmica.
En el caso en el cual se dispone de una variable independiente se puede suponer un modelo
polinmico del tipo :
Yi = + 1xi + 2xi2 +....+pxip + ei
que es un caso particular del modelo lineal mltiple, con : x = x , x = x2 ,......, x(p) = xp.
Por ejemplo, si se desea ajustar la parbola + 1x + 2x2,
D=

(y

1x i 2 x i ) 2

i =1

lo cual es mnimo si se cumple el sistema :


2

x i + 1 x i + 2 x i 3 = x i y i
2

x i + 1 x i + 2 x i 4 = x i y i
n + 1 x i + 2 x i 2 = y i

107

XIV.

ESTADISTICA NO PARAMETRICA.

Casi todos los mtodos estadsticos que hemos estudiado suponen que las variables que interesan
son gaussianas. Estos mtodos requieren, en general, el conocimiento de dos parmetros : la
esperanza matemtica y la varianza.
Ahora consideremos situaciones en las cuales no podemos hacer suposiciones referentes a los
parmetros de las variables, de aqu el trmino Estadstica no Parmetrica. Aplicaremos los
mtodos no parmetricos en las ocasiones en las cuales no tenemos motivos para suponer que las
variables son normales. Sin embargo como regla, los mtodos no parmetricos tienen menor
eficacia que los correspondientes mtodos paramtricos.
A.

Criterio de Wilcoxon de verificacin de la Homogeneidad de Dos Muestras.

El criterio de Wilcoxon trata de responder la siguiente pregunta : se puede unir dos o ms


porciones de datos estadsticos para formar una muestra comn, considerndola como una
muestra homognea ?. Si la respuesta es positiva, el investigador podr realizar clculos
posteriores con una muestra ms grande.
El criterio de Wilcoxon solo se aplica a variables continuas. Existen una versin equivalente de
este criterio, desarrollada por Mann y Whitney (1947).
Sean :
M1 = ( x1(1), x2(1),....., xn1(1) )
M2 = ( x1(2), x2(2),....., xn2(2) )
dos muestras, suponiendo que n1 n2
a) Se construye la muestra M = M1 M2 compuesta de n1 + n2 valores, ordenados en orden
creciente. En esta muestra solo nos interesa el orden (rango) de los elementos de cada serie.
b) Se calcula la suma de los rangos ri de los elementos de la muestra m1 :
W = r1 + r2 +....+rn1
Ejemplo : Dos formaciones geolgicas se comparan segn la ley de oro en gr/ton. Se obtuvieron
los datos siguientes :
Datos Formacin 1 : M1 = ( 4.7, 6.4, 4.1, 3.7, 3.9 )
Datos Formacin 2 : M2 = ( 7.6, 11.1, 6.8, 9.8, 4.9, 6.1, 15.1 )
Se construye ahora la muestra ordenada M1 M2, identificando los valores que pertenecen a M1
y M2 :
Datos de M1

M1 M2

3.7

3.9

4.1

4.7

4.9

6.1

6.4

6.8

7.6

9.8

11.1

15.1

Rango

10

11

12

Luego se tiene :Wo = 1+2+3+4+7 = 17


c) Regla de decisin :
Si la primera muestra presenta una desviacin sistemtica hacia los grandes valores, entonces
los valores xi(1) de la muestra M1 estarn al final de la serie M1 M2 y el valor de W ser
anormalmente grande. Si la muestra M1 presenta una desviacin sistemtica hacia los pequeos

108

valores, entonces los valores de la muestra M1 estarn al comienzo de la serie M1 M2 y el


valor de W ser anormalmente pequeo. En estos dos casos la hiptesis de homogeneidad de las
muestras debe ser rechazada.
En resumen la regla de decisin al nivel 1 - es :
i) Aceptar la hiptesis de homogeneidad si : WMn < Wo < WMx
ii) Rechazar la hiptesis en caso contrario
La tabla siguiente proporciona los valores de WMn y WMx para el nivel 1 - = 0.95.
n1

n2

WMn

WMx

3
3
3
3
3
3
3
3
3
3
3
4
4
4
4
4
4
4
4
4
4
4
5
5
5
5
5
5
5
5
5
5
5

5
6
7
8
9
10
11
12
13
14
15
5
6
7
8
9
10
11
12
13
14
15
5
6
7
8
9
10
11
12
13
14
15

6
7
7
8
8
9
9
10
10
11
11
11
12
13
14
14
15
16
17
18
19
20
17
18
20
21
22
23
24
26
27
28
29

21
23
26
28
31
33
36
38
38
43
46
29
32
35
38
42
45
48
51
54
57
60
38
42
45
49
53
57
61
64
68
72
76

Ejemplo : Comprobar si los datos de las formaciones geolgicas evidencian que la formacin 2 es
ms rica que la formacin 1.
109

Solucin : n1 = 5 , n2 = 7 WMn = 20 , WMx = 45 (segn tabla adjunta) y como Wo = 17,


entonces se debe rechazar la hiptesis de que las muestras son homogneas, luego la formacin
geolgica 2 es ms rica que la formacin 1.
B.

El Test de los Signos.

Un test no parmetrico excepcionalmente simple e intuitivo es el test de los signos. Este test
requiere disponer de dos muestras M1 y M2 de igual extensin y tomadas de a pares.
La hiptesis a comprobar es H0 : Las dos muestras corresponden a la misma variable aleatoria.
Se comprueba que no existe diferencia entre ambas muestras al examinar los signos de las
diferencias entre las parejas, los cuales deberan estar distribuidos uniformemente :
P( + ) = P( - ) =
Como regla de decisin se puede utilizar el test de 2; por lo menos se necesitan 10 parejas de
nmeros para que la comprobacin sea razonablemente sensitiva.
Ejemplo : La tabla siguiente muestra al nmero de obreros ausentes en dos turnos de una empresa
durante 16 das.
Tenemos 15 parejas de datos : no consideramos el da 7 porque los dos valores coinciden.
Da

Turno A

Turno B

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16

8
6
5
0
5
2
4
3
9
6
11
8
5
8
10
3

7
7
7
2
3
3
4
5
8
8
12
7
6
9
7
5

Diferencia
AB
+
+
+
+
+
-

Se tiene entonces que de las 15 diferencias, en teora 7.5 seran ( + ) y 7.5 seran ( - ) :
Diferencias Observado
Oi
+
5
10
k

D=

i =1

(Oi Ei ) 2
sigue una ley 21 : k = 2 , l = 0
Ei

110

Terico
Ei
7.5
7.5

de la tabla de la pgina 84 deducimos al nivel 0.95 que DMx = 3.841. Por otra parte :
(5 7.5) 2 (10 7.5) 2
D0 =
+
= 1.67
7.5
7.5
Conclusin : Los datos no justifican la inferencia de que existe una diferencia en el ausentismo de
los dos turnos.
C.

El Coeficiente de Correlacin de Rangos de Spearman.

Supongamos n individuos ordenados con respecto a dos caracteres A y B. Sea di = diferencia de


rangos del individuo i en ambas clasificaciones. Se define el coeficiente de correlacin de rangos
de Spearman por :
n
6 di 2
=1 i =1
n(n 2 1)
Ejemplo : Supongamos que tenemos 10 alumnos A, B, C,....,J clasificados por 2 profesores por
orden de capacidad. Los resultados de la clasificacin se presentan como sigue :
Alumno
Profesor 1
Profesor 2
di

A
2
3
1

B
1
2
1

C
3
1
-2

D
4
4
0

E
6
6
0

F
5
7
2

G
8
5
-3

H
7
9
2

I
10
10
0

J
9
8
-1

(lo anterior significa por ejemplo : para el profesor 1 el alumno A es el segundo en capacidad,
mientras que para el profesor 2 es el tercero en capacidad).
10
Se tiene que
d i 2 = 12 + 12 + (2) 2 + ..... + (1) 2 = 24 , n = 10
i =1
6.24
=1
= 0.85
10.99

El coeficiente de correlacin de rangos ha sido elaborado de manera que, en el caso de


clasificaciones idnticas (di = 0), vale 1.0 y, en el caso de la clasificacin ms discordante
posible (las clasificaciones son inversas), vale -1.0 (comprobarlo numricamente en el ejemplo).
Test de Hiptesis Respecto del Coeficiente de Correlacin.
En este prrafo nos hacemos la pregunta siguiente : cmo verificar la significancia del
coeficiente de correlacin ?
Para responder esta pregunta se puede encontrar el intervalo del 95 % de confianza para el cual
se determina segn el baco del anexo.

111

Ejemplo : En el ejemplo anterior, con n = 10 encontrar 0 = 0.855. Encontrar el intervalo de


confianza.

Fig.83
En el baco del anexo, se entra con el valor 0.855 y en las curvas para n = 10 se determinan los
puntos A y A los cuales proporcionan el intervalo del 95 % de confianza para : 0.45 0.95.
Podemos conclur que el grado de acuerdo entre los dos profesores es significativo.
Observacin : El baco del anexo tambin es aplicable al coeficiente de correlacin .

112

Anexo : Abaco para determinar el


intervalo de confianza para el
coeficiente de correlacin

113

Bibliografa
1.-

Sixto Ros

: Mtodos Estadsticos. Mc. Graw Hill,1967.

2.-

G. Bhattacharyya

: Statistical Concepts and Methods. Wiley, 1977.

3.-

A. Rickmers

: Introduccin a la Estadstica. CECSA, 1971.

4.-

S. Avazian

: tude Statistique des Dpendances. MIR, 1970.

5.-

J. Davis

: Statistics and data Analysis in Geology. Wiley, 1972.

114

Вам также может понравиться