Вы находитесь на странице: 1из 380

PROBABILIDAD

Y APLICACIONES ESTADISTICAS

Paul L. Meyer
Departamento de Matemticas
Wash ington Stale University

Versin en espmiol por


Cario P rado Campo
Departamento de stad tica
Instituto de Matemticas
Universidad atlica de hile

Con la colaboracin de
Germn Ardila ull ar
Departamento de Matemticas y stadistica
niversidad acional de olombia

..,'+. ADDISON-WESLEY IBEROAMERICANA


Argentina Brasil Chile Colomba Ecuador Espal"la
Estados Unidos Mxico Per Puerto Rico Venezuela
Prefacio a la primera edicin

Este texto est destinado para un curso de un semestre o para dos cursos trimestrale de in-
troducin a la teora de la probabilidad y algunas de su aplicaciones. El prerrequi ito (.'S
un ao de clculo diferencial e integral. o se supone conocimiento previo de probabilidad
o estadstica. En la Washington tate University, el curso para el cual este texto ue desarro-
llado ha ido enseado durante varios aos y, principalmente. a estudiantes gradundose en
ingeniera o en ciencias naturales. La mayora de tales estudiantes slo pueden dedicar un
semestre al estudio de esta materia. Sin embargo. como esos estudiantes estn fami liarizados
con el clculo. pueden empcwr dicho estudio ms all del nivel estrictamente elemental.
Mucho temas matemticos pueden ser presentados a diversos grados de dificultad. y
esto e realmente cierto de la probabilidad. En este texto e pretende aprovechar la ventaja
que suponen lo conocimientos matemticos del lector. sin sobrepasarlos. e usa en l un
lenguaje matemtico preciso. pero se tiene cuidado de no llegar a profundizar demasiado
en detalles matemticos innecesarios. Este no es ciertamente un libro de cocina. Aunque
e presentan y exponen varios conceptos de una manera informal, las deftnicione y los teo-
remas son enunciados cuidadosamente. Si no es po ible o deseable una demostracin deta-
llada de un teorema, al menos se da un bo quejo de las ideas ms importantes. Una de las
caracteristicas distintivas de este texto son las ob ervaciones que siguen a la mayora de
los teoremas y delinicione ; en ellas, el resultado particular o el concepto presentado es exa-
minado desde un punto de vista intuitivo.
Debido a la restric.cin autoimpuesta de escribir un texto relativamente breve sobre una
materia que abarca una extensa rea, hubo nece idad de seleccionar en relacin con la in-
clusin o exclusin de ciertos temas. Parece ser que no hay manera obvia de resolver este
problema. iertamenle, yo no sostengo que, para algunos de lo temas excluidos, no se podra
haber encontrado sitio; ni pretendo que ningn material poda haber sido omitido. Sin em-
bargo. e ha hecho hincapi en gran parte en las nociones fundamenla le , presentada con
detalle considerable. Solamente el captulo 11. obre confiabilidad, puede ser considerado
artculo de lujo; pero, aun aqu, creo que las nociones asociadas con problemas de confia-
bilidad son de inters para muchas personas. Adems, los conceptos de confiabilidad son
un medio excelente para ilustrar muchas de las ideas presentadas anteriormente en el li br9.
Aun si se piensa que la extensin ha sido limitada por el tiempo disponible, se ha logra-
do una seleccin amplia y razonable de temas. Una ojeada al Indice general muestra de ma-
nera evidente que unas tres cuartas partes del tex to trata de temas probabilstico mientras
la cuarta parte est dedicada a una exposicin de inferencia estadistica. Aunque no hay nada
de extraordinario en esta divisin particular del nfasis entre probabilidad y e tadstica,
creo que un conocimiento profundo de los principios bsicos de la probabilidad es imperati-
vo para una com.prensin propia de los mtodos estadsticos. Idealmente, un curso en pro-
babilidad debera ser seguido por otro en teora estadstica y metodologa ; sin embargo,
como indiqu anteriormente, la mayora de los estudiantes que toman este curso no tienen
tiempo para dos semestres de exposicin con estas materias y. por tanto. me sent obligado
l'rl'fiaclo ~11

a exponer al menos algunos de los aspectos ms importantes en el rea general de la inferen-


cia estad ist ica.
El ito potencial de una presentacin particular de la materia no debera cr juzgado
solmllt:nte en funcin de las idea e pccfica aprendidas y de la tcni a e pecifica adqui-
ridas; el juicio final debe tener en cuenta tambicn si el estudiante e t bien preparado para
continuar estudiando el tema bien por mismo o por medio de un curso formal adicional.
Si e considera que este criterio e importante, e hace evidente que debiera insistir e en los
i:onceptos b icos y en las tcnica fundamentalc . relegando al mismo tiempo lo mtodos
y lema muy e pccializados a un papel secundario. to tambin re ult r un factor impor-
tante en la dcci in obre temas a incluir.
Es dificil exagerar la importancia de la leoria de la probabilidad. El modelo matemtico
apropiado para el e tudio de un gran nmero de fenmeno observable es probabili tico
en vez de determini tico. dems, el tema completo de la inferencia estadstica est basado
en consideraciones probabilisti as. Las tcnica estadistica se cuentan entre algunas de las
herramienta ms importante de cientfico e ingenieros. Para poder utilizar e a tcnica
in1eligentemcnte e nece aria una profunda comprensin de lo conceptos probabilsticos.
Se espera que. adems de familiarizarse con muchos mtodos espcciticos y concepto ,
el lector desarrolle cierto criterio: pen ar probabilsticamente su tituyendo pregunta tales
como: ((,Durante cuimto tiempo t'uncionar c. te mecani mo 'h> por i. ul e la probabilidad
tic que e. te mecanismo funcione durante m - de ien horas'?. n muchas ituaciones, la e-
gunda pregunta puede no slo er la ms atinada sino. de hecho, la nica pertinente.
Tradicionalmente. mucho de lo concepto importantes de la probabilidad han sido
ilustrado con la ayuda de vario <<juegos de azar: lanza r monedas o dado , sacar cartas de
una baraja. hacer girar una ruleta. etc. Aunque yo no he evitado por completo referirme a
tales juego porque sirven para ilustrar bien nociones b icas. he intentando poner al estudian-
te con ilu tracione m pertinente de las aplicaciones de la probabilidad: la emi in de
partcula a de una fuente radiactiva. muestreo de lote, la duracin de instrumento elec-
tronicos y los problema asociado de mecanismos y confiabilidad del sisema . etc.
stoy reacio a mencionar una de las carncter. tica m importantes en cualquier texto
de matemticas: los problemas; y. in embargo, puede valer la pena ealar que el trabajar
con problemas debe er con iderado parte integrante del cur o. 610 mediante el acto per-
sonal de plantear y resolver los ejercicios puede el e tudiante de. arrollar una comprensin
y apreciacin de las idea. as como familiarizar e con las tcnicas pertinente . s por eso
4ue m de 3 O problema se han incluido en el texto y la respue tas a ms de la mitad de
ello figuran al final del libro.
E te libro ha sido e crito en una manera bastante consecutiva: la comprensin de la ma-
yora de los captulos requiere familiaridad con los anteriores; in embargo. e posible tratar
'upcrlcialmente con los captulos 10 y 11 i se e t interesado, en particular, en dedicar ms
tiempo a las aplicacione e iadsticas e aminada en lo captulos 13 a 15.
Como debe suceder a quienquiera que escribe un texto, debo estar agradecido a mu has
personas: a mis colegas, por muchas con ersaciones estimulantes y tile ; a mi propios
profesores, por el conocimiento del tema y su inters en l; a los revisore de la primeras
ersione del manuscrito, por sus muchas sugerencias tiles y criticas; a Addi oo-We ley
Publi hing Company, por su gran ayuda y cooperacin de de las primeras etapa de este
proyecto hasta su finalizacin; a la seorita Caro! loan. por ser una mecangrafa muy efi-
ccnlc y activa; a D. Van ostrand. lnc . The free Prcss. lnc. y Macmillan Publi hing om-
pany. por u~ permiso para reproducir las tablas 3. 6 y l, respectivamente; a McGraw-Hill
Book Company, lnc., Oxford niversity Pre . lnc., Pergamo11 Pres , Lld . y Prenticc-Hall,
lnc.. por us permiso para incluir cierto ejemplos en el texto; y, finalmente, a mi esposa.
~ Preraclo

no lo por la paciencia mantenida durante el esfuerzo ino tambin por dejarme y llevarse
a nue tros do hijo a visitar a sus abuelos durante dos cruciales meses de verano, durante
los cuales pude convertir nue tro hogar en un taller de ordenado pero tranquil , del cual
cm rgi milagro amente la ltima, final , versin de este libro.

Pullman. Wa.vhi11gto11 PAUL L. M EYER

Prefacio a la segunda edicin

En vista del considerable nmero de comentarios favorable que he recibido tanto de estu-
diantes como de profesores que han utilizado la primera edicin de e te libro se han hecho
en el relativamente poco cambios. Durante mi propio repetido u o del texto he encontrado
que su organizacin bsica y el nivel general de presentaci!l (p. ej. : la mezcla de argumento
matemticos riguro os con pre entaciones y ejemplos ms informales) on los ms apropia-
do para el tipo de e tudiante que toma este curso.
Sin embargo, e han hecho varios cambios y adicione . n primer lugar se hizo un esfuer-
zo para eliminar varias erratas de imprenta y otros errores que aparecieron en la primera
edicin. 1 autor est muy agradecido a los muchos lectores que, no . lo de ubrieron al-
gunos de ellos, sino que e interesaron lo uficiente como para indicrmelo .
n egundo lugar e intent hacer m clara las relaciones entre varia di tribucione
de probabilidades, de modo que el estudiante pueda conseguir una comprensin mayor de
cmo usar varios mocl.elo probabil ticos para aprollimarlos entre s.
inalmente, algunos problemas nuevos han sido aadidos a la ya larga lista incluida en
la primei;a edicin.
1 autor desea agradecer nuevamente a Addison-Wesley Publishing ompany u coo-
peracin en todo los aspectos que condujeron a esta nueva edicin .

P111/ma11, Washi11g1011 P. L. M .
lndic general

111i1ulu 1 Introduccin a la probabilidad


1.1 Modelo matemticos . . . 1
1.2 l ntrod uccin a los conjuntos . . . . . . . 3
1.3 Ejemplos de experimentos no deterministicos 7
1.4 1 espacio mue tral 8
1.5 ucesos . . JO
1.6 Frecuencia relativa 12
1.7 ocione bsica de probabilidad 13
1.8 Varia obser aciones . 16
Problema . . . . . . . . . . 18

( uptulo 2 Espacio-<> muestralcs finito


2.1 1espacio muestra! finito . 21
2.2 Resultados igualmente probables 22
2.3 Mtodo de enumeracin . 24
Problemas . . . . . 31

('ap tulo 3 Probabilidad condicional e independencia


3. 1 Probabilidad condicional . 34
3.2 Teorema de Bayes . . . . . 40
3. uccso independiente . . . 42
3.4 onsideraciones esquemtica ; probabilidad condiciona l e independencia 48
P roblemas . . . . . . . . 50

Captulo 4 ariables aleatorias unidimen ionalcs


4. l ocin general de una variable a leatoria 55
4.2 Variable! aleatorias discretas . 60
4.3 La distribucin binomial . . . . . . 63
4.4 Variables alea torias con tinuas . . . . 67
4.5 Funcin de distribucin acumulativa . 71
4.6 Distribuciones mixta 75
4.7 Variables aleatorias distribuida uniformenle 76
4. na ob ervacin 77
Problemas . . . . . . . . . 78
ix
\ lodlcc

aptulo S Funciones de variables aleatoria


5.1 Un ejemplo . . . . . . . . 83
5.2 Suceso equivalente . . . _ . 83
5.3 Variables aleatorias discretas . 86
5.4 Variable aleatoria continuas _ 88
Problema . . . . . . _ . _ 93

aptulo 6 Variables aleatorias bidimen ionales y de mayor dimensin


6.1 Variable aleatoria bidimensionales _ . . _ . . 95
6.2 Di tribuciones de probabilidades marginales y condicionales. 101
6.3 Varia les aleatoria independientes . . . _ . . _ _ . . . 105
6.4 Funciones de una variable aleatoria . . . . _ . . 108
6.5 Distribuciones del producto y el cociente de variables aleatorias indepen-
diente . . . . _ . . _ . . _ . . 112
6.6 Variabl aleatorias n-dimensionale 114
Problemas . . . _ . . . 117

Captulo 7 Otras caractersticas de la variables aleatorias


7.1 1 valor esperado de una variable aleatoria . . 120
7.2 E peranza de una funcin de una variable aleatoria 126
7.3 Variable aleatorias bidimensionales . 131
7.4 Propiedade del valor esperado . . . . . . _ . . 132
7.5 La varianza de una variable aleatoria. . . . . . . 138
7.6 Propiedades de la varianza de una variable aleatoria 140
7.7 Expresiones aproximadas para la esperanza y la varianza 143
7 .8 De igualdad de Che by hev . 146
7.9 El coeficiente de correlacin 148
7. 1O E peranza condicional . 152
7.1 1 Regresin del promedio 154
Problemas . . . . . . 158

aptulo 8 La variable aleatoria de Poisson y otras variables aleatorias


8. 1 La di tribucin de Poi son . . . . . . . . . _ . . 164
8.2 La di tribucin de Pois on como una aproximacin a la di lribucin bi-
nomial . . . . . . . . . 165
.3 El proceso de Poisson . . 170
8.4 La distribucin geomtrica 175
8.5 La distribucin de Pa cal . 178
8.6 Relacin entre la di tribuciones binomial y de Pascal' 179
8.7 La distribucin hipcrgeomtrica _ 180
.8 distribucin multinomial _ 181
Problemas . . _ . . 183

Captulo 9 Algunas variable aleatorias continua importante


9.1 Introduccin . . . . . . . . . 187
9.2 La distribucin normal_ . . . . . 187
9.3 Propiedades de la distribucin normal 188
9.4 Tabulacin de la distribucin normal . 191
9.5 La distribucin exponencial. . . . . 195
lndin ~

9.6 Propiedades de la distribucin exponencial 196


lJ .7 La dblribucin gama . . . , 199
9.~ Propiedade. de la di tribucin gama . . 201
9.9 distribucin de x-cuadrado . . . . ' 203
lJ. IO omparacin entre varias distribuciones '.!05
9. 11 La distribucin norma l bivariada 206
9. 12 Distribuciones truncadas . 208
Problemas . . . . . . . . . . 212

( 1111i111lo IO La funcin ;cncradora de momentos


10. 1 Introduccin . . . . . . . . . . . , . . . . 217
10.2 La funcin generadora de momentos . . . . . . 218
10.3 jcmplos de funcione gencrndoras de momentos. 219
10.4 Propiedades de la funcin generadora de momentos 221
10.5 Propiedades reproductiva 225
10.6 Sucesiones de variables aleatorias 229
10.7 ota final 230
Problemas . . . . . . , . 230

('1pitulo 11 Aplicaciones a I~ tc.'Ora de la confiabilidad


11. 1 Conceptos bsicos . 233
11.2 La ley normal de falla . . . . . . . . 236
11.3 La ley exponencial de fallas . . 237
11.4 la ley exponencial de fallas y la distribucin de Poi son . 240
, 1.5 La ley de fallas de Weisbull . 242
11.6 Confiabilidad de los sistemas 243
Problemas . . . . 247

Caplulu 12 Sumas de \'ariables aleatoria


12. 1 lnlroduccin .. , . . . . . . . . . . 252
12.2 La ley de los grandes nmeros . . . . . . 252
12.3 Aproximacin normal a la dis1ribucin binomial . 255
12.4 1 teorema del lmite central . . . . . . . . . 259
12.5 Otras distribuciones aproximadas por la di tribuein normal : Poi son.
Pascal y gama . , . , . . . . , . , , . . . . . . , , , . . 264
12.6 La di stribucin de la suma de un nmero finito de variables aleatoria 265
Problemas . . . . . . . . . . . . . . . . . . . . . . . 270

Captulo 13 Muestras y distribuciones mue trall-s


13. I 1ntroduccin . . , 273
13.2 Muestras aleatoria s . . . . . . 274
13.3 Estadgrafos , . . . . . . . . 277
13.4 Algunos cstadigrafo importa nte 277
13.5 La transformacin integral 284
Problemas . . . . . . . . 27

Ca1>tulo 14 Estimacin de los parmetro


14. I Introduccin . . . . 290
14.2 Criterios para e timadores 291
14.3 Algunos ejemplos . . . . 294
, Indice

14.4 stimadore de mxima verosimilitud 298


14.5 1mtodo de los mnimo cuadrados. 307
14.6 El coeficiente de correlacin 310
14.7 Intervalos de confianza. . . . . . . 311
14.8 La di tribucin t de Studcnl 313
14.9 M sobre los intervalos de confian1.a 315
Problemas . . . . . 319

aptulu 15 Docimasia de hiptesis


15.1 Introduccin . . . . 324
15.2 Formulacin general: distribucin normal con varianza conocida 329
15.3 Ejemplos adicionales . 333
15.4 Dcima pam la b ndad de ajuste 336
Pro lemas 343
Referencias 346
Apndice . . 348
Respuesta a problema. cleccionados. 362
Indice de materias . 368
Introduccin a la probabilidad

1.1 Modelo matemticos


En e te captulo e tratar el tipo de fenmeno de que no ocuparemos en
t:'tc libro. Adems, formularemos un modelo matemtico que no ervir para
111vc.stigar en forma bastante preci a, e te fenmeno.
Al principio e muy importante di tinguir entre el fenmeno ob ervable
l'I\ s mismo y el modelo matemtico para dicho fenmeno. videntemente, no
1nluimo en manera alguna sobre lo que observamos; in embargo, al elegir
un m delo podemos aplicar nuestro juicio crtico. E to ha sido muy bien ex-
p1 ado por el Profesor J. Neyman, quien escribi*:
ada vez que utilizamo las matemticas con el objeto de estudiar fenmenos obser-
vable es indi pensable empezar por construir un modelo matemtico (determin tico o
probabilstico) para esto fenmeno . Necesariamente, este modelo debe simplificar las
cosas y permitir la omisin de ciertos detalles. El xito del modelo depende de si los detalles
que e omitieron tienen o no importancia en el desarrollo de los fenmeno e tudiados.
a solucin del problema matemtico puede ser correcta y an as estar muy en desacuer-
do con los datos observados, debido encillamente a que no estaba probada la validez
de la suposiciones b icas que se hicieron. Corrientemente, es bastante dificil afirmar
con certeza s un modelo matemtico es adecuado o no, antes de obtener alguno dato ,
mediante la observacin. Para verificar la validez del modelo, debemos deducir un cierto
nmero de consecuencias del mismo y luego comparar .con las observaciones e o re-
sultados predichos.

Tendremo presente la ideas anteriore mientra e ternos considerando


tlgunos fenmenos obtenidos en la observacin y los modelo apropiado para
u de cripcin. Examinemo primero lo que podra llamar e adecuadamente un
modelo determin tico. As de ignamo al modelo que estipula que la condiciones
bajo las cuales se verifica un experimento determinan el resultado del mi mo.
1 or ejemplo, si colocamos una batera en un circuito simple, el modelo matem-
tico que posiblemente describira el flujo ob ervable de corriente era I = E/ R,
que es la ley de Ohm. El modelo predice el valor de I tan pronto como se dan

University o/ California Publicatiom in S1111i11b. Vol. 1, Univer ity of California


l'rcss. 1954.
2 lnrroduccin a 1 pro:,11bilidad 1.1

E y R. n otras palabras. si se repitiese el experimento anterior cierto nmero


de veces, empleando cada vez el mismo circuito (esto e , manteniendo fijos E y R)
posiblemente hubiramos esperado observar el mismo valor de l. Cualquier
desviacin que pudiese ocurrir sera tan pequea que la mayor parte de Jos ob-
jetivo de la de crpcin anterior (que e el modelo) se cumpliran. La realidad
e que la batera, el alambre y el ampermetro utilizados para generar y medir la
corriente y nue tra destreza para usar los instrumentos de medida, determinan
el resultado de cada repeticin. (Hay ciertos factores que pueden muy bien er
di tintos de repeticin en repeticin que. sin embargo, no afectarn el re ultado
de una manera notable. Por ejemplo, la temperatura y la humedad en el labo-
ratorio, o bien la altura de la persona que lee el ampermetro e puede con iderar,
con razn. que no tienen influencia en el resultado).
Hay muchos ejemplos de experimentos en la naturaleza para Jos cuale los
modelos dctermin ticos on apropiado . Por ejemplo, las leye gravitacionales
describen muy exactamente lo que sucede a un cuerpo que cae bajo ciertas con-
dicione . Las leyes de Keplcr nos indican el comportamiento de los planetas.
En cada caso, el modelo seala que las condiciones en Ja cuales se verifican ciertos
fenmeno determinan el valor de ciertas variables observables: la magnitud de
la velocidad, el rea recorrida durante cierto perodo de tiempo, etc. Estas cifras
aparecen en muchas de la frmulas con las cuales e tamos familiarizados. Por
ejemplo, sabemos que bajo ciertas condiciones Ja distancia recorrida (vertical-
mente sobre el suelo) por un objeto est dada por: s = - 16t 2 = v0 t, en donde 110
es la velocidad inicial y t es el tiempo empleado. Lo que queremo de tacar no
es la forma particular de la ecuacin anterior (que es cuadrtica), ino el hecho de
que hay una relacin definida entre t y s. que determina unvocamente la cantidad
del primer miembro de la ecuacin, si se dan las del egundo miembro.
n mucho casos el modelo matemtico determinstico descrito anteriormente
es suficiente. Sin embargo, hay tambin muchos fenmeno que nece itan un
modelo matemtico distinto para su investigacin. Esos son lo que llamaremos
modelos no determinsticos o probabilsticos. (Otro trmino muy u ado es modelo
e.,tocstico). Posteriormente, en este captulo consideraremos en forma muy
pn:c.isa cmo e pueden de cribir tales modelos probabilsticos. De momento
consideraremos unos pocos ejemplos.
Supongamos que tenemo un pedazo de material radiactivo que emite par-
tculas a. Con la ayuda de un dispositivo para medir, podramo registrar el n-
mero de partculas emitidas durante un determinado intervalo de tiempo. E
evidente que no podemos predecir exactamente el nmero de partculas emitidas,
aunque sepamos la forma exacta, la dimensin, la composicin qumica y Ja masa
del objeto que se considera. A no parece haber un modelo determinstico razo-
nable que nos indique el nmero de partculas emitiaas, digamos n, como una
funcin de varias caractersticas propias de la fuente de radiactividad. En su
lugar, debemos con iderar un modelo probabil tico.
A manera de otro ejemplo consideremos la siguiente situacin meteorolgica.
Deseamos determinar cunta lluvia caer debido a una tormenta que pasa por
una zona especfica. Los instrumentos para registrar la cantidad de lluvia e tn
1.2 Introduccin a lo conjuntos

hst s. as ob ervaciones meteorolgicas pueden darnos mucha informacin del


frente de mal tiempo que se aproxima: la presin baromtrica en diversos puntos,
los cambios de presin, la velocidad del viento, el origen y la direccin de la tor-
rn nta, y adems otros datos tomados a gran altura. Pero esta informacin tan
valiosa como es para predecir de modo muy general la forma de la precipitacin
(ll bil, regular, intensa), encillamente no permite indicar con mucha exactitud
cunta lluvia caer .. De nuevo, estamo considerando un fenmeno que por s
m1 mo no se presta a un tratamiento determinstico. Un modelo probabilstico
d scribe la situacin con mayor exactitud.
En principio podramos indicar cunta lluvia cay, si la teora se hubiera
desarrollado (lo que no se hizo). Por lo tanto, usamos un modelo probabilstico.
~n el ejemplo relacionado con la desintegracin radiactiva, debemos u ar un
in delo probabilistco an en principio.
Aun a riesgo de adelantarnos a di cutir uri concepto que se definir m tarde,
indiquemos simplemente que en un modelo determinstico se supone que el re-
sultado real (sea numrico o de otra especie) est determinado por las condiciones
hajo las cuales se efecta el experimento o procedimiento. En un modelo no de-
l rminstico, sin embargo, las condiciones experimentales determinan solamente
el comportamiento probabil tico (ms especficamente, la distribucin proba-
ilstica) de los resultado observables.
n otras palabras, en un modelo determinstico utilizamos consideraciones
fisicas para predecir el resultado, mientras que en un modelo probabilstico
u amos la misma cla e de consideraciones que para e pecificar una distribucin
de probabilidades.

1.2 Introduccin a los conjuntos


Con el fin de discutir los conceptos b icos del modelo probabil tico que
deseamos desarrollar, ser muy conveniente tener presente algunas idea y con-
ceptos de la teora matemtica de conjuntos. Este tema es muy extenso y se ha
e crito mucho acerca de l. Sin embargo, aqu slo necesitaremo alguna no-
ciones bsicas.
Un conjunto e una coleccin de objetos. Comnmente los conjuntos se de-
ignan con letras maysculas A B, etc. para describir qu objetos estn contenido
en el conjunto A, se dispone de tres mtodos.
(a) Podemos anotar los elementos de A. Por ejemplo, A = {1, 2, 3, 4} indica
el conjunto que contiene los enteros positivos 1, 2, 3 y 4.
(b) Podemos describir al conjunto A con palabras. Por ejemplo, podramos
decir que A e t formado por todos los nmeros reales entre O y 1, inclusive.
(c) Para describir el conjunto anterior, simplemente podemos escribir
A = {x 1O ~ x ~ 1}; es decir, A es el conjunto de todas las x, en donde x es un
nmero real comprendido entre O y 1, inclusive.
Los objetos que forman la coleccin del conjunto A se llaman miembro.~ o
elementos de A. Cuando a es un elemento de A escribimos a e A y cuando a
no es un elemento de A escribimos a; A.
4 lntroducci n a la probabilidad 1.2

Hay do conjunto e peciales que a menudo son de inters. En la mayor parte


de los problema , estamo interesado en el estudio de un conjunto definido de
objetos, y no de otros, por ejemplo, en todos los nmeros reales, en todos lo ar-
tculos que salen de una lnea de produccin durante un perodo de 24 horas, etc.
Definimos el conjunto universal como el conjunto de todos los objetos que se con-
sideran. Corrientemente este conjunto se designa U.
Otro conjunto que se debe destacar especialmente, puede aparecer como
sigue. Supongamos que se de cribe el conjunto A como el conjunto de todo los
nmeros reales x que satisfacen la ecuacin x 2 + 1 = O. Evidentemente sabemos
que no pueden existir tales nmeros. El conjunto A no contiene ningn elemento!
Esta situacin ocurre tan a menudo que ju tifica la introduccin de un nombre
especial para tal conjunto. Por lo tanto, definimos el conjunto nulo o vaco como
el conjunto que no contiene elementos. Generalmente este conjunto se desgina ~
Puede suceder que dados dos conjuntos A y B un elemento de A es tambin
un elemento de B. En tal caso se dice que A es un subconjunto de B y se escribe
A e B. Se da una interpretacin emejante a B e A. Decimos que dos conjuntos
son el mismo A = B, si y slo si A e By B e A. Esto e , dos conjuntos son iguales
si y slo si contienen los mismos elementos.
Las dos propiedades siguientes del conjunto nulo y del conjunto univer al
son inmediatas.
(a) Para cualquier conjunto A, se tiene ~ e A.
(b) Una vez que el conjunto universal e ha acordado, entonce para cual-
quier conjunto A considerado que e t en U, tenemos A e: U.

EJEMPLO Suponga que U = todos los nmeros reale , A = {x j x 2 +


1.1 .
2x - 3 = O} B = {x 1(x - 2)(x 2 + 2x - 3) =O}. y e= {x 1X= - 3, 1, 2}. n-
tonce A e B y B = C.

Ahora con ideremos la idea importante de combillar conjunto dado con el fin
de formar un nuevo conjunto. Se consideran dos operaciones bsicas. Estas son
paralelas, en ciertos a pectos, a las operaciones de suma y multiplicacin de
nmeros. Supongamos que A y B son dos conjuntos. Definamos C como la unin
de A y 8 (algunas veces llamada la suma de A y de B) de la manera siguiente:
C = {x 1x e A o x e B (o ambos)}.
cribimos C = A u B. As C est formado por elementos que estn en A , o en B,
o en ambo.
Definimos D como la interseccin de A y B (algunas veces designado como
el producto de A y B) como sigue:
D = {xjxeA y xeB}.
Escribamos esto como D = A ri B. Es as como D po ee todos los elementos que
estn en A y en B.
Finalmente presentamos la idea del complemento de un conjunto A como
sigue: el conjunto designado por A, formado por todos los elementos que no
1.2 lntrodun: 111 11 ' " ' conjunto ~

l'.tn en A (sino en el conjunto universal U) se llama el complemento de A .


1-st es, A = {xlx!IA).
S puede usar con mucha ventaja un recurso grfico conocido como grfico
1/c e11n cuando se combinan conjunto de Ja manera indicada anteriormente.
h1 cada uno de los grficos de la figura 1.1 , la regin sombreada repre enta el
nmJ unto con iderado.

Au B AnB
o A

FtG RA 1.1

ElEM Pt.O 1.2. Supngase 4ue = {1,2,3,4,5,6, 7.8,9. 10}; A= {1,2,3,4}.


IJ {3. 4,5, 6}. Hallam que 74 = {5,6,7,8,9,10}, AuB ={ l ,2, 3, 4, 5, 6} y
11 8 = {3,4}. Ntese que al describir un conjunto (tal como A u B) anotamo
cada elemento exactamente una vez.

Las operaciones an teriores de unin e in ter eccin defin idas ju ta mente para
d( s conJUnlo. pueden e tender e de una manera ob ia para cualquier nmero
1111110 de conjunto. s definimos A u B u como A u (8 v C) o (Av B) u .
que es el mi smo. como fci lm ente e puede verificar. De igual manera. definimos
1 11 B 11 como A ri (B ri C) o (A ri B) 11 que. tambin . puede ver ificar e que
~nn igua les. Y es evidente que p demos c ntinuar e as con. trucciones de conjun-
tos nue o con cualquin nmero finito de conjunto dados.
firmbamo . que ciertos conjunt s eran lo mi mo. por ejemplo A 11 (8 ri C)
(A n B) n . Re ulta que hay un nmero de tale conjuntos eq11iva le111 es. a lgu-
nos de los cuales e indican ms adelante. i recordamo que dos conjuntos on
iguale siem pre que contengan los mis mo elementos. es fcil verificar que 1
1.:nunciados establecidos on crdadero . :: 1 lector debe convencerse por . mismo
l'On ayuda de los diagrama , de Venn .
(a) A u B = Bu A, (b) A n B = B 11 A.
( 1.1)
(e) A u (8 u ) = (A v B) v C. (d) A n (B n ) = (A 11 B)n C
o referimo a (a) y (b) como ta propiedade conmutativas, y (c) y (d) como las
propiedade asocial ivas.
Hay otro conjuntos identidades que contienen unin, interseccin y comple-
mentacin. Lo m imp rtantes de esto e indican a continuacin. n cada ca o ,
su va lidez puede verificar e con ayuda de un diagrama de Venn.
6 lnlroduc in a la probabilidad 1.2

(e) A u (B n ) = (A u B) n (A u ).
(1) A n (8 v C) = (A n B) v (A n },
(g) A n ~ = ~. ( l.2)
(h) A u~= A_:_ (i) 0 u B) = A n B_
(j) (A n B) = A u B, (k) A = A.
Observamos que (g) y (h) indican que ~ se comporta entre lo conjuntos (con
respecto a ta opcracione u e n) como lo hace el nmero cero entre nmeros
(con respecto a tas operacione de suma y multiplicacin).
Para lo que sigue e necesita una construccin adiciona l de un conjunto.
dados do (o m ) conjunto .

Definicin. ean A y B dos conjuntos. Indicaremos como el producto carte-


siano de A y Be crito c m A x B al conjunto {(a. b). a e A.be B}. esto e .
el conjunto de todo lo pares ordenado en d ndc el primer elemento
e toma de A y el egundo de 8.

EMPLO 1.3. Sea A = { l,2, 3}; B = :1.2.3.4}.

ntonces A x B ={ (1, 1). (1.2)..... (1.4). (2. 1)..... (2.4). (3.1) ..... (3.4)}.

Obsen1aci11 : en general A x B 'I' B x A.

La nocin anterior puede extenderse como sigue: A 1 A,. n conjuntos.


entonce A 1 x A 2 x x An = {(a,a ... , a,,), a 1 eA;}, e to e el conjunto de
todos lo n-tuplos ordenados.
n caso especialmente importante ararece cuando l mamos et producto
carte iano de un conjunto consigo mi ' mo. esto es. A x A A x x A. JCm-
plos as aparecen cuando nos relacionamos con el plano euclidano. R x R , en
donde R e el conjunto de todos Jo nmeros reale y el espacio euclidiano tri-
dimen ional se representa R x R x R.
1 nmero de elementos en un conjunto nos ser de mucha utilidad. Si hay
un nmero fin ito de elementos en A. digamos a 1 a 2 , . a., decimos que A e
finito. Si hay un nmero infinito de elemento en A que pueden ponerse en una
correspondencia uno-a-uno con los entero p sitivo , decimos que A es contable
o infinito numerable. (Se puede demo trar por ejemplo, que el conjunto de todo los
nmero racionales es infinito pero contable). inalmente debemos con iderar el
ca o de un conjunto infinito no numerable. Tales conjuntos contienen un nmero
infinito de elementos que no pueden .;er enumerado . Se puede demo trar, p r
ejemplo, que para do nmeros reale cuale quiera b > a, el conjunto A = {x 1a ~
x :S: b} tiene un nmero no numerable de elementos. Pue to que debemos asociar
con cada nmero real un punto obre la recta de lo nmero reales, lo anterior
expresa que cualquier intervalo (no degenerado) contiene m de un nmero
contable de punto .
1, \

Los conceptos presentado anteriormente, aunque repre cntan slo un breve


bosquejo de la teora de conjuntos, on suficiente para nuestro propsito: de cribir
, 1111 ri~or y precisin con iderable , la ideas b icas de la teora de la probabilidad.

1. \ 1qcmplo de experimentos no detcrminsticos

l .stamo ahora listos para di cutir lo que entendemo por un experimento


"1katorio o no determinstico. (M preci amente, daremos ejemplo de
h11menos para lo cuales los modelos no determin tico on apropiados. E ta
1 una di tincin que el lector deber mantener presente. A no referircmo
11 ucntemente a experimentos no dctenninsticos o aleatorios, cuando en realidad
1 t.11110 hablando de un modelo no determin tico para un experimento). o
111 tenderemos dar una definicin preci a de diccionario para este concepto. En u
lu ar. daremo numero o ejemplos que la ilu tran.
e lanza un dado y e observa el nmero que aparece en la cara uperior.
Se lanza una moneda cuatro vece y se cuenta el nmero total de cara
obtenidas.
l . I . e lanza una moneda cuatro vece y se observa la suce in de caras y sellos
obtenido.
l .. . Se fabrican artculos en una lnea de produccin y e cuenta el nmero de
artculo defectuo o producidos en un perodo de 24 hora .
El ala de un aeroplano e arma con un gran nmero de remaches. e cuenta
el nmero de remaches defectuo os.
'h. e fabrica una bombilla. uego se prueba u duracin ponindola en un porta-
lmparas y se anota el tiempo transcurrido (en hora ) hasta que se quema.
J. ,: n un lote de 10 artculos hay 3 defectuo os. e elige un artculo de pu
de otro ( in ustituir el artculo elegido) hasta que se obtiene el ltimo artculo
defectu o. Se cuenta el nmero total de artculos acado del lote.
e fabrican artculos hasta producir 10 no defectuo os. Se cuenta el nmero
total de artculo manufacturado .
Se lanza un proyectil. De pus de un tiempo determinado L, e anotan la
tre componente de la velocidad v.,, vr y .
'~ 1o: Se observa un proyectil recin lanzado en tiempo , L" t 2 , ... , t". En cada
oportunidad se anota la altura del proyectil obre el suelo.
Medir la re istencia a la tensin de una barra de acero.
De una urna que contiene lo esferas negras. e e coge una e fcra y se
anota u color.
,, 1 l: Un termgrafo anota la temperatura, continuamente, en un perodo de 24
hora . En un sitio y en una fecha ealado , leer dicho termgrafo.
n la ituacin descrita en E 13 , e anotan x e y, la temperatura mnima y
mxima del perodo de 24 horas considerado.

Qu tienen en comn los experimento anteriore ? Los iguiente a pectos


~on importantes para nue tra descripcin de un experimento aleatorio.
11 Introduccin a la probllbilidlld 1.4

(a) Es posible repetir cada experimento indefinidamente sin cambiar e encial-


mente las condiciones.
(b) Aunque en general no podemo indicar cul er un resultado pal'ticular,
podemos describir el conjunto de todos los resultados posible del experimento.
(c) A medida que el experimento e repite. los resultado individua le parecen
ocurrir en forma caprichosa. Sin embargo, como el experimento e repite un gran
nmero de veces, aparece un modelo definido de regularidad. Esta regularidad
hace posible la construccin de un modelo matemtico preciso con el cual ana liza-
mo el experimento. Tendremo ms que d cir acerca de la natura leza e importancia
de e ta regularidad m adelante. Por el momento, el 1 ctor necesita pensar sola-
mente en lanzamiento repetido de una moneda regular. Aunque las caras y ello
aparecern. suce ivamentc, de una manera casi arbitraria, e bien conocido el
hecho emprico de que, despus de un gran nmero de lanzamento , la proporcin
de caras y ellos eri1 aproximadamente igual.
Debe notarse que lodos lo experimentos de critos anteriormente ali faccn
e tas caractersticas generales. { aturalmente. la ltima caracter tica mencionada
solamente e puede verilicar por experimentacin: deJaremo a la intuicin del
lector creer que i el experimento se repitie e un gran nmero de vece la regularidad
mencionada era evidente. Por ejemplo, i e probase un nmero de bombillas del
mismo fabricante. posiblemente el nmero de bombillas quemadas en m de 100
hora . digamo . podra cr predicha con bastante exactitud). te e que el expe-
rimento E 1 2 tiene la peculiaridad de que slo es posible un resultado. ~ n general
tale experimentos no sern de inter . por el hecho de que no sabemos qu resul-
tado particular ocurrir cuando e rea lice un experimen.o y qu lo hace interesante
para nosotr s.
Observacin : a l describir los diversos experimentos, hemo especificado no slo el pro-
cedimiento que se realiza sino que tambin lo que estamos interesados en observar (ver. por
ejemplo. la diferencia entre E 2 y E3 mencionado, previamente). stc es un punto muy impo r-
tante a l cual nos referiremos mil adelante cuando discutamos las variable aleatorias. Por
el momento. observemos simplemente que, como una consecuencia de un solo procedimien-
to experimental o la ocurrencia de un olo fenmeno, e pudieron calcular vados valores
numrico diferentes. Por ejemplo, si se escoge una persona entre un gran grupo de personas
(y la eleccn propiamente dicha se hace segn el procedimiento experimental indicado pre-
viamente), podramos estar interesados en la altura. peso, ingreso anual. nmero de niiios, etc.,
de la persona. aluralmente, en la mayora de los casos sabemo , antes de comenzar nuestro
cxpcrimen10. las caracteristicas numricas que nos interesan.

1.4 El espacio mue tral


Definicin. 'on cada experimento 1: del tipo que con ideramos. definimos el
espacio muestra/ como el conjunto de todos lo re ultados po ible de e.
Usualmente de ignamos este conjunto como S. ( n nuestro contexto, S
repre enta el conjunto univer al de crito previamente).
onsidercmos cada uno de Jos experimento anteriores y describamos el e pacio
muestra! de cada uno. El espacio muestra! S 1 se referir al experimento E;.
....
s, : {1.2.3. 4.5, 6}.
,\', : {O. 1, 2. 3, 4}.
S 1 : {T da la uce iones posible de la. forma a 1 a 2 , a 3 a4 en donde cada
a, = o S egn si aparece cara o ello en el i-simo lanzamiento}.
S4 : { O, 1, 2, ... , N} , en donde N es el nmero mximo que pud er producido
e n 24 hora .
s~ : {O, 1, 2, ... , M}. en donde M e el nmero de remache instalados.
S., : { tjr ~ O} .
.\'7: { .4.5,6,7,8,9,10}.
SN : {JO, 11, 12}.
\,, {vx. v1 , v,jvx, v,, : nmeros reale }.
"i111: {h., ... ' hnlh;;;::; o, i = 1,2-; .... .. n}.
S11 : { S[S~O}.
S 1 {e fera negra} .
,"i 1 1: ste espacio mue tral es el ms importante de lo que aqu con ideramos.
Debemo suponer prcticamente que la temperatura en cierta loca lidad
especfica nunca puede ubir o bajar con relacin a cierto valore , digamo
M y m. uera de e ta restriccin, debemo admitir la posibilidad de que
aparezca cualquier grfico con determinada caractersticas. Po iblemente
el grfico no tenga saltos (e to e , repre entar una funcin continua).
Adems el grfico tendr cierta caracter tica de uavidad que pueden
resumir e matemticamente a l decir que el grfico repre enta una funcin
diferenciable. As podemos enunciar finalmente que el e pacio mue tral es
{flf una funcin diferenciable, que satisface m 5. f(c):::;; M , para todo e}.
S14: {(x,y)im 5. X 5. y:::;; M }. Es decir. s,4
consta de todos los punto que e tn
sobre y en un tringulo en el plano bi-dimensional x, y.

(1'11 este libro no no prnocuparemo por lo e pacios muestrale de la 'complejidad


ncontrada en S 13 . Sin embargo, tale e pacio muestrales aparecen, pero para
u estudio se necesitan matemtica ms avanzadas que las que pre uponemo .)

A fin de de cribir un e pacio mue tral a ociado c n un experimento. debemos


tener una idea muy clara de lo que medimos u ob ervamo . Por tanto, deberamos
hablar de un espacio mue tral a ociado con un experimento en vez de el
spacio muestra!. A e te repecto ob rve e la diferencia entre S 2 y 3 .
Ntese tambin que el resultado de un experimento no neoesita er un nmero.
Por ejemplo, en E 3 cada resultado es una uce in de cara y ellos. En E9 y E 1 o
cada resultado consiste en un vector, mientras que en E 13 con i te en una funcin.

er importante di cutir de nuevo el nmero de resultado de un e pacio mues-


tra!. Surgen tre posibilidades: el e pacio muestral puede ser finito, infinito nume-
rable, o infinito no numerable. Refirindonos a los ejemplo anteriore notemos
ue Si. S 2 , S 3 , S4, S s. S1, y S 12 on finitos, S 8 e infinito numerable, y S6 S9, S 10.
S11 , S13, S 1 4 son infinito no numerable .
10 Introduccin a la probabilidad 15

A e ta altura podra er tl comentar la diferencia entre un e paco mue tral


matemticamente idealizado y uno realizable experimentalmente. Para este
propsito, consideremos el experimento E6 y su e pacio muestra! a ociado S6 . Es
evidente que cuando anotamos el tiempo total t durante el cual funciona una
bomblla, somos vctimas de la precisin de nuestros instrumentos de medida.
Supongamos que tenemos un instrumento que es capaz de anotar el tiempo con
dos cifras decimales, pqr ejemplo, 16,43 horas. Con esta restriccin impuesta
nuestro espacio muestra[ llega a ser infinito numerable: {0,0; 0,01; 0,02, ... ,).
Aun ms, es muy realista suponer que ninguna bombilla puede durar posiblemente
ms de H horas, donde H podra ser un nmero muy grande. As, parece que si
somos completamente realistas en la descripcin de este espacio muestra[, estamos
considerando un espacio muestra! finito: {0,0; O01; 0,02, ... , H}. El nmero total
del resultado era (H/0,01) + 1, que sera un nmero muy grande aun si Hes
moderadamente grande, por ejemplo, H = 100. Resultara matemticamente
ms simple y conveniente, suponer que rodos los valores de t ~ O son resultad9s
posibles y por tanto considerar el espacio muestra! S6 como se defini originalmente.

1.S Sucesos

Otra nocin bsica es el concepto de un suceso. Un suceso A (respecto a un espa-


cio muestra! particular S asociado con un experimento ) es simplemente un
conjunto de resultados posibles. En la terminologa de conjunto , un suceso es
un subconjunto del espacio muestra! S. En vista de nuestra discu in previa, e to
significa que S mismo es un suceso y tambin lo e el conjunto vaco !IJ. Cualquier
resultado individual puede tambin ser considerado como un suceso.
Los siguientes son ejemplos de sucesos. Otra vez, nos referimos a los experi-
mentos anotados anteriormente: A se referir a un suceso asociado con el expe-
rimento E;.

A1: Un nmero par ocurre; esto es, A, = {2,4, 6}.


A2: {2}; es decir, ocurren dos caras.
A3 : { CCCC, CCCS, CCSC, CSCC, SCCC}; es decir, salen ms caras que sellos.
A4 : {O}; es decir todos los artculos fueron no defectuosos.
As: {3, 4, ... , M}; es decir, ms de dos remaches fueron defectuosos.
A6: {rlt < 3}; e decir, la bombilla se quema en menos de tre horas.
A14: {(x, y)IY = x + 20}; e decir el mximo es 20 mayor que el mnimo.

Cuando el espacio muestra! S e finito o infinito numerable, todo subconjunto


se puede considerar como un suceso. [Es un ejercicio fcil de verificar, y que hare-
mos en breve, si S tienen elementos, hay exactamente 2n subconjuntos (suceso ).]
Sin embargo, s Se infinito no numerable. aparece una dficultad terica. Re ulta
que cualquier subconjunto concebible no se puede considerar como un suceso.
Por razones que escapan al nivel de esta presentacin, cierto subconjunto ~<no
admisibles)) deben ser excluidos. Afortunadamente tales conjuntos no admisibles
J,"I SU'SOS 11

110 aparecen realmente en la aplicaciones y, por lanlo, no no intere arn aqu.


1 n lo que igue e upondr tcitamente que cada vez que mencionemo un uceso
1 d la cla e que nos est permitido con iderar.
Podemos usar ahora lo diver o mtodos para combinar conjuntos (e decir,
u~ sos) y obtener lo nuevo conjuntos (es decir, uceso ) que presentamos al
0111 1cn1 .

(a) i A y B son uceso , A u Bes el uceso que ocurre si y slo si A o B (o ambos)


ocurren.
(b) i A y B son suce o , A 11 Bes el suce o que ocurre si y slo si A y B ocurren.
(c) Si A es un uce o, A e el uceso que ocurre i y lo si A no ocurre.
(d) Si A., ... , A" es cualquier coleccin finita de ucesos, entonces u7 = 1 A
l'' el uccso que ocurre si y slo si al menos un~ de lo sucesos A; ocurre.
(e) Si A., .. ., A" es cualquier coleccin finita de uce os, entonce 11r . 1 A;
e~ el suceso que ocurre i y slo si todos los sucesos A; ocurren.
(f) Si A 1 , , A" e cualquier coleccin infinita (numerable) de uceso ,
ntonce V;= 1 A es el suce o que ocurre i y lo si a lo menos uno de lo suce os
, ocurre.
(g) Si A i. . . . , Am ... e cualquier coleccin infinita (numerable) de suceso ,
l.'ntonces 11; ~ 1 A 1 e el uccso que ocurre si y lo i todos los suceso A1 ocurren.
(h) Supnga e que S repre enta el espacio muestra! asociado con un experi-
mento e y realiza e dos vece . Entonces S x S se puede utilizar para represent~r
todos los re ultados de e a do repeticiones. E decir (s., s2 )e x S ignifica
que s 1 re ult cuando se realiz e la primera vez y 2 cuando e se realiz la se-
gunda vez.
(i) videntemente, el ejemplo h se puede generalizar. Con idcremo n repeti-
cione de un experimento e cuyo espacio muestra! e S. Entonces S x S x x S =
{(s 1. s 1 , .. .. sn), S e S, i = l, ... , n} repre enta el conjunto de todo los re ultado
p ible cuando r. se realiza n vece . n cierto entido, S x S x x S es un
espacio muestra! en s mi mo, o ea el espacio muestra! aso iado con n repeticiones
de e.

Definicin. e dice que dos sucesos, A y B, ~on mutuamente excluyentes si no


pueden ocurrir junto . Expresamos e to e cribiendo A 11 B = ~; e decir.
la interseccin de A y Bes el conjunto vaco.
EJEMPW 1.4. St.: prueba un artefacto electrnic y se anota el tiempo tota l de
uso, digamos 1. Supongamo {tlt ~O}.
Sean A, B, y C tres suceso definido como sigue:

A = {rjt < 100}; B = {t/50::;; t:::;; 200}; C = {t/t > 150}.


Entonce
Au B = {ti1 ::;; 200}; An B = {1!SOl1 ::;; 100};
Bu e = {ti' ~ 50}; B 11 e = {r 11 so < 1 ::;; 200} : A 11 e = fil;
Au e = {tic < 100 o t > 150}; A = {tlt ~ 100}; e= {tl1 :::;; 150}.
12 lnlroduccin u la probabilidad 1.6

omo se di cuti en la seccin anterior. una de las caracterstica b ica' del


concepto de experimento e que no abemos qu re ultado particular se obtendr
al realizar el experimento. En otra palabras, si A e un suceso asociado con un expe-
rimento no podemos indicar con certeza que A ocurrir o no. Por lo tanto, llega as r
muy importante tratar de a ociar un nmero con el uceso A que medir , de alguna
manera, la posibilidad de que el suce o A ocurra. sta tarea no conduce a la t ora
de probabilidades.

1.6 Frecuencia relativa

Para motivar el enfoque adoptado como olucin del problema anterior,


con ideremos el procedimiento siguiente. Supnga e que repetimos 11 veces el
experimento 1: y ean A y B do suceso asociados con e. can "A y 11 8 el nmero
respectivo de veces que 1 uce o A y el suce. o B ocurrieron en las 11 repeticiones.

Definicin. fA. = 11A/ n se llama la jiecue11cia relativa del uce o A en las 11


repeticiones de e. La frecuencia relativa fA tiene las iguicntes propiedadc
importantes, que on verilicables fcilmente.

(1)05}~51.
(2) fA = 1 i y lo si A ocurre cada vez en las /1 repeticiones.
(3) fA. = O i y lo i A nunca ocurre en la n repeticiones.
(4) Si A y B on do sucesos que e excluyen mutuamente y si fAU 8 es la
frecuencia relativa a ociada al suceso A u B. entonces fA un = fA + }8.
(5) .f.,.. ba ada en las n repeticione. del experimento y con. iderada para unu
uncin de n, converge en cierto entido probabil tico a P(A)
cuando 11

Observacin : la propiedad (5) anlerior obviamente esl< indicada de una manera vaga
en e te momento. Slo po teriormcnte ( eccin 12.2) podremo precisar m e 1a idea. Por
ahora indiquemos simplemente que la Propiedad (5) encierra la notacin ba tante intu itiva
de que la frecuencia relati a basada en un nmero creciente de observaciones tiende a es-
tabilizarse en la proximidad de un valor delinitivo. E to no e lo mi mo que el concepto
corriente de convergencia que se encuentra en otra parte en matcm;'1ticas. De hecho, como se
indic aqu. esta no e del todo una conclusin matemtica. sino simplemente una realidad
emprica.
La mayor parte de nosotros intuitivamente e tamo conciente de este fenmeno de es-
tabilizacin au nque puede ser que nunca lo hayamo verificado. Hacerlo requiere una
cantidad considerable de tiempo y paciencia, ya que requiere un gran nmero de repeti-
ciones de un experimento. Sin embargo, alguna veces podemo ser ob ervadores inocentes
de este fenmeno como lo ilustra el siguiente ejemplo.

EJEMPLO J .5. Supnga e que e tamos parados en una acera y no fijamos


en do lo a de cemento adyacentes. Imaginemo que empieza a llover de tal
manera que er realidad podemo distinguir unas gotas de otra y le eguimos
1,7

l t pista para averiguar si caen en una losa o en otra. ontinuam s b crvando


l 1 olas individuale y anotamos u punw de impacto. imbolizando la i- ima
11ta pe r X,, en donde X 1 = 1 i la gota cae en una lo a y O i cae en la o tra
p11d11am ob ervar una . ucesin tal como L 1, O. l. O, O. O. l. O. O, l. hora e t
l l.11 o que n podemos predecir en d ndc caer la gota particu lar. ( uc tro cx-
pl 111ncn10 con i te en una e pccie de ittrncin meteor lgica que cau a la cada
11 ~ l;1s gotas de lluvia.) i calculamo la fre uencia relativa del uce o A == {la
1na cae en la lo a 1}. entonces la sucesin anterior de re ultado da origen a la
f1 l' u ncias relativa iguien tes (con ba e en la ob. ervacin de l. 2. 3.... gotas):
1. 1 . l ~- ~. t ,~-tu. -fi. . . . Esos valor...:-; mue tran un grado con idcrable de
v111 rncin. especialmente al comienzo. Intuitivamente e claro que i e continua-
' 1 111dcl 1111damentc el expcnmcnto antalllr, esa frecuencias relati a. e e tabili-
1.111an prximas al valor . Porque tencmo to.da la razn para ercer que de pu
dl que haya tra currido cierto tiempo las dos losa e taran igualmente m jada .
1 sta propiedad de e Labilidad de la frecuencia relativa es an una nocin
h.i~tantc intuitiva y lo podremos prcci arla matemticamente rn tarde. Lo
1111portante de esta propiedad e q ue i se realiza un experimento un gran nmero
d vece . la frecuencia relativa con que ocurre un uce o A tiende a ariar meno
\ menos cuando el nmero de repeticiones aumenta. A e ta caractcr tica e le
dl..,1gna como regularidad e tadistica.
ambin hemo ido algo impreci o en nuestra definicin de experimento.
1 actamentc. cundo un pr cedimiento o mecani. mo e un e p rimento en
nuestra opinin. uceptible de ere. t udiado matemticamen te mediante un mo-
ddo no deterministi o? Previamente indicamo que debe ser po ibl efectuar
1111 e pcrimento repetidamente in cambiar la mi mas condicione esenciales.
l'odemo agregar ahora otro requisito. uando el experimento e rea liza repcti-
1hmcnte debe pre enlar la regularidad cstad tica a que nos referimos anterior-
1ucntc. M adelante di cutiremo un teorema (llamado la ley de los grandes
numero ) que mue tra que la regularidad cstad tica es de hecho una consecuen-
w de la primera condici n: la repeticin.

1.7 ocione bsicas de probabilidad

Volvamo ahora al problema propuesto anteriormente: a ignar un nmero


.1 cada uce o A que medir la po ibilidad de que A ocurra cuando el experimen-
to se realiza. Un enfoque posible podra ser el iguiente: repetir el experimen to
un gran nmero de vece , calcular la frecuencia relati a J,.. y u ar c. te nmero.
( ' iando rccordamo la. propiedade J.. es claro que este nmero da una indicacin
muy definida de qu po ibilidad exi te de 4ue A ocurra. Aun 111{1 como sabemos
que el experimento se repite m y ms vece . la frecuencia relati a e e tabiliza
lcrca de algn nmero. digamo p. Sin embargo. hay do objecione erias a e te
nfoque. (a) No c t claro cmo de grande debe er 11 ante de que conozcamos
el nmero. 1000? 2000? 10.000'? (b) na vez que e ha de erit completamente
el experimento y se ha e pecificado el suce o A. el nmero que bu camo no debe
14 lntrduccliln a IA prob bllldad 1.7

depender del experimentador o de una racha de uerte en particular con la que l


experimenta. (Por ejemplo, es po ible que con una moneda perfectamente balan-
ceada que e lanz 10 vece , resulten 9 cara y 1 ello. La frecuencia relativa del
suce o A = { aten cara } e a igual a .;h. Aunque e po ble que en lo 10 lanza-
mientos iguientes el modelo de caras y sellos pueda e tar nvertido.) Lo que
queremo es un medio de obtener tal nmero sin recurrir a la experimentacn.
Naturalmente, para que el nmero e tipulado ea sgniticativo, cualquier experi-
mento debera dar una frecuencia relativa "cercana" al valor e tpulado, en e pecial
i el nmero de repeticiones en la cuate e calcul la frecuencia relativa e muy
grande. Procederemo formalmente como sigue.

Definicin. Sea e un experimento. Sea S un e pacio muestra! asociado con


e. Con cada uceso A asociamos un nmero real, designado por P(A)
y llamado la probabilidad de que A atisfaga las siguiente propiedade .

(1) O ~ P(A) ~ l.
(2) P(S} = l. (1.3)
(3) Si A y B son uce os q~e se excluyen mutuamente, P(A v B) = P(A)
+ P(B).
(4} Si Al A 2 , .. , An . . . son suce o que e excluyen mutuamente de
par en par, entonce

P(u f;. 1 A) = P(A) + P(A2) + + P(An) +


Observemo que de la Propiedad 3 e deduce de inmediato que para cualquier
n finito ,

La Propiedad 4 no igue; sin embargo, cuando consideremos el e pacio muestra!


idealizado, esta condicin er necesaria y por tanto e incluye aqu.
La eleccin de la lista de propiedades de la probabilidades est obviamente
motivada por la caracterstica correspondientes de las frecuencias relativas.
La propiedad anteriormente mencionada como regularidad estad tica se ligar
con e ta definicin de probabilidad ms tarde. Por el momento indicamo lo
que demo traremos que los valores de P(A) y fA. estn prximos uno al otro
(en cierto sentido), si f A. se basa en un gran nmero de repeticiones. Este hecho
e el que justifica el empleo de P(A) para medir la probabilidad de que A ocurra.
Por el momento no abemos como calcular P(A). Solamente hemos anotado
algunas propiedade generales que posee P(A). El lector tendr que tener pa-
ciencia un poco m (hasta el prximo captulo) antes de que aprenda como
calcular P(A). Antes de volver a este tema indiquemos y probemos varas conse-
cuencias relativas a P(A) que e deducen de las condiciones, y que no dependen
de como calculamos P(A) en realidad.
1.7 ocioncs b6sicas de probabilidad IS

corema J.l. Si ~ es el conjunto vaco, entonces P(~) = O.


Demostracin: podemo escribir, para cualquier uceso A, A = A u ~ Pue to
que A y 0 son mutuamente excluyentes, se deduce de la Propiedad 3 que P(A) =
/'( 1 u 0) = P A) + P(lJ). A partir de e to la l:Onclusin de l teorema e inmediata.

Ob.servacin: tendremos ocasin de ver ms tarde que el recpro o del teorema anterior
1111s verdadero. sto es, si P(A) = O, en genera l no podemos concluir que A = ~. porque
h, situaciones en que asignamos probabilidad cero a un uceso que puede ocurrir.

Teorema 1.2. i A es el uce o complementario de A entonce


P(A) = 1 - P{A) (1.4)
Demostracin: podemos e cribir S = A u A y, usando las Propiedades 2
1. obtenemo 1 = P(A) + P(A).

Observacin: este e un resu ltado muy til. porque indica que cada vez que deseamos
ra lcular P(A) podemos calcular P(A) en su lugar y obtener el resultado de cado por sus-
lrnccin. Veremo despus que en muchos problemas es ms fcil calcular P( que P(A).

Teorema 1.3. i A y B on do, suce os cualesquiera, entonce


P(A v B) = P(A) + P(B) - P(A) " B). (1.5)

AnB AnB

FIGURA 1.2

Demostracin: la idea de e ta demostracin e de componer A v B y 8 en


sucesos que se excluyen mutuamente y luego aplicar la Propiedad 3. (Ver el dia-
grama de Venn en la figura 1.2.)

A e cribimos
Au B = A v (B " ),
B = (A {"'\ B) V (B {"'\ A).
16 lntroduc:cin a la probabilidad UI

Por lo tanlo
P(A v B) = P(A) + P(B f"\

P(B) = P(A \ B) + P(B \ A).


Su trayendo la egunda ecuacin de la primera
P(A u B) - P(B) = P(A) - P(A f"\ B)
y por tanto se obtiene el re ultado.

Observacin : este teorema representa una extensin obvia de la Propiedad 3, porque


si A r1 B = ~. obtenemos de lo anterior el enunciado de la Propiedad 3.

Teorema 1.4. Si A, B, y C son tre suceso cualesquiera entonce


P(A v Bu C) = P(A) + P(B) + P(C) - P(A \ B) - P(A n C)
- P(B n C) + P(A n B n C). (1.6)
Demostracin: la demo tracin consi te en e cribir A u B v C como (A u B)
v C y aplicar el resultado del teorema anterior. Dcjamo lo detalles al lector.

Observacin : una extensin obvia del teorema anterior se sugiere por s mi ma. Sean
A 1, . . . , At k sucesos cualesquiera. ntonces
t
P(A V A2 V . .. V At) = L P(A1) - L P(A ('\AJ)
1 i<J= 2

(1.7)

te resultado se puede establecer fcilmente por induccin matemtica.

Teorema 1.5. Si A e B, entonces P(A) ~ P(B).

Demostra in: podemos de componer B en dos suce os que e excluyen mu-


tuamente como sigue: B = A u (B \ A). Por lo tanto P(B) = P(A) + P(B f"\ A)
~ P(A) , puesto que P(B \ A) ~ O egn la Propiedad 1.

Observacin : e te resultado es intuitivamente atractivo. Porque dice que si B debe ocurrir


cada vez que A ocurre, entonces B es al menos tan probable como A.

1.8 Varias observaciones


(a) Cabe aqu una advertencia. De la discu in previa se podra inferir (in-
correctamente) que cuando elegimo un modelo probabilstico para la descrip-
cin de algn fenmeno ob ervable descartamos todas las relacione determinsti-
l .K \'urln ob nacionc' 17

us. ada puede estar m tejo de la verdad. Mantenemo todava el hecho de


qu . p r ejemplo, la ley de Ohm J = E/R es vlida en cierta circun tancia . La
dif rcncia er de interpretacin. En vez de decir que la relacin anterior deter-
1n 111a I para E y R dados, reconoceremos que E (y/ o) R pueden variar de una
111.111 ra aleatoria e imprecisa y que por lo tanto J variar tambin de una ma-
1wrn a lea toria. Para E y R dadas. todava J e determina por la relacin anterior.
1 o im portante e que cuando adoptamo un modelo probabil tico para la de -
u1pcin de un circuito, con ideraremo la posibilidad que E y R pueden variar
dl una manera impreci a que lo e puede de cribir probabil ticamente. As,
puesto que er de importancia considerar lo la probabilidad de que E y R
111111 n ciertos valore , llega a er ignifica tiv hablar slo de la probabilidad
1k que l tome ciertos val re .
(b) La eleccin entre adoptar un modelo determinstico o probabil tico puede
l' I difici l de hacer alguna vece . Puede depender de lo intrincado de nue tra
ll'1,;mca de medida y la preci in a ociada. Por ejemplo, i las medida preci a
on tan dificile de obtener que la lectura repetida de la mi ma cantidad pr -
du1ca n resultado variables, un modelo probabilstico e indudablemente ms
adecuado para describir la ituacin.
(e) Sealaremo brevemente que bajo cierta circun tancia , estamo en po-
1cin de hacer hiptesis adiciona les acerca de la conducta probabi l tica de
nuestros re ultados experimentales que nos conducirn a un mtod para eva-
luar las probabilidade b ica . La eleccin de e as hipte i adici nalc puede
c~tar ba ada en con ideraciones fi ica del experimento (ciertas propiedade de
~nnetra por ejemplo), evidencia emprica, o en alguno ca o , implemente un
1uicio per onal ba ado en una e periencia previa con una ituacin simi lar. La
trc uencia relativa puede jugar un papel importante en nuestra deci in acerca
de una a ignacin numrica de P(A). Sin embargo, es importante dar e cuenta
d1.: que cua lquier upo icin que hagamos acerca de P(A) debe er tal que e sa-
tisfagan lo axiomas del (1) a l (4) de la Definicin (1.3).
(d) n el transcurso del de arrollo de la ideas bsicas de la teora de pro-
babilidades, haremos a lgunas referencia a cierta analoga de la mecnica. La
primera de ellas puede ser apropiada aqu. n mecnica, a ignamo la masa a
cada cuerpo B, digamos m(B). Luego hacemos varios clculos y llegamo a di-
ver a conclu i ne acerca. de la conducta de B y u relacin con otros cuerpo ,
mucho de los cuales implican su masa m(B). El hecho de que en realidad ten-
gamos que recurrir a alguna aproximacin para obtener m(B) para un cuerpo
e pecfico no di minuye la utilidad del concepto de ma a. De igual manera, es-
tablecemos para cada uceso A, a ociado con el espacio muestra! de un experi-
mento, un nmero P(A) llamado la probabilidad de A y que atisface lo axioma
b ico . n realidad al calcular P(A) para un suce o e pecfico, tenemos que
hacer hipte i adcionale o bien obtener una aproximacin basada en la evi-
dencia emprica.
(e) muy importante darnos cuenta de que hemo postulado la exi tencia
de l nmero P(A) y que hemo postulado ciertas propiedade que este nmero
po ec. La validez de las diver a con ecuencias (teorema ) derivadas de e os po -
111 lntroducci6n a la probabilidad

tulados de ninguna manera depende de cm btenemo un valor numrico


para P(A). vital que este punto e t claro. Por ejemplo, hemo upue to que
P(A v B) = P(A) + P(B). A fin de u ar e ta relacin para la emluacin actual
de P(A u B), debemo conocer el valor de P(A) y de P(B). Discut remo brevemen-
te como, bajo ciertas circun tancias, debemos hacer suposicione adicionales que
conduzcan a un mtodo para evaluar esas probabilidade . Si esta (u otras) su-
posicione no estn garantizadas, debemos recurrir a la experimentacin para
aproximar el valor de P(A) de los datos reales. a frecuencia relativa f A de em-
pear un papel importante en esto, y de hecho, e usar como una aproxima-
cin de P(A).
Sin embargo, e importante tener presente que f A y P(A) no on lo mi mo,
que implemente u amos JA como aproximacin de P(A) y que cada vez que
no referimo a P(A) nos estarna refiriendo al valor postulado. Si identificamos
f A con P(A) debemos verificar que implemente sustituimos un valor postulado
por uno aproximado obtenido experimentalmente. Qu tan buena mala pueda
er esta aproximacin, de ninguna manera influye en la e tructura lgica de
nue tro modelo. Aunque el fenmeno que pretende representar el modelo se
consider al con truirlo, no hemo separado del fenmeno mi mo (temporal-
mente al meno ), cuando entramos en el dominio del modelo.

PROBLEMAS

l. l. Supngase que el conjunto universal con ta de los enteros po itivos de 1 a 1O.


Sean A = {2, 3,4}, 8 = {3, 4, S}, y C = {5, , 7}. Anote los elementos de lo. siguientes con-
juntos.
(a) A" B (b) A V B (c) A " 8 (d) A "(B ('\ C) (e) A "(B V C)
l.2. Supngase que el conjunto univer al U e t dado por U = {xlO s; x ~ 2}. Sean
los conjuntos A y B definidos como sigue: A = {x lt < x :s; 1} y B = {x I! ~ < ~}. Des-
criba lo conjuntos iguiente :
(a) Av 8 (b) A u B (c) A f'\ B (d) A n 8
1.3. i.Cule de las siguiente relacione son verdaderas?
(a) (A v B) t"\ (A u C) = A u (B n C) (b) (A v B) = (A n 8) u 8
(c) ('\ B = A V B (d) (A V B)" = A(") B ('\ e
(e) (A f'\ B) n (B /"\ C) = ;!
l.4. Supnga e que el cor'mto universal consta de todos los puntos (x, y) cuya coor-
denadas son entero y quedan dentro o sobre el contorno del cuadrado acotado por las
recta x = O, y = O, x = 6, y = 6. Indique lo elementos de lo conjuntos siguientes.
(a) A = {(x,y) 1 x 2 + y2 s; 6} (b) B = {(x,y) 1 y::;; x 2 }
(c) C = {(x,y)jx s; y2} (d) Bt"\C (e) (BvA)n
1.5. U e lo diagramas de Venn para establecer las siguientes relacione-.
(a) A e B y B e implican que A e C (b) A e B implica que A = A f'\ B
(c) A e: B implica que 1l e A (d) A e B implica que A u Ce B v C
(e) A f'\ 8 = i;I y C e A implica que B n C = 9
1.6. Lo artculos provenientes de una lnea de produccin se clasifican dccctuoso (D)
o no ddcctuoso (N). Se observan los artculos y e anota su condicin. ste proce o se con-
tinua hasta que se produzcan dos articulo deectuo os consecutivos o se hayan verificado
rn.1tro artculos, cualesquiera que ocurra primero. Describir un espacio mue tral para este
''"'I rimento.
1.7. (a) Una caja con N bombillas tiene r(r < N) unidades con filamento rotos. stas
prueban una por una. ha ta que se encuentra una decctuosa. De cribr un espacio mue tral
rara este experimento.
(b) upnga e que la bombilla anteriores se prueban una por una, hasta que se prueban
rodus las deectuo as. Describir el espacio muestra! para este experimento.
1.8. Considrense cuatro objetos, a. b.,, y d. Supngase que el orden en el cual se anotan
1~m objetos representa el resultado de un experimento. ean A y B 1 s sucesos definidos
orno sigue: A = {a est en el primer lugar:: B 7 {be t en el segundo lugar}.
(a) Anote todos los elementos del espacio mue tral.
(b) Anote todo los elemento de los sucesos A " B y A v B.
1.9. Un lote contiene artculos que pe an 5. 10. 15, ... , 50 libras. Supnga e que al
menos dos artculo de cada peso se encuentran all. Se eligen dos artculos del lote. lden-
ltfique e por X el peso del primer articulo elegido y por Y el peso del egundo artculo. As
el par de nmeros (X. Y) representa un olo re ultado del experimento. Usando el plano
.\Y. indquese el espacio muestra! y los sucesos iguientes.
(a) {X = Y} (b) {Y > X}
(e) 1segundo artculo pesa el doble del primero.
(d) El primer artculo pe a 10 libras menos que el egundo.
(e) El promedio de pe o de los dos artculo es meno de 30 libra .

1.10. En un perodo de 24 horas. en un momento X. un interruptor se pone en la posi-


1:1n "encendido". Posteriormente, en un momento Y (todava en el mismo perodo de
i4 horas) el interruptor e pone en la posicin apagado". Supngase que X y Y se miden
n horas en el eje de tiempo con el comienzo del perodo como origen. El re ultado del ex-
perimento consta del par de nmeros (X, Y).
(a) Describa el espacio muestral.
(b) Describa y dibuje los iguentcs suceso en el plano X Y.
(i) El circuito funciona durante una hora o meno .
(ii) El circuito funciona en el tiempo z en donde z es algn intervalo durante el pero-
do dado de 24 hora .
(iii) El circuito empieza a funcionar antes del tiempo ti y deja de funcionar despu del
tiempo rl (en donde otra vez t 1 < 12 son dos intervalo de tiempo durante el pe-
riodo especificado).
(iv) El circuito funciona el doble de lo que ser interrumpido.

1.11. Sean A, B. y C tres sucesos asociados con un experimento. xprese las siguiente
proposiciones verbales en notacin de conjuntos.
(aJ Al menos uno de los suce os ocurre.
(b) Exactamente uno de los- ucesos ocurre.
(c) Exactamente dos de los sucesos ocurren.
(d) No ocurren ms de do sucesos simultneamente.
1.12. Demuestre el teorema 1.4.
20 lntrodu(cin a la probuhilidnd

1.13. (a) Demostrar que para dos sucesos cualesquiera. A 1 y A 2 , tenemos P( 1 v A 2)


~ P(A) + P(A2).
(b) Demuestre que para "sucesos cualesquiera A,, .... A tenemos
P(A V V A.) $ P(A1) + ... + P(A.).
[Consejo: Use una induccin matemtica. El resultado que se indica en (b) se llama desi-
gualdad de Boole.]
1.14. 1 teorema 1.3 trata de la probabilidad de que al menos uno de los sucesos A o
B ocurra. La proposicin siguiente trata de la probabilidad de que exactameme uno de los
succ os A o B ocurra.
Demo trar que (P(A n B) u (8 n A) = P(A) + P(B) - 2P(A n B].
1. 15. ierto tipo de motor elctrico falla por obstruccin de los cojinetes, por com-
bustin del embobinado o po_r desgaste de las escobillas. Supngase que la probabilidad de
la obstruccin es el doble de la de combustin, la cual es cuatro veces ms probable qu la
inutilizacin de las escobillas. ,Cual es la probabilidad de que el fallo sea por cada uno de
esos tres mecanismos?
1.16. upngase que A y B son suceso para los cuales P(A) = x, P(B) = y, y P(A r"I B) = z.
Expresar cada una de las probabilidades siguientes en trminos de x, y, y z.
(a) P(A u B) (b) P( A n 8) {c) P(A v B ) (d) P(A n B)
l.l 7. Supngase que A , B. y C son suce os tales que P(A) = P(8) = P(C) = !. P(A n 8)
= P( n B) = O, y P(A n C) = !- lcular la probabilidad de que al menos uno de los u
cesos A. B. o ocurra.
1.18. ; na instalacin consta de dos calderas y un motor. ea A el suceso de que el motor
est en buenas condiciones, mientra que los sucesos BA (k = I, 2) son los sucesos de que la
k-sima caldera est en buenas cond iciones. El suceso es que la in-.1a lacin pued~ rum:iona r.
i la instalacin funciona cada vez que el motor y al menos una caldera lunc1one. exprese
C y C en funcin de A y de los sucesos 8,.
1.19. Un mecanismo tiene dos tipos de repuestos, digamos 1 y 11. Suponga que hay
dos del tipo 1 y tre del tipo JL Definir lo sucesos A k = 1, 2, y Bj, j = I, 2, 3 como sigu :
Ak : la k-sima unidad del tipo I est funcionando correctamente; B1: la j-sima unidad del
tipo ll est funcionando correctamente. Finalmente C representa el suceso: el mecanismo
funciona. Dado que el mecani mo funciona si al menos una unidad del tipo 1 y dos unida-
des del tipo 11 funcionan , exprese el suceso C en funcin de los A y los B-
2
l\pacio muestrales finitos

.1 'I espacio muestra! finito

l!n este captulo nos ocuparemo slo de los expcr.irnentos para los cuales el
pucio mue tral S consta de un nmero finito de elementos. s decir, sup nemos
qtH" S e puede e cribir como S = {a 1, a2 , .,a~}. Si no referimo a lo ejemplos
d~ espacios mue trales de la eccin l.4, observamos que S., S 2 , S 3 , S4 , S 5 , S 1
S 11 son todo finitos.
A fin de caracterizar P(A) en e te modelo consideraremo primero el suceso
qu est constituido por un solo resultado , llamado alguna veces un uce o efe-
111111/al, digarno A = {a;}. Procedemos como sigue.
A cada uno de los sucesos elementale {a;} asignamo un nmero p; llamado
1.1 probabilidad de {a}, que sati face la condiciones iguiente :
(a) p; ~ O, i = 1, 2, ., k
(b) p, + P2 + + Pk = l.
Pue to que {ai} e un uce o, esta condiciones deben e tar de acuerdo con
las po tulada para la probabilidades de suce o en general, como se hizo en
la ecuacin (1 .3). Es muy sencillo verificar que e as.
A continuacin , supongamos que un suce o A est con tituido por r resultados,
r s; k, digamo
A = {a 1,, aiz - ., a1.},
l'll donde j.,h , ., j. repre enta cualquier ndice r de 1, 2, ., k. Por lo tanto,
'e deduce de la ecuacin (l.3), Propiedad 4. que
P(A) = PJ, + Ph + + P.. (2.1)
Para resumir: la asignacin de probabilidades p1 a cada uno de lo sucesos ele-
mcntale {a;}, sujeto a las condicione anteriores (a) y (b). determina de un modo
t'in1co P(A) para cada uno de los sucesos A e: S, en donde P(A) est dado por
11 e uacin (2.1).
A fin de evaluar las Pi> e deben hacer alguna upo iciones respecto a lo
1 sultados individuales.

FJFM PLO 2.1. Su pongamos que slo son po ibles tre resultados en un experi-
111cnto, digamos a, a 2 y a 3 . Adems upongamo que la ocurrencia de a 1 es do
v ce m probable que la de a 2 , la cual, a u vez, e dos veces ms probable que a 3 .
21
2.2

Por lanlo. p 1 = 2p 2 y p2 = 2p 3 Puesto que p 1 + p2 + p3 = 1, tenemos que


4p 3 + 2p3 + p 3 = 1. lo que finalmente da

2.2 Resultados igualmente probables

La upo icin que m comnmente e hace para e pacio mue trates finito
e que todos los re ultado son igualmente probables. De ninguna manera esta
upo icin puede dar e como un hecho; debe ju tlicar e cuidadosamente. Hay
muchos experimento para los cuales e garantiza tal upo icin, pero tambin
hay muchas ituacione experimentales en la cuale era un error hacer tal su-
posicin. Por ejemplo, era muy poco realista uponer que es tan probable no
recibir llamada telefnicas en una central entre la 1 a.m. y 2 a.m. como entre las
5 p.m. y la 6 p.m.
Si lo k re ultados son igualmente probables, se deduce que cada p1 = 1/k.
Porque la condicin p 1 + + Pk = 1 llega a er kp1 = 1 para todo i. De e to
se deduce que para cualquier uce o A que conste de r resultado . tenemo

P(A) = r/k.

Este mtodo de evaluar P(A) a menudo e indica como igue:

nmero de maneras en que e puede ocurrir favorable a A


p~ ) = .
nmero total de maneras en que e puede ocurrir

s importante comprender que la expre in anterior de P(A) e lo una con-


ecuencia de la upo icin de que todo lo resultados son igualmente probables
y s lo es aplicable cuando e sali face esta supo icin. Indudablemente no irve
como una definicin general de probabilidad.

EJEMPLO 2.2. Se lanza un dado y se supone que todo lo resultado on


igualmente probable . 1 uce o A ocurre si y s lo i aparece un nmero mayor
que 4. Esto e, A ={5,6}. Por lo tanto P(A) = t + ! = ,

JEMPLO 2.3. Se lanza una moneda normal. Sea A el suceso: {aparece una
cara}. Para evaluar P(A) un anli is del problema podra ser de la manera siguiente.
El e pacio mue tral es S = {O, l, 2}, en donde cada uno de los re ultado repre enta
un nmero de cara que ocurren. Por lo tanto P(A} = 3' ! Este anlisi es obvia-
mente incorrecto puesto que en el espacio muestra! con iderado anteriormente
todos lo resultados no son igualmente probables. A fin de aplicar el mtodo
anterior deberamo considerar en u lugar, el espacio muestra! S' = {Ce es,
se, SS}. En este espacio mue tral todos to re ultado on igualmente probable y.
por lo tanto. obtenemo para la so lucin correcta a nue tro problema P(A) = i = t
.2 R~"ultado-. i:ualm :nlc probablt>~ 2.l

Pmlnamos empicar correctamente el espacio mue tral S como sigue: los resultad s
O y 2 son igualmente po ible , mientras que el re ultado 1 es probablemente el
doble de cada uno de los otros. Por lo tanto, P(A) = ! , lo cual concuerda con
1.1 re puc ta anterior.

Este ejemplo ilustra dos puntos. Primero, debemo e lar completamente


cguros de que todos lo resultados que e pueden uponer on igualmente pro-
bables ante de utilizar el procedimiento anterior. Segundo. a menudo podemos
1 ducr el problema a uno. en el ual todos los resultados son igualmente po ibles,
111 diantc una eleccin apropiada del espacio mue tral. 'ada vez que ea posible
t' debe hacer e to, puesto que generalmente simplifica Jos cillculos. Se tratar
l''tc punto nuevamente en ejemplos ub ecuente .
Muy a menudo la manera como se realiza un experiment determina i los
itsultados on o no igualmente probable . Por ejemplo. upongam que vamo
i1 escoger un perno de una caja que contiene tres de tamao diferente. Si elegimo
d perno acercndon a la caja y sacand el primero que tocamos, e obvio que
d perno m grande tendr una probabilidad de er escogido. mayor que la de
lo., otro dos. Sin embargo, si rotulamos cuidad amente cada perno on un
numero. lo e cri bim s en una etiqueta. y escogemos una de ellas, podemos tratar
de asegurar que cada perno, de hecho, tiene la misma probabilidad de er escogido.
si quizs tengamo que arontar con iderable dificultade a fin de a egurarno
4uc la suposicin matemtica de resultados igualmente probables es de hecho
apropiada.
n ejemplo antcriore y muchos otros sub ccucnte , nos interesa la eleccin
.il azar de uno o ms objeto de una coleccin dada. Definamo ms precisamente
sta n cin. Supongamos que tenemo N objeto , digam s a i. a 2 , , a,...
(a) Escoger al azar un objeto de lo N , ignifica que cada uno de los objeto
tiene la mi ma probabilidad de ser escogido. to e ,

Prob {elegir a;) = 1/ i = t, 2, . ',

(b) Escoger al azar dos objetos entre objetos ignifica que cada uno de los
pares de objeto ( in e n iderar el orden) tiene la misma probabilidad de er es-
cogido que cualquier otro par. Por ejemplo, i debemos elegir do objeto al azar
de {a 1 a2 , a 3 , a4), y luego obtener a 1 y a 2 es tan probable como obtener a 2 y a 3 etc.
I! ta afirmacin no lleva inmediatamente a la cue tin de cumos pares dife-
r nte hay. Supongamos que hay K de tales pare . Entonces la probabilidad de
cada par era 1/ K. Muy pronto aprenderemo a calcular K .
(c) E coger al azar n objetos (n ~ ) entre N objetos ignifica que cada
n-tuplo, a;, a;,, , a;". tiene tantas probabilidade de ser e e gido como cual-
quier otro n-tuplo.

Observacin : anteriormente ya ugerimos que e debe tener mucho cuidado en la parte


expe rimental para asegurar que la supo icin matematica de escoger al azar se cumpla.
2.3 Mtodos de enumeracin
Tenemo que hacer un alto a lin de aprender cmo enumerar. uevamentc
con idcraremo la forma anterior de P(A) llamada P(A) = r/ k. en donde k e
el nmero total de manera en que e puede currir mientras que res igual al n-
mero de manera en que A puede ocurrir. n los ejem pi s pre entado hasta ahora.
e encontr poca d ilicultad para calcular r y k. Pero e necesario considerar si-
tuacionc slo ligeramente m complicada para apreciar la nece idad de contar
sistemticamente o de procedimientos de enumeracin.
EJEMPLO 2.4. n lote de cien artculo contiene 20 defectuo o y 80 no
defectuo os. Se eligen diez artculos a l azar, in su tituir un artculo antes que ea
elegido el prximo. i.Cul es la probabi lidad de que exactamente la mitad de los
artculos e cogido can defectuo o ?
Para analizar este problema, con ideremo el iguiente espacio muestra( S.
Cada uno de lo elementos de consta de diez artculo posibles del lote. digamo
(i 1 i 2 . . . i 10 ). i. untos hay de tales resultados? Y entre e tos re ultados, ;.cuntos
tienen la caracter tica de que exactamente la mitad sean defectuoso '? vidente-
menle necesitamo aber contestar tale interrogantes para re olver el problema
propuesto. Muchos problema similare dan origen a pregunta anloga . n las
prxima seccione pre entaremos a lgunos procedimientos si temticos de enu-
meracin.
A. Principio de multi plicacin. upongamos que un procedimiento. desig-
nado como 1 puede hacer e de n 1 maneras. upongamo que un segundo proce-
dimiento de ignado como 2, se puede hacer de n 2 maneras. amb1~ supongamo
que cada una de la manera de erectuar l puede er seguida por cuaJqu-icra de
las manera de efectuar 2. ntoncc el procedimiento que consta de 1 seguido
por 2 se puede hacer de n 1n 2 manera .
Para indicar la validez de este principio es ms sencillo considerar el iguiente
enfoque esquemtico. 'onsideraremos un punto P y do recta L 1 y L 2 El pro-
cedimiento 1 con istc en ir de P a L 1 mientras que el procedimiento 2 consi te
en ir de L 1 a L 2 La fi_gura 2. 1 indica cmo se obtiene el resultado final.

F10 RA 2.1
Observadn: obviamente este principio puede extender e a cualquier nmero de proce-
dimiento . i hay k procedimientos y el i-simo procedimien to se puede hacer de 111 manera .
= l. 2.. . .. k. entonco el procedimiento que consiste en 1. eguido por 2, .. . . seguido por
el procedimiento k puede hacer e en n 1 n 2 nt manera .
Mtodos d enunwracibn 23

LJEMI' o 2.5. Un artculo manufacturado debe pa ar por tre controles. En


1:ada un o de lo controle , se inspecciona una caracterstica particular del artculo
se la a nota de conformidad. n el primer control hay tre mediciones po ible
mientra que en cada uno de lo dos ltimos controle hay cuatro mediciones
posible . Por lo tanto hay 3 -'4 4 = 48 maneras de anotar el artculo.

U. Principio de adicin. Supongamo que un procedimiento, designado como


l. 'e puede hacer de n 1 manera . Supongamos que un segundo procedimiento,
de. ignado como 2, e puede hacer de n 2 manera . Supongamo adems que no es
posible que ambos, 1 y 2, e hagan junto . Entonces el nmero de maneras como
se puede hacer 1 o 2 e n1 + n2 .
emo otra vez el enfoque e quemtico para convencernos de la validez
de l principio de adicin , como se indica en la figura 2.2.
p

FIGURA 2.2

Observacin : tambin este principio puede generalizarse como iguc: i hay k procedi-
miento y el i- imo procedimiento se puede hacer en 111 manera . i = l. 2. . . .. k. entonces el
nmero de ma OP.ras como podemos hacer el procedimiento 1, el procedimiento 2 o o el
proced imiento k est dado por 11 1 + 11 2 + + 11l, suponiendo que lo procedimiento no
e pueden reali za r conj untamente.

EJEMPLO 2.6. Supongamo que proyectamo un viaje y debemo decidir


entre el tra nsporte por bus o tren. Si hay tres ruta para el bus y dos para el tren ,
entonce hay 3 + 2 = 5 ruta disponibles para el viaje .

. Permutaciones
(a) upongamo que tenemos n objetos diferente . De cunta maneras,
digamo nPn, e pueden agrupar (permutar) e to objetos? Por ejemplo, si tenemos
los objeto a, b, y e, podemo con iderar la guientes agrupacione : abe, acb,
bac, bca, cab y rba . As la re puesta es 6. En general, consderemo el esquema
siguiente. Agrupar los n objetos e equivalente a ponerlos en una caja con n com-
partimento , en algn orden especfico.

La primera ca illa e puede llenar en una cualquiera de la n manera la e-


gunda de cualquiera de la (n - 1) manera , ., y la ltima ca illa de slo una
mane ra . Por tanto, aplicando el principio de multiplicacin anterior, vemo que
26 Espacio mueslri1les finitos

la caja se puede llenar de n(n - l)(n - 2) l manera . ste nmero ocurre tan
a menudo en matemtica que presentamo un nombre y un mbolo e peciales
para l.

Definicin. i n e un entero positivo, definimos n ! = (n)(n - 1)(11 - 2) l


y lo llamamo n-factorial. Tambin definimos O! = l.

As el nmero de permutaciones de n objeto diferente est dado por


,,P,, = 11!
(b) uevamente con ideremos n objetos diferentes. E ta vez deseamos e coger
r de esos objeto , O ::;;; r ::;;; n, y permutamo el r elegido. Indiquemo el nmero
de maneras de hacerlo, por ,.P,. Recurrimos nuevamente al e quema anterior de
llenar una caja que tiene n compartimientos; ahora no detenemos de pu que
e ha llenado el compartimiento r-simo. As el primer compartimiento puede lle-
nar e den maneras, el egundo de (n - J) manera ... , y el r- imo compartimiento
de n - (r - 1) maneras. As se puede realizar el procedimiento e mpleto; de
nuevo u ando el principio de multiplicacin, de
n(n - l)(n - 2) "(n - r + 1)
maneras. U ando la notacin factorial introducida anteriormente, podemos
escribir
nP, = -11-! - *
(n - r)!
D. Combinaciones. 'on ideremos nuevamente n objeto diferentes. sta vez
estamos intere ado en contar el nmero de manera como podemo e coger r
de e o 11 objeto sin considerar el orden. Por ejemplo, tenemos lo objeto a, b, e,
y d, y r = 2 descamo contar ab, ac, ad, be, bd, y cd. n otra palabra . no contamos
ab y ba puesto que los mismo objetos estn relacionado y lo difere el orden.
Para obtener el resultado general recordemo la frmula derivada anterior-
mente: el nmero de manera de elegir r objeto entren y permutar lo r elegido
es igual a 11 t/(n - r) ! ea C el nmero de manera de elegir r entren, sin considerar
el orden. ( sto e el nmero bu cado e C). Ob erve que una vez que e han esco-
gido los r artculo , hay r ! manera de permutarlos. Por tanto, aplicando nueva-
mente el principio de multiplicacin junto con el resultado anterior, obtenemos

Crl = n!
(n - r)t

As e l nmero de maneras de elegir r entre n objetos diferentes, in : n iderar


el orden, e t dado por
e= n!
r!(n - r)!
* N. t/e/ T. Esta expresin se conoce tambin como arreglo o variacin.
l. 1 Mi'fodo d1 1m1m~n1 l lfl r1

1 .,, nmero aparece en mucho ' contextos en matemtica y, por lo tant , se emplea
un : mbolo especial para de ignarlo. Escribiremos

r!{nn~ r)! = (~}


Para nue tros prop itos, (~) e define slo si 11 es un entero po itivo y si res un
ntcro O ~ r ;5; n. Sin embargo. podemos definir (~) muy ampliamente para cual-
i1u 1cr nmero real n y para cualquier entero no negativo .r como igue:
n) = n(n - 1)(n - 2) (n - r + 1) .
(r ,. !
1.os nmero (~)a menud e llaman coejicil'ntes binomiales, porque aparecen como
uic icientes en el de arrollo de la expresin binomial (a b)". i n es un entero
positivo. (a + b)" = (a + b)(a + b) (a + b). 'uando e efecta la multiplicacin,
.ida uno d lo trminos consta de el producto de k aes y (n - k) bee , k = O, 1.
' -. 11 . Cuntos trmino ern de la forma a~bn - k'! ' ntemo simplemente el
numero de maneras como p demos elegir k entre n aes, sin con iderar el orden.
Pero e to est precisamente dado por (~). As. tenemos lo que se conoce como
1torema del b11omo

(2.2)

Los nmero (~) tienen mucha propiedades interesante de las cuate lo dos
mencionaremos aqu. (A no er que se indique otra cosa. suponemos que 11 e un
l'ntero po. itivo y r un entero, O ~ r ::s; n.)

(a) G) = C: ,.) .
(b) C) C=:) (ll ~ ').
= +

Fs muy fcil verificar algebraicamente las dos identidade anteriore . Simple-


mente e cribimos, ~n cada uno de lo ca os, el lado izquierdo y derech de las
1dentidade anLeriore y notamos que son iguale .
in embargo, hay otro mtodo de verificar e a identidades que hace u o de
la interpretacin que hemos dado a (~), llamada el nmero de manera de e co-
ger r entre n objeto .
(a) Cuando e cogemos r entre n objetos imultneamente "dejamo atrs"
(n - r) objetos y, por tanto, escoger r de n e equivalente a escoger (n - r) de n.
sta e preci amente la primera proposicin que e debe verificar.
(b) Escojamos cualquiera de lo n objetos, sea este el primero, a 1 Al elegir
r objeto , a 1 est incluido o excluido pero no las dos cosa -. P r tanto al contar
el nmero de maneras como podem s escoger r objetos, podemos aplicar el prin-
cipio de adicin tratado al comienzo.
28 E.<>pacios mueslralc finitos

i a 1 est excluido, debemo escoger lo r objetos que e desean de lo (11 - 1)


objetos restantes y hay (n~ 1) maneras de hacer esto.
Si a 1 va a incluirse, slo (r - 1) objetos ms deben escogerse de los restan-
tes (n - 1) objetos y esto se puede hacer de(~ : l) maneras. As el nmero pedido
es la suma de e os do , lo que verifica la segunda identidad.

Observacin : en lo expuesto anteriormente los eoelcientes binomiale (Z) on significa-


tivos slo si 11 y k son enteros no negativos con O ::;; k ::;; 11. in embargo. i escribimos

~) =
(k
11! = 11(11 - l)(n - k + I)
k!(11 - k)! k!
observamos que la ltima expresin e significativa i 11 es cualq11ier nmero real y k cual-
quier entero no negativo. As,
-3) = (-3)( - 4) .. -( - 7)
( 5 5! ,
y a ucesivamente.
Utilizando esta versin extendida de los coeficientes binomiales. podemo indicar la for-
ma e11eralizada del teorema del binomio:

(1 + x)" = k :~ o (n) Y!
k
sta erie e ignificativa para cualquier 11 real y para todas las x tales como lxl < 1. bser-
vemo que si /1 es un entero positivo, las series infinita se reducen a un nmero rinito de tr-
minos puesto que en ese caso (:) = O si k > 11.

JEMPL<> 2.7. (a) Cunto comits de tres miembro se pueden elegir con
ocho persona ? Pue to que do comits on el mi mo i e tn formados por los
mi mos miembro ( iJl con iderar en el rden en el cual fueron elegido ), tene-
mos m = 56 comits posible .
(b) {,Cuntas eale con tre bandera pueden obtener e con ocho banderas
diferente ? te problema e parece mucho al anterior. in embargo, aqu el orden
con tituye una diferencia, y, por lo tanto, obtenemos 8 !/ 5 ! = 336 eales.
(c) Un grupo de ocho personas consta de cinco hombre y tres mujerc . 'un-
tos comits que consten de dos hombre exactamente se pueden formar? Aqu
debemos hacer dos cosas: escoger dos hombre (entre cinco) y escoger una mujer
(entre tres). As obtenemo el nmero pedido W= 30 comits. m
(d) Ahora podemos verificar una propo icin formulada anteriormente, de-
camos que el n_ mero de ubconj unto de un conjunto que tiene n elementos
es 2" (contando el conjunto vaco y el conjunto mismo). Simplemente clasifica-
mos cada elemento con un uno o con un oero, sea que el elemento vaya a ser in-
cluido, o excluido en el ubconjunto. Hay dos maneras de cla ificar cada uno
de lo elementos, y hay n elementos. Luego el principio de multiplicacin no
dice que hay 2 2 2 2 = 2" eta ificacione po ibles. Pero cada una de las
cla ificaciones en particular repre enta una eleccin de un ubconjunto. Por ejem-
plo, (1, 1, O, O, O, .,O) con. istira en el subconjunto formado por a 1 y a 2 pre-
ll>lodo\ d ~munwrncin
' 'l'I

n umcnte. uevamcntc, (1, 1, 1) repre entada S y (O, O, ., 0) representara


11 't nJunto vaco.
(e) Podemo obtener el resultado anterior u ando el principio de adicin
omo igue. Para obtener ubconjunto debemo e coger el conjunto vaco, lo
uh;onjuntos que con tan de s lo un elemento. lo que con tan de slo 2 elemen-
hl'.. . .. y el conjunto mi mo que con ta de todos los n elemento . E t e puede
h 1c r de

(~) + G) + (;) + ... + (:)


1111neras. Sin embargo, la suma de esos coeficiente binomiale e implemente
d desarrollo de (1 + ir
= 2n.
Ahora volvamo al ejemplo 2.4. De un lote que con ta de 80 artculos buenos
O artculo defectuoso , e~cogemos 10 al azar ( in u titucin). El nmero de
maneras de hacer e to e ( \ 00). Por tanto la probabilidad de encontrar 5 artculos
ddcctuosos y 5 no defectuo o entre los 10 elegidos est dada por

(2s0 )(8s0 )
(110) .
1cdiante logaritmos de factoriales (que estn tabulados) se pucd evaluar lo
rior y e igual a 0,021.
.1111

EJEM PLO 2.8. Generalicemo el problema anterior. Sup nga e que tenemos
artculo . Si elegimos n de e o al azar. stn u titucin , hay (n') mue tra posi-
bl s diferente , toda las cuate tienen la misma probabilidad de ser escogida .
Si lo N artcu o e tn formados de r 1 A y r2 B (con r 1 + r 2 = ). entonce la
probabilidad de que los n artculo elegido contengan exactamente s 1 A y (n - si)
11 e t dada por

(::) e~ SJ
------
2

(1t1)
(La anterior e llama probabilidad hip!!_yeom1rica y se encontrar de nuevo.)

Observacin : es muy importante especificar. cuando hablamos de e coger artculos al azar.


si escogemos con o si11 sus1i1ucin. En una descripcin m realista propondremos e ta l-
lima. Por ejemplo. cuando in pcccionamos un nmero de artculo manufacturado con el
objeto de de cubrir cuantos defectuo os podra haber, generalmente no prelendemo in -
peccionar el mismo artculo do veces. Previamente hemos observado que el nmero de ma-
neras de escoger r objeto entre n, sin considerar el orden. e t dado por (;). 1 nmero de
manera de escoger r artculos entre n, con sustitucin, t dado por n'. Aqu es1amos inte-
resado en el orden en que se escogiron los artiulos.
30 K;,pacios mul"tralcs finito 2.

EJEMP o 2 9. Supngase que escogemos dos objeto al azar entre cuatro


objeto clasificados a, b, e, y d.
(a) Si e cogemos in u titucin, el espacio muestral S e puede repre entar
como igue:
S = {(a. b); (a, e); (b, e); (b, d); (e, d); (a, d)}.
Hay (i) = 6 re ultados posible . Cada uno de Jo resultado individuale indica
slo cules fueron lo do objetos e cogido y no el orden en que se escogieron.
(b) i e cogemos con sustitucin, el e pacio mue tral S', se puede represen-
tar como sigue:
a); (a. b) (a, e); (a, d); (b, a); (b, b); (b, e); (b, d);}
s , -_{(a,
(e, a); (e, b); (e, e); (e, d): (d, a); (d, b); (d, e); (d, d)
.
Hay 4 2 = 16 resultado po ibles. Aqu cada uno de los resultados individuales
indica cules objeto se escogieron y el orden de seleccin. . coger al azar implica
que i escogcmo in u titucin, todos los re ultado en S on igualmente pro-
bables. mientra que si e cogemos con sustitucin, entonce todos los resultados
en S' son igualmente probables. As, si A es el uce o {el objeto e es elegido}, en-
tonces tenemo de S, P(A) =t =
t si escogcmo sin sustitucin, y de S', P(A) =
lo i e cogemo con u titucin.
E. Permutaciones cuando no todos los objeto on difcr ntes. En todo lo m-
todo de enumeracin pre entado , hemos upue to que todo los objetos con-
idcrados eran diferentes (e to es, distinguibles). Sin embargo, no iempre es este
el caso.
Supongamos, entonce . que tenemo n objeto tales qu~ hay n 1 de una cla e
n 2 de una segunda cla e, ., nk de una k- ima clase, en donde n 1 + n 2 + +
nk = 11. ntonce el nmero de pcrrnutacione de esos objeto est dada por

11 !

La deduccin de e ta frmula se deja al lector. tese que si todos lo objetos


.~on diferentes. tenemo 11; = l. i = l. 2..... k. y. por tanto, la frmula anterior
se reduce a 11 !, el re ultado obtenido previamente.

Observacin: insistimos una vez m en que la a ignacin real de probabilidades a los


resultados individuales de un espacio mue tral (o a una coleccin de resultados. e decir,
un uceso) es algo que no rnede obtenerse matemticamente ; debe obtener e de otra consi-
deraciones. Por ejemplo, podemos utilizar ciertas caracter tica de simetra del experimento
para observar que todos los resultados on igualmente probable . uevamente podemos
hacer un mtodo de muestreo (es decir, escoger uno o varios individuos de una poblacin
especificada) de tal manera que sea razonable suponer que todas las elecciones son igualmente
probables. En muchos otros caso , cuando ninguna uposicin bsica es apropiada, debemo
recurrir al enfoque de la frecuencia relativa. Repetimos 11 veces el experimento y anotamos
la proporcin de veces que ha ocurrido el resultado (o uceso) que e considera. Al usar sta
como una aproximacin, sabemos que es altamente improbable que esta frecuencia relativa
t>robl n111' 31

e d1lcrcnc1e de la probabilidad verdadera (cuya existencia ha sido especificada p r nuestro


modelo terico) en una cantidad apareciablc si 11 ~-s suficientemente grande. uando es im-
posible hacer suposiciones razonables acerca de la probabilidad de un resultado y es tambin
1111 sible repetir el expcrimenlo un gran nmero de vece (debido al costo o a consideracio-
nes de tiempo. por ejemplo) es realmente muy p co sgnificativo proseguir con un estudio
piobablsti co del experimento excepto sobre una base completamente terica. (Para una
nota adicional sobre e l mi mo tema, ver eccin 3.. )

PROBLEMAS

2. l. n una habitacin se encuentra el siguiente grupo de personas : 5 hombres mayores


de 21. 4 hombres menores de 21, 6 mujeres mayores de 21 y 3 mujeres menores de 21. e elige
una persona al azar. Se definen los sucesos iguientes: A = {la per ona es mayor de 21};
/l {la per ona e menor de 21}; C ={ la persona es hombre}; D ={ la persona es mujer }.
1 va luar las iguienle
(a) P(Bv D)
(b} P(A u-}

2.2. En una habitacin 1O personas tienen insignias numeradas del 1 al JO. e eligen
trc per ona al azar y se les pide que dejen la habitacin inmediatamente y e anotan los
nmeros de la in ignias.
(a} i. 'ul e la probabilidad de que el nmero menor de la insignia sea 5?
(b) i.Cu l e la probabilidad de que el nmero mayor de la insignias sea 5?

2.3. (a) Supngase que e e criben Lre dgitos 1. 2 y 3 en un orden aleatorio. 'ul e
la probabilidad de que al meno un dgito ocupe u lugar propio?
(b) Lo mi moque (a) con los dgito 1, 2, 3, y 4.
(e) Lo mismo que (a) con los dgitos 1, 2, 3, , n. [Indicacin: usar (1.7).]
(d) Di cutir la respuesta de (e) sin es grande.

2.4. Un c~rgamento de 1500 lavadoras contiene 400 defectuosa y 1100 no dcectuo as.
e eligen a l azar doscientas lavadora (sin sustitucin) y se cla ifican.
(a) i. 'ul es la probabilidad de que se encuentren exactamente 90 artculo defectuosos?
(b) i. 'ul es la probabilidad de que se encuentren al meno 2 artculos defectuosos?

2.5. D iez fichas numerada del 1 al 10 se mezclan en una palangana. Se sacan de la pa-
langana dos fichas numeradas (X, Y) una y otra vez s in sustitucin. ul es la probabilidad
de que X + Y = 1O'!

2.6. Un lote consta de JO artcu lo bueno , 4 con pequeos defectos, y 2 con defecto
graves. e elige un artculo al azar. Encontrar la probabilidad de que:
(a no tenga defecto
(b) tenga un defecto grave.
(e) que sea bueno o que tenga un defecto grave.
32 Espa io\ mu<-strales finilos

2.7. Si del mismo lote de artcu los descritos en d problema 2.6 se escogen dos artculos
( in sustitucin) encuentre la probabilidad de que:
(a) ambos sean bueno , (b) ambos tengan defectos graves,
(c) a lo menos uno sea bueno, (d) a lo ms uno ca bueno,
(e) exactamente uno sea bueno. (f) ninguno tenga defectos grave .
(g) ninguno sea bueno.

2.8. Un producto e arma en tres etapa . n la primera etapa hay 5 lneas de armado.
en la segunda etapa hay 4 lneas de armado, y en la tercera etapa hay 6 lneas de annmlo. De
cuntas maneras puede moverse el producto en e l proceso de armado?

2.9. Un in pector visita 6 mquinas diferentes durante el da. A fin de impedir a los ope-
rad re que sepan cundo inspcccionart, vara el rden de las visitas. i.Dc cuntas manera
puede hacerlo?

2. 10. Un mecanismo complejo puede fallar en 15 partes diferentes. Si falla en 3 parte .


i.de cuntas maneras puede uceder?

2.11. Hay 12 maneras en las cuales un artculo manufacturado puede tener un pequeo
defecto y JO maneras en las cuale puede tener un defecto mayor. ;.De cuntas maneras
puede ocurrir un defecto menor y uno mayor'l 2 defectos menore y 2 defectos n.ayores?

2. 12. Un mecanismo puede poner e en cuatro posiciones digamos, a. b. ('. y d. Hay 8 de


tales mecani mos en un istema.
(a) i.De cuntas maneras puede instalar e este si;tema?
(b) Supnga e que dichos mecanismos estn instalad s en algn orden (lineal) pre-asig-
nado. ,De cuntas maneras posibles se instalan los mecanismos si dos mecanismos adyacente~
no e tn en la misma po icin'l
(e) i.Cuntas maneras son po ible i slo e usan las posiciones a y b con la misma fre-
cuencia?
(d) (. unta maneras son po ibles si slo se u an dos po icione diferente y una de ellas
aparece tres veces m a menudo que la otra'/

2.13. Supongamos que de N objetos elegimo 11 al azar, con ustitucin. Cul es la pro-
babilidad de que ningn objeto sea elegido ms de una vez? (Suponga que 11 < .)
2.14. De la letra a,b,c,d. e,yf, cuntas palabras de clave de 4 letras se pueden for-
mar si,
(a) ninguna letra se puede repetir?
(b) cua lquier letra se puede repetir cualquier nmero de veces?
2.15. Suponga que (9!) = a y (9/) = b. Expresar (~s) en funcin de a y b. [Indicacin.
1111 calcule las expre iones anteriore para resolver este problema.]
2.16. Una caja contiene e feras numerada l. 2. -. 11. Se escogen dos esferas al azar.
Encontrar la probabilidad de que los nmeros sobre las esferas can enteros consecu tivos si
(a) las esferas se escogen in ustitucin.
(b) las esfera se e cogen con sustitucin.

2.17. i.Cunto subconjunto que contengan al menos un elemento se pueden formar


de un conjunto de 100 elemento ?
Problemas 3.l

2.18. nlre lo nmero l. 2, 50 se escoge un nmero al azar. l 'ul e la probabi-


h l 1d de que el nmero escogido sea divisible por 6 o por '!

2.J9. De 6 nmeros po itivos y 8 nmero negalivos, se eligen 4 nmero al azar ( in


u 1i1ucin) y se multiplican. l ul e la probabilidad de que el producto sea un nmero
positivo?
2.20. Cierta sustancia qumica se forma mezclando 5 lquidos distinto . Se propone verter
un lquido en un estanque y agregar sucesivamente lo otro lquidos. Todas las combina-
uonc posible se deben probar para e tablecer cu l da mejor resultado. l 'u ntas prueba
lle hcn hacerse?
2.21. Un lote contiene n artculos. Si se sabe que r artculos son defe tuo os y e in -
pcocionan en un orden alea torio, cul es la probabilidad de que el k-simo artculo (k 2: r) ins-
1 cionado sea el ltimo defectuoso en el lote?
2.22. r nmeros (O < r < 10) se e cogen al azar (sin sustitucin) entre los nmero O, 1,
, ... , 9. Cul es la probabilidad de que dos no sean iguales?
3
Probabilidad condicional e independencia

3.1 Probabilidad condicional


Consideremos de nuevo, la diferencia que exi te entre elegir al azar en un lote,
un artculo. con o in u titucin . n el ejemp l 2.4, el lote que considerbamo
tena la siguiente comp icin: 80 artculo in defecto y 20 defectuo os. Supn-
gase que elijamos dos artcu los de este lote: (a) con sustitucin: (b) sin susti tucin.
Definamos los u_ces s siguientes:
A = {el primer artculo es defectuoso },
B ={el segundo artculo e defectuoso }.
Si e cogemos con sustitucin. P(A) = P(B) =-fo% = !. Cada vez que elegimo .
en el lote hay 20 artculos defectuo os de un total de 100. in embargo. i elegi-
mo sin ustitucin, los resultados no on completamente inmediato . Todava
e verdad, naturalmente, que P(A) = !. Pero i.cul es e l v<1lor de P B)? evidente
que con e l fin de calcular P(B) deberamos conocer la composicin del lote. cuando
se escoge el segundo anculo. n otra palabra , deberamo abcr i el suce o A
ocurri o no. ste ejemplo indica la nece idad de pre entar el siguiente concepto
importante.
Sean A y B do uce o a ociado con un experimento f:. Indiquemos con
P(B 1 A) la probabilidad condicional del suce o B, dado que A ha currido.
n el ejemplo anterior. P(B 1 A) = ~. Porque si A ha ocurrid , entonces al
acar por segunda vez quedan lo 99 artculos. de los cuale 19 on defectuosos.
s
A B

IG RA 3. 1
34
. t Probabilidad condicional 35

'ada vez que calculamo P(B 1A) e tamos e encialmente calculando P(B)
ml rcs~cto al espacio muestra/ reducido de A en vez del e pacio mue tral origi-
11.t l S. 'onsideremos el diagrama de Venn en la figura 3. J.
C uando calculamo P(B) nos preguntamo qu tan probable e que estemos
'11 B, abiendo que debemos e tar en S, y cuando evaluamo P(B 1 A) no prc-
nnta mos qu tan probable es que e ternos en B, sabiendo que debemo e tar
111 A . ( sto es, fuspacio muestra! se ha reducido de S a A.)
Pronto daremos una definicin formal de P(B 1 A). Por el momento, sin cm bar-
o eguiremos con nuestra nocin intuitiva de probabilidad condicional y e n-
1dcraremo un ejemplo:

3.1.
EJEMPLO e lanzan do dado normale y e anotan los re ultados
( 1, en donde x; es el resultado del i-simo dado i = 1 2. Por tanto, el e pacio
2)

s=
l
111ue tra l S e puede repre entar por el siguiente cuadro de 36 resultado igual -
111 nte posible :

(1 , 1)
(2 1)

(6, !)
(! , 2)
(2, 2)

(6, 2)
(! , 6)
(2. 6)

(6, 6)

' n ideremos lo do uce o iguientes:


A = {(xi. x 2) 1 x, + X 2 = 10} B = {(xi. x 2) 1 X1 > x 2}.
As A = {(5, 5), (4 6), (6, 4) y B = {(2. 1), (3, l), (3, 2), . (6, 5)}. Por tanto,
P(A) = :fu y P(B) =ji. Adems P(B 1 A) = . ya que el e pacio muestra! es ahora
1, (que son tres resultado ) y slo uno de ello e con i tente con el uce o B.
De una manera semejante, nosotro podemos calcular P(A 1B) =
Finalmente, calculemos P(A ri B). El suce o (A n B) ocurre, i y lo i la
suma de los dos dados es 10 y el primer dado indica un valor mayor que e'I egun-
d dado. Hay olamente un re ultado y, por tanto P(A n B) =-.fo. Si ob ervamo
cuidado amente lo diver o nmero que hemos calculado anteriormente, de-
ducimo que se cumple lo siguiente:
P(A n B) P(B 1 A) = P(A n B) .
P(A 1 B) = P(B) y P(A)
Sucede que esa relacione no olamente aparecen en lo ejemplo p~ rticulares
que hemo considerado, ino que son completamente generales y no dan un
medio de definir formalmente la probabilidad condicional.
Para ju tificar e ta definicin volvamo al concepto de frecuencia relativa.
Supongamos que e ha repetido un experimento e n veces. Sean nA, n8 y nAns el
nmero respectivo de veces que los suce o A, B , y A n B han ocurrido en las n
repeticiones. Cul es el significado de nA nslnA? Repre enta la frecuencia relati-
va de B entre esos resultados en los que A ocurri. Esto es nAnsfnA e la frecuen-
cia relativa condicional de B, dado que A ocurri.
J(i l'roh,1hilidud cm1dicion:1I ~ indc1>c11dmcia :u

Podemos escribir 11,.n 8/11,. como igue:

en donde f,.n 8 y f,. son la frecuencias relativas de los uce s A n B y A. res-


pccti amente. "orno ya l hcmo indicado (y como lo demostraremos m ade-
lante), si 11, el nmero de rcpeticionc e grande, f,. n8 e tar prximo a P(A n B)
y .f,1 estar prxima a P(A). Por lo tanto. la relacin anterio r sugiere que nAnn/ 11 11
e. tar prxima a P(BIA ). As hacemos l.1 siguiente definicin formal:

Definicin.
dado que P(A) > O. (3. l)

Ohsenmiones: (a) importante darse cuenta de que lo anterior no es un teorema


(no demostramo. nada). ni tampoco un axioma. implemente presentamos la nocin intuitiva
de probabilidad condicional y luego hicimo la delnicin formal de lo que enlendemo por
esta nocin. 1 hecho de que nue tra definicin formal corresponde a nuestra nocin intuitiva
e ti1 comprobado por el prrafo que precede a la definicin.
(b) s muy encillo comprob.u que P(B 1A) para un valor de A lijo, satisface los di ver o
postulado de la probabi lidad ecuacin ( 1.3). ( cr problema 3.22.) r,w e . tcncmth:

(I ') O :s; P(B I A) :s; J.


(2') i
P(S A) = l.
(3') i
P(B1v8 2 1A) = P(B, A)+ P(B2 I A) si B, n Bz = ~. (3.2)
(4') P(B, v 8 2 v I A) = P(B1 I A) + P(Bi I A) + si 8 1n B = ('
para i i' j.

(c) Si A = . P(B I S) = P(B n S)/ P(SJ = P(B).


(d) Con Cltda suceso B e S podemos asociar dos nmeros. P(B), la probabilidad (no
condicional) de 8 , y P(B 1 A), la probabilidad condicional de B. dado que algn uccso A
(para el cual P(A) > O) ha ocurrido. n general_ esas dos medidas de probabilidad a ignarn
probabilidades distintas al uccso B. como se indic en los ejemplo precedente . En breve
e tudiarcmo un importante ca$O especia l en el cual P(B) y P(B I A) son la misma.
(e) tc e que la probabilidad condicional c. t definida en trmino de la medida de
probabilidad no condicional P. sto es, si conocemos P(8) para cada B e podemos calcular
P(B 1A) para cada Be S.

A .t encmo dos maneras de calcular la probabilidad condicional P(B 1 A):


(a) Directamente con iderando la probabilidad de B con respecto a l espacio
mu tral reducido A.
(b) ando la definicin anterior, donde P(A n B) y P(A) se calculan con
respecto al espacio mue tral original S.

Observacin: i A = S, obtenemos P(B 1SI = P(B n S)/ P(S) = P(B) . puesto que P(S) = J
y B n S = B. A i debe ser. porque decir que S ha ocurrido, lo indica que el experimento
ha sido realizado.
1.1 Probabilidad condl lonal 37

JliMPLO 3.2. upnga e que una oficina tiene LOO mquina calculadoral>.
lgunas de e a mquina son elctricas (E), mientra que otras on manuales
( 1). Adems, alguna on nueva ( ), mientra las otra son u ada (U). La ta-
bla 3.1 da el nmero de mquina de cada categora. Una per ona entra en la

TABl-A 3.1
E M

N 40 o 70

u 20 JO 30

60 40 lOO

ofici na, e coge una mquina a l azar, y descubre que es nueva. ul es la pro-
babilidad de que ea elctrica'? n trmino de la notacin introducida de eam
ca lcular P(E 1N).
lo con iderando el e pacio mue tral reducido (es decir, las 70 mquina
nueva), tenemos que : P(E 1 ) = 48 - ~. Usando la definicin de probabilidad
condicional. tcnemo que:
P(En ) 40/100 4
P(E I ) =- P( )- = 70/ 100 = 7
La con ccucncia ms importante de la defini in de probabilidad condicional
se obtiene e cribindola de la manera iguientc:
P(A n 8) = P(B 1 A)P(A)
lo que equivale a, (3.3a)
P(A n B) = P(A 1B)P(B).
sto a cccs conoce como el reorema de multiplicacin de Rrobabilidadc .
P dem apli ar e te teorema al clculo de la prob,1bilidad de la ocurrencia
imultnea de lo dos uce os A y B.

EJEMPLO 3.3. 'o n id remo otra vez el lote discutido al comienzo de la


eccin 3.1, el cual con la de 20 artculos defectuosos y 80 in defectos. Si eco-
gemo 2 artculos al azar, sin u titucin , cul e la probabilidad d que ambos
artculos sean dcfectuo o ?
Como ante . dcfinim lo uce o A y B como igue:
A = { 1 primer artculo e defectuoso}, B = {el segundo artculo e defectuo o}.

Por lo tant . nece itamos P(A n B), que puede calcu larse de acuerdo con la fr-
mula anterior. como P(B 1A)P(A). Pero P(B 1A) = ~ mientras que P(A) = 1 Por
lo tanto
P(A n B) =i1Js
38 Probabilidad condi ional e independencia

Observacin : e puede generalizar el anterior teorema de la multiplicacin a m s de


do suceso de la siguiente manera:

P[A1 "A2 f'\ ('\ An = P(A 1)P(A i 1A i)P(A3 I A., A 2) P(A. I A., -, A. - 1). (3.3b)

Con ideremo por un momento si podemo hacer una afirmacin general


acerca de la magnitud relativa de P(A 1 B) y P(A). Consideremo los 4 ca o ilu -
trado por lo diagrama de Venn en la figura 3.2. Tenemo :
(a) P(A 1B) = O ~ P(A) puesto que A no puede ocurrir i B ha ocurrido.
(b) P(A 1B) = P(A n B)/(P(B) = [P(A)/ P(B)] ~ P(A), pue to que O~ P(B) ~ l.
(c} P(A 1B) = P(A 11 B)/ P(B) = P(B)/ P(B) = 1 ~ P(A).
(d) En e te ca o no podemos hacer ninguna afirmacin acerca de la magnitud
relativa de P(A 1 B) y P(A) .
s

,
(a) A n B - f'J (b) A C 8 (e) B e A (d) inguno de e tos casos
lOURA 3.2

Nte e que en dos de lo ca os anteriores P(A) s; P(A 1B). en un ca o, P(A) ~


P(A 1B}. y en el cuarto caso no podemo hacer ninguna cla e de comparacione .
Anteriormente, u amo el concepto de probablidad condicional con el fin de
evaluar la probabilidad de la ocurrencia imultnea de lo do uce o . Podemo
aplicar e te concepto de otra manera para calcular la probabilidad de un solo
suceso A. ecesitamos la iguiente definicin.

Definicin. Decimo que los uce o B 1 8 2 , , Bk .r.epre entan una p_arti-


ci6n del e pacio mue tral S :
{a) B; n Bi = ~ para todo i -:F j.
k
(b} U B1 = S.
= l

(e) P(B1} > O para todo i.


En otras palabra -: cuando se efecta
el experimento e, ocurre uno y slo
uno de los suceso B;. F10 RA 3.3

(Por ejemplo. en el lanzamiento de un dado 8 1 = {l. 2]. B~ = f3. 4. 5}. y B 3 =


:6: representaran una particin del espac.:i mueal. mientra. que C 1 =
{ 1.2. 3, 4} y C 2 = {4.5.6 j no).
1. 1 Prubabllkh1d cOPdi lonal "

ea A algn uceso con respecto a S y sea Bi. 8 2 , ., Bk una particin de S.


H diagrama de Venn de la figura 3.3 ilustra esto para k = 8. Por tanto, podemos
scri bir
A = A n 8 1 v A " 8 2 v v A n B .
Por cierto que algunos de lo conjuntos A n Bj pueden ser vacos, pero esto no
invalida la anterior descomposicin de A. Lo importante es que todos lo suce-
sos A n 8 1 , ., A n B~ on mutuamente excluyentes. Por lo tanto, podemos
aplicar la propiedad adi tiva para este tipo de sucesos (e<:uacin 1.3) y escribir:

P(A) = P(A () B) + P(A "82) + + P(A n Bk).


Sin embargo, cada trmino P(A n 8) se puede exprc ar como P(A 1 Bj)P(B) y,
por lo tanto, obtenemos el llamado teorema de la probabilidad total:

Este re ultado repre enta una relacin muy til, ya que frecuentemente cuando
se busca P(A) puede er dificil calcularlo directamente. Sin embargo, con la in-
for macn adicional de que 8 ha ocurrido, podemos calcular P(A 1B) y enton-
ces usar la frmula anterior.

E JBMPL 3.4. on ideremos (por ltima vez) el lote de 20 a rtculos defec-


tuosos y 80 sin defectos, de los cuales escogemos 2 artculos sin su ltucn. Nue-
vamente defnimos A y B: .

A = {el primer artculo elegido es defectuoso},


B = {el egundo artculo elegido es defectuo o}.

podemos ahora calcular P(B) como sigue:

P(B) = P(B 1 A)P(A) + P(B 1 A)P(A).


Usando uno de lo clculos ya hechos en el ejemplo 3.3 encontramos que

Este re ultado puede er un poco sorprendente, particularmente si el lector


recuerda que al comienzo de la seccin 3.1 encontramos que P(B) = ! cuando
escogemos los artculos con su titucin.

EJEMPLO 3.5. Cierto artculo es manufacturado por tres fbricas, sean l , 2 y 3.


Se sabe que la primera produce el doble de artculos que la segunda y que sta
y la tercera producen el mismo nmero de artculos (durante un perodo de pro-
duccin especificado). Se sabe tambin que el 2 por ciento de los artculos produci-
dos por las dos primeras es defectuoso mientras que el 4 por ciento de los manufac-
40 l'robabildad condicional e Independencia ).2

turados por la tercera e dccctuo . e <:olo..:an juntos todos lo artcu lo produ-


cidos en una fila y se escoge uno al azar. ,Cul es la probabilidad de que e te
artcu lo . ea dcectuoso?
Dcfinamo lo siguiente uceso :

A = {el artculo e defectuoso}. 8 1 = { 1 artcu l proviene de 1},


8 2 = {el artcu lo proviene de 2}; 8 3 = el artculo proviene de 3}.

o otro necc tamo P(A) y, u ando el re ultado anterior, podemos escribir:

Ahora P(B 1) = i, mientra que P(82) = P(B 1) = -!:.Tambin P(A 1 Bi) = P(A IB2)
= 0,02, mientra que P(A 1 B3 ) = O04. Poniendo sus valores en la expre in an-
terior obtenemo P(A) = 0,025.

Ob:;e1vacin: en qum ica se ha observado la siguiente ana loga con el teorema de la


probabilidad total. upngase que k matraces que contienen diferentes , olueiones de la misma
sal, hacen un litro. ea P(B;) el volumen del i-simo matraz y P(A 1B 1) la concentracin de la
solucin en el i-simo matraz. i combinamos todas las solucione en un matraz y supone-
mos que P(A) indica la concentracin de la solucin resultante. obtenemos:
P(A ) = P(A 1B1)P(B1) + + P(A j B1)P(Bk).

3.2 Teorema de Bayes

Podemo usar el ejemplo 3.5 para ju tificar otro resultado importante. Su-
pongamos que del dep it e escoge un artculo y e encuentra que e defectuo-
o. i. 'ul es la probabi lidad de que e produjese en la primera fbrica?
U ando la notacin, pre entada previamente, ncce itamo P(B 1 1 A). Podemos
calcular esta probabilidad como una consecuencia de la iguiente. Sean 8 1, Bk
una particin del espacio muest ra! S. Sea A un suceso asociado con S. Aplican-
do la definicin de probabilidad condicional, podemos e cribir:

i = l. 2, .. , k. (3.5)

E te re ultado e conoce como teorema de Bayes. Tambin e le llama frmula


para la probabilidad de la "cau a " . Pue to que las 8 son una particin del es-
pacio mue tral, uno y slo uno de lo ucesos 8 1 ocurre. (Esto es uno de los u-
ceso B; debe ocurrir y olamente uno). Por lo tanto, la frmula anterior nos da
la probabilidad de un 8 1 particular (esto e , una "cau a"), dado qoe el uceso A
ha ocurrido. Para aplicar este teorema, debemos conocer lo valore de las P(B1).
Muy a menudo e o valore no son conocido , y esto limita el u o del resul tado.
Ha habido con iderable controversia acerca del teorema de Bayes. Matemtica-
\,2 Tcotl'ma d Bo)es 41

mente es perfectamente correcto; s lo la eleccin impropia para P(B) hace el


resultado objetable.
Volviendo a la pregunta propuesta anteriormente y aplicando ahora la ecua-
1.:1n (3.5), obtenemos:

(0,02)( 1/ 2)
P(Bi 1 A)= (0,02)(1 / 2) + (0.02)(1 /4) + (0,04)(1 /4) = 0,40.
Obs1m:aci11 : otra vez podemo encontrar una analoga con el teorema de Baye . en
qu mica. En k matraces tenemos soluciones de la misma sal. pero de concenlracione dife-
rentes. Supongamo que el volumen total de la solucin es un litro. Indicando el volu men
de la solucin en el i-simo matra1 por P(B,J e indicando la conoentracin de la sal en ese
mi mo matraz por P(A 1 B1) , encontramos que la ecuacin (3.5) da la proporcin de la cantidad
completa de al encontrada en el i- imo matraz.

La iguiente ilustracin del teorema de Bayes nos dar una oportunidad de


pre entar la idea de un diagrama de rbol, un mtodo muy til para analizar cier-
tos problema . -
Supnga e que muchas caja e tn llenas de caramelos de dos tipos, diga-
mos A y B. El tipo A contiene 70 por ciento dulce y 30 por ciento cido, mientras
que en el tipo B dichos porcentaje on al revs. An ms upngase que el 60
por ciento de todas la cajas de caramelos son del tipo A mientra que el resto
son del tipo B.
Ahora e tamos ante el iguiente problema de deci in. U tcd recibe una caja
de dulce de tipo de conocido. Se le permite acar una muestra de un caramelo
(una ituacin ciertamente no real, pero que nos permite presentar las idea im-
portante in mucha complicacin) y con e ta informacin debe decir si cree que
el tipo A o el tipo B le ha ido ofrecido. El iguientc "diagrama de rbo l" (llama-
do as por las diver as trayectoria o ramas que aparecen) nos ayudar~ a analizar
el problema. ( w y S0 indican la eleccin de un caramelo dulce o cido, re pecti-
vamentc.)

Hagamo unos poco clculo :

P{A) = 0,6; P(B) = OA; P(Sw 1 A) = 0.7;


P(So 1 A) = 0.3: P(Sw i B) = 0,3; P(So 1 B) = 0,7.
42 Probabilidad condi iunal e independencia 3.3

Lo que realmente descamo aber e P(.-t 1Sw), P(A 1S0 ) P(B 1Sw) y P(B 1S0 ).
Esto es, uponiendo que realmente escogimo un caramelo dulce. Qu decisin
e taramos ms inclinado a hacer? Comparemo P(A 1Sw) y P(B 1Sw). Utilizan-
do la frmula de Bayes tenemo

p A _ P(Sw 1 A)P(A) (0,7)(0,6) 7


( j Sw) - P(Sw 1 A)P(A) + P(Sw 1 B P(B) (0,7)(0,6) + (0,3)(0,4) 9.
Un clculo imitar no da P(B 1 Sw) = 2/9.
A , con base en la evidencia que tenemo (e decir, la obtencin de un cara-
melo dulce) es 2~ vece ms probable que estemos considerando un depsito
del tipo A que del tipo B. Por lo tanto, decidiramos, po iblemente, que el carame-
lo se obtuvo de una caja tipo A. (Podramo e lar equivocados, natura lmente.
Lo intere ante del anli is anterior e que elegimo la alternativa que parece
m probable con base en los dato limitado que tcncmo .)
En trmino del diagrama de rbol, lo que realmente necesitbamos (e hici-
mo ) en lo clculos precedentes fue un anlisi "hacia atr ". to es, dado lo
que ob ervamo , Sw en e te ca o, ,qu tan probable era e. coger el tipo A?
Una situacin un poco ms intere ante aparece i se nos permite elegir dos
caramelo ante de decidir i el tipo A o el tipo Bes e'cogido. n este caso el dia-
grama de rbol aparecer como iguc.

n el problema 3.26 , le pide decidir obre uno de lo dos tipos, A o B , que


u ted mue tra, seg n los tre resultado experimentale posibles que u ted ob erva.

3.3 Sucesos independiente

Hemos considerado do suce os A y B que no pueden ocurrir imultnea-


mente, e to e A () B = ~- Tale sucesos se de ignaron mutuamente excluyente .
Indicamos previamente que si A y B son mutuamente excluyentes. entonces
PIAIB) =O. porque la ocurrencia de B impide la ocurrencia de A. Por otra parte,
u uceso indcpcndicnt 43

lcncmos el ca o, ya discutido anteriormente, en que B => A y, por lo tanto


l'tB IA) = l.
n cada uno de los ca o anteriores sabiendo que B ocurri, e no dio una
inf rmacin preci a referente a la probabilidad de la ocurrencia de A. Sin embargo,
hay muchos ca o en los cuale e sabe que i un uce o B ocurre, no tiene influencia
algu na en la ocurrencia o no ocurrencia de A.

EJEMPLO 3.6. Supongamos que se lanza un dado normal do veoe . Defi-


niremos lo ucesos A y B como igue:

A = {el primer dado mue tra un nmero par},


B = {el egundo dado mue tra un 5 o un 6}.

Por intuicin abemo que lo uce os A y 8 no estn relacionado . Saber que B


cu rre, no proporciona informacin acerca de la ocurrencia de A. e hecho,
el iguiente clculo lo pone de manifie to. Tomando como nuestro espacio mue -

traremos que P(A) =


Por lo tanto
*
tral lo 36 resultado igualmente p iblc con iderado en el ejemplo 3.1 , encon-
= !, P(B) = ji = j, mientra que P(A r. B) = f; = l;.

P(AjB) = P(A r. 8) = ( i) = !.
P(B) ( !) 2

As encontramos, como era de suponer, que la probabilidad no condicional


es igual a la probabilidad condicional P(AIB). De modo semejante

P(B IA} = P(B " A) = W = ! = P(B).


P(A) ( t) 3

Por lo tanto podramo e tar inclinado a decir que A y B on independientes


i y lo i P(B/A) = P(A) y P(BIA) = P(B). Aunque sera muy apropiado, hay
otro mtodo que evita la dificultad encontrada aqu e decir que ambos P(A)
y P(B), deben er diferente de cero ante de que la igualdade anteriore sean
ignificativas.
Con ideremo P(A n B). suponiendo que las probabildade condicionales
anteriore sean iguale a la probabilidades no condicionale correspondientes.
Tenemo
P(A n B) = P(A / B)P(B) = P(A)P(B),
P(A n B) = P(B 1A)P(A) = P(B)P(A).

A encontramo que, como ni P(A} ni P(B) son iguale a cero, Ja probabilidades


no condicionales son iguale a las probabilidades condicionale i y lo
P{A r. B) = P(A)P(B). Aqu hacemos Ja iguicnte definicin formal. [Si P(A)
o P!B) es igual a cero. e ta definicin es an vlida.]
44 Probabilidad condicional e independencia 3.3

Defmicin. A y B son suce os independientes si y slo si

P(A n B) = P(A)P(B). (3.6)

Observacin: esta definicin es equivalente a la sugerida anteriormente, e decir, que


A y B on independientes si P(B 1A) = P(B) y P(A 1B) = P(A). Esta ltima forma e ligera-
mente ms intuitiva, porque dice preci amente lo que hemos estado tratando de decir antes ~
A y B on independientes si el conocimiento de la ocurrencia de A no inluye de modo alguno
en la probabilidad de la ocurrencia de B.
Que la definicin formal adoptada tambin tiene un cierto carcter intuitivo, puede verse
al con iderar el siguiente ejemplo.

EJ MPLO 3.7. Veamo otra vez el ejemplo 3.2. Con ideremo primero la
tabla siguiente lo con lo valores marginale dado .

E M

~ \..__- --
70
30
60 40 100

Esto es, hay 60 mquinas elctrica y 40 manuale . Del total. 70 son nueva mientra
que 30 son usada . Hay muchas maneras de llenar lo dalo de la tabla, con i -
tentemente con lo totales marginale dado . Abajo anotamos alguna de e as
posibilidades.
E M E M E M
N f6010l
70 N ~ 10 N ~ ?O
U ~ 30 U ~ 30 U ~ 30
60 40 100 60 40 100 60 40 100
(a) (b) (c)

Consideremos la tabla (a). Aqu todas la mquina elctrica son nuevas,


y todas las usada son manuales. As hay una relacin obvia (no necesariamente
cau al) entre las caracter ticas de ser elctricas y er nueva . Igualmente, en la
tabla (b) todas la mquinas manuales son nuevas y todas las usadas son elctrica .
Otra vez parece existir una relacin definida entre e a caracter ticas. Sin embargo,
cuando ob ervamo la tabla (c) el panorama e muy diferente. Aqu no exi te
una relacin aparente. Por ejemplo, 60 por ciento de toda las mquinas on elc-
tricas y exactamente el 60 por ciento de las mquinas u adas son elctricas. De modo
emejante, el 70 por ciento de todas las mquinas on nuevas, y exactamente el 70
por ciento de las mquina manuales son nuevas, etc.... As, ninguna indicacin
no muestra que las caractersticas de er nuevas y er elctnca tengan alguna
relacin entre . Naturalmente, esta tabla fue elaborada precisamente de modo que
exhiba esta propiedad. 'mo se obtuvieron lo dato de esta tabla? Simplemente
aplicando la ecuacin (3.6); es decir, como P(E) =No y P(N) = iu% debemo tener,
ooesos indcpetidicnl~ 45

ror independencia, P(E n ) = P(E)P(NI = No. Por lo tanto, la entrada en


I tabla que indica el nmero de mquinas elctricas nueva e t dada por el
nmero 42. La otra entrada e obtuvieron de un modo semejante.
n la mayor parte de la aplicacione supondremo la independencia de los
do uce o A y B y luego u aremo esta hipte is para calcular P(A r-. 8). como
P(A)P(B). Generalmente, la condiciones f1 icas bajo la cuale se realiza el ex-
pe rimento harn posible determinar i tal uposicin es ju tificada o al menos
u p~ imadamente justificada.

EJEMPLO 3.8. Con ideremos un lote grande de artculo , digamo I0.000.


Supongamos que el 10 por ciento de e tos artculo es defectuo o y el 90 por ciento
no. Se e cogen dos artculos. Cul e la probabilidad de que ambos no ean de-
ectuo o?
Definamo lo uce o A y B a :

A = {primer artculo no es defectuo o},


B = { egundo artculo no e defectuo o}.

Si suponemos que el primer artculo e ustituye antes de e coger el segundo,


entonce e puede suponer que los sucesos A y B on independientes y, por tanto
P( A r-. 8) = {0.9)(0.9) = 0.81 . Sin embargo. en forma m real. el egundo artculo
e e coge sin sustituir el primero. En e te ca o,

P(A 'I 8) = P(B 1A)P(A} =W (0 9)

que e aproximadamente 0,81. A , aunque A y B no son independientes en el


egundo caso, la suposicin de independencia que implifica considerablemente
Jos clculos, cau a lo un error de preciable. (Recuerde el objetivo de un modelo
matemtico como el que e de cribi en la seccin 1.1). Si hubiese habido slo
pocos articulo en el lote, digamos 30. la suposicin de independencia habra
producido un gran error. As, se hace important verificar cuidadosamente las
condicione bajo las cuales se realiza el experimento, a fin de establecer la validez
de la uposicin de independenda entre varios sucesos.

EJEMPL-0 3.9. Supnga e que un mecanismo est formado por do compo-


nentes acoplado en serie, como se indica en la figura 3.4. Cada componente tiene
una probabilidad p de no funcionar. l 'ul es la probabilidad de que el mecanismo
funcione?

F10 RA 3.4
Es evidente que el mecani mo funcionar i y slo si ambos componentes
funcionan . Por tanto

Prob. (Mecanismo funcione) = Prob. (C 1 funcione y C 2 funcione).


% Probabilidad condicional e indepcndencia

La informacin que hemo dado no no permite seguir, a meno que sepamos


(o supongamo ) que los dos mecani mos trabajan independientemente. Esta
puede o no er una uposicin realista, que depende de cmo se acoplan la dos
parte . Si uponemos que los dos mecanismo trabajan independientemente. ob-
tenemos para la probabilidad pedida (1 - p) 2
er muy importante para no otro~ extender la nocin de independencia
a ms de do uce o . 'onsideremo primero tres suce os asociado con un ex-
perimento, digamos: A , B C. Si A y B, A y By C, son m11tuamente independien-
tes (en el sentido dado anteriormente), entonces no se deduce, en general, que
no haya dependencia entre lo tres uceso A, B y C. 1 iguiente ejemplo (algo
artificial) ilu tra este punto.

J MPLO 3.10. Supongamo que lanzamo do dado . Delinamo los uce os


A.By , como igue:

A = {el primer dado mue tra un nmero par},


B = {el egundo dado mue tra un nmero impar}
e = {ambo dados mue tran nmeros pare o nmeros impares}.

Tenemo P(A) = P(B) = P(C) =t. An ms, P(An B) = P(An C) = P(Bn


C) = !.
Por lo tanto, lo tre suceso on mutuamente independiente . Sin em-
bargo, P(An Bri ) = O :F P(A)P(B)P(C).
Este ejemplo motiva la iguente definicin.

Definicin. Decimo que lo tres ucesos A, B y C on muwamente indepen-


dientes i y lo si toda la condicione siguiente se mantienen:

P(A n B) = P(A)P(B), P(A n C) = P(A)P(C),


(3.7)
P(B n C) = P(B)P(C) P(A n B n ) = P(A)P(B)P(C).

Finalmente generalizaremos esta nocin a n uceso , dando la siguiente de-


finicin.

Definicin. Lo n suce o A., A 2 , An son mutuamente independientes


si y lo i tenem para k = 2, 3. , n,

P(A;, n A;, ri n A;k) = P(A;,)P(A;,) P(A 1J. (3.8)

(Hay 2" - n - 1 condiciones juntas anotadas; ver el problema 3- 18).


Observacin : en la mayor parte de las aplcaciones. no necesitamo verificar toda esta
rnndicionc . porque generalmente suponemos la independencia. (con ba e en lo que abemos
acerca del experimento). No otro , entonces. usamos esta supo icin para calcular. digamo :
P(A;, n A 1, n n A 1.) como P(A ;,)P(A 1, ) P(A;.).
Suce"" indl'pendil'flll" if1

~~I 12~
~ -~ ---ii4~ 1-I F10 RA 3.5

JEMPLO 3.11. La probabilidad de cerrar cada uno de los rel del circuito
que se indica en la figura 3.5 est dada por p. Si todos los rels funcionan inde-
pendientemente ;,cul es la probabilidad <.11.: que exi ta una corrien te en los ter-
mina les I y D?
Sea A1 el suceso que repre en ta {rel i cst cerrado}. i = 1, 2. 3. 4. ca E el su-
ceso que repre en ta Pa corriente pa. a d1. I .i D }. Por tanto E = (A 1 n A 2 ) v
(A 3 n A 4 ). ( ote que A 1 n A 2 y A 3 n A4 no son mutuamente excl uyente.) As

P(E) = P(A 1 n Ai ) + P(A3 n A4) - P(A1 f"'\ A2 n A3 n A4)


= p2 + p}. - p4 = 2p2 - p4.

F1G RA 3.6

EJEMPLO 3.12. Supngase otra vez que en el circuito de la figura 3.6, la pro-
babilidad de que cada uno de los rels est cerrado e p y que todos los rel fun-
cionan independientemente. ul es la probabilidad de que exista una corriente
entre los terminales J y D?
Usando la mima notacin como en el ejemplo 3.11, tenemo que

P(E) = P(A 1 n A2) + P(A~) + P(A 3 n A.d - P(A 1 r. Al r. As)


- P(A 1 n Al n AJ n A4) - P(As n AJ n A4)
+ P(A 1 n Al n AJ n A4 n As)
= pl + p + p2 _ PJ _ p4 _ PJ + ps = p + 2p2 _ 2 PJ _ p4 + ps . .

Para cerrar e te captulo indiquemos una solucin muy comn, pero errnea,
del problema.

EJEMPLO 3.13. Suponga que entre seis perno . . dos . on m corto que una
longitud especfica. Si se e ' cogen dos pernos al azar. cul es la probabilidad de
que lo dos ms corto sean los e cogidos? Sea A 1 el suce o {el i-simo perno ele-
gido e corto}, i = 1, 2.
-48 l'r11babilldad condi ional "' indepcnd ncia 3A

Por lo tanto queremos evaluar P(A 1 n A 1 ). La solucin correcta e obtierie,


naturalmente. al escribir
P(A 1 n Ai) = P(A 2 I Ai)P(Ai) = 1
~ = }5.
La olucin comn pero i11correc1a es e cribir:

P(A 1 n Ai) = P(A 2) 1'(!1.) = ! = 11s-


Lo importante. en realidad, e que aunque la respue ta e correcta. la identifi-
cacin de 1 con P(A 2 ) es incorrecta ;~ representa P(A 2 j A.). Para evaluar P(A 2 )
en f rma correcta, cscribim

3.4 onsidcraciones esquemtica ; probabilidad condicional e independencia


La solucin esquemtica siguiente puede ser til para comprender el concepto
de pr babilidad condicional. Supnga e que A y B on do suce o a ociados
con un espacio muestra! para el cual las distinta probabilidades se indican en
el diagrama de Venn que aparece en la figura 3.7.

0.2 FIGURA 3. 7

Por 1 tanto P(A n B) = 0,1, P(A) = 0, 1 + 0.3 = 0,4 y P(B) = O,l + OA = 0.5.
n seguida, representemo la di crsa probabilidade por las reas de los
rectngulos corno en la figura 3.8. En cada ca o. la regiones ombreadas indican
el uce o B: en el rectngulo de la izquierda repre entamo A n B y en el de la
derecha A' n B.
0.6

0.2 B'
0.4

B' 0.3
0,4 B

B ' 0..1 FIGURA 3.8


A A'
' Con idcracione~ l"'>qucm:Hca., 49

upongamos ahora que deseamos calcular P(B 1 A). As lo nece itamos


rn nsidcrar A ; esto es, A' puede ignorarse en los clcu lo . otemos que la propor-
r1 n de Ben A es 1/4. (Podemo verificar esto tambin al aplicar c. (3.1 ): P(B 1 A) =
l 1(A n B)/ P(A) = 0, 1/0,4 = 1/4). Por lo tanto P(B' 1 A) = 3/4 , y el diagrama que
r pre cnta esta probabilidad condicional e tara dado por la figura 3.9.

LO

8' 0 .75

B o F10 RA 3.9
A A'

Ntese tambin que i e da A como ocurrido, toda las probabilidade (es


decir 1) se deben asociar con el uceso A mientras que ninguna de las probabi-
hdade (es decir O) e t asociada con A' . An m , nte e que en el rectngulo
11quierdo, que repre enta A, solamente la entrada individuale han cambiado
J e la figura 3.8 a la figura 3.9 (sumando 1 en vez de 0,4). Sin embargo, las propor-
cione dentro del rectngulo han permanecido iguale (es decir, 3: 1).
llustremo la nocin de independencia, u ando la olucin esquemtica pre-
cntada anteriormente. upnga e que los sucesos A y B e dibujan en la figura 3.1 O.
C:n e e caso la proporcione en los do rectngulos, que repre cntan A y A' , son
las misma : 3: 1 en ambos casos. As tenemos P(B) = 0,1 + 0.15 = 0.25. y
P(B f"\ A) = O, 1/0.4 = 0,2 .

0,6

0.4
0.45 B'

B' 0,3

B 0,1 0,15 B 10 RA 3.10


A A'

Finalmente, ob rvese que implemente mirando la figura 3.8 podemos calcu-


lar la otra probabilidades condicionale : P(A 1B) = l /5(pue to que 1/ 5 del
rea total rectangular que representa B est ocupada por A), P(A' I B} = 4/ 5.
50 Probabilidad condicional e independencia

PROBLEMAS
3.1. La urna 1 contiene x e feras blanca e .\' n>Ja . La urna 2 contiene z cseras blancas
y u rojas. Se escoge una esfera al awr de la urna 1 y se pone en la urna 2. E111011,es se e coge
una esfera al azar de la urna 2. i.Cu l es la prohabilidad de que e ta esfera sea blanca'!
3.2. Do tubos deectuo os e confunden con dos buenos. Los tubos se prueban, uno
por uno, hasta encontrar los defectuosos.
(a) i.Cul es la probabilidad de encontrar el ltimo tubo defectuo o en la . egunda prueba'!
(b) 'ul e la probabilidad de encon trar el ultimo tubo defectuoo en la tercera prueba?
(c) i. ul es la probabilidad de encontrar el ltimo tubo defoctuoso en la cuarta prueba''
(d) Agregue los nmeros obtenido anteriormente en (a), (b) y (c). i. s sorprendente el
resultado"!
3.3. Una caja contiene 4 tubos malos y 6 buenos. Se sacan dos a la vez. e prueba uno
de ello y se encuentra que e bueno. (.Cul es la probabilidad de que el otro tambin sea bueno?
3.4. En el problema anterior lo tubos se verifican sacando uno al azar. e prueba y se
repite el proceso ha ta que se encuentran los cuatro tubo malos. i. 'u l es la probabilidad
de encontrar el cuarto tubo malo,
(a) en la quinta prueba?
(b) en la dcima prueba'!
3.5. upngase que A y B son dos succ os indepcr.diente asociado con un experimento.
Si la probabilidad de que A o 8 ocurra e igual a 0,6, mientras que la probabilidad de que A
ocurra es igual a 0,4, determinar la probabilidad de que B ocurra.
3.6. Veinte artculos, 12 de los cuales son defectuo os y 8 no defoctuosos. e in pc<:conan
uno despus de otro. Si esos artculos se escogen al azar. ;.cu l e.; la Pr<'bab11iu.id de que:
(a) los dos primeros arlculo in peccionado ean defectuoso. '!
(b) los dos primeros artculo inspeccionado sean no decctuoso '!
(c) entre los dos primero artculos in pcccionados haya uno deectuoso y uno no de-
fectuoso'?
3.7. Supngase que tenemos 2 urnas, 1 y 2, cada una con dos caJone. . La urna 1 tiene
una moneda de oro en un cajn y una de plata en el otro. mientra que la urna 2 tiene una
moneda de oro en cada uno de lo CaJones. Se escoge una urna a l azar; y de sta e escoge un
cajf" al azar. La moneda encontrada en este cajn resulta ser de oro. i. ul e la probabilidad
de que la moneda provenga de la urna 2?
3.8. n bolso contiene tre moneda una de las cuales est acuadil con do caras mien-
tras que la otras dos monc<las son normales y no son sesgadas. Se e coge una moneda al
azar del bolso y se lanza cuatro vece en forma sucesiva. i cada vez ale cara, ;,cul es la pro-
babilidad de que st<i sea la moneda con dos caras'!
3.9. n una fbrica de pernos, las mquina A, By C fabrican 25, 35 y 40 por ciento de la
produccin total, respectivamente. De lo que prlducen. 5, 4 y 2 por ciento. respectivamente..
son pernos defectuosos. Se escoge un perno al a1~1r y se encuentra que es defcctUO 'O. , 'ul
es la probabilidad que el perno provenga de la mquina A? 8? C!
3.IO. Sean A y B dos suce o a ociados con un experimento. upngase que P(A) = 0,4
mientras que P(A v B) = 0,7. Sea P(B) = p.
(a) , Para qu eleccin de p son A y B mutuamente excluyente '/
(b) i.Para qu eleccin de p son A y B independiente ?
Problem'I 51

3.1l. Tre componentes de un mecanismo, digamos C., C 2 y C) estn colocado en serie


( n una lnea recta). upngase que esos mecanismos estn agrupado en un orden aleatorio.
S a R el suceso {C 2 est a la derecha de C }, y sea S el suceso {C 3 est a la derecha de C 1 } .
/. on independientes lo suceso R y S? lPor qu?
3. 12. Se lanza un dado e, independientemente, e escoge al azar una carta de una baraja
normal. Cul es la probabilidad de que:
(a) el dado muestre un nmero par y la carta ea de un palo rojo?
(b) el dado muestre un nmero par o la carta sea de un palo rojo?
3.13. Un nmero binario est compuesto slo de los dgitos cero y uno. (Por ejemplo,
1011, 1100, etc.) Esos nmeros juegan un papel importante en el uso de los computadores
electrnicos. Supngase que un nmero binario est formado por n dgitos. Supngase que
la probabilidad de que aparezca un dgito incorrecto es p y que lo errores en dgito die-
rentcs son independiente uno de otro. i.Cul e la probabilidad de formar un nmero inco-
rrecto?
3.1 4. Se lanza un dado n veces. ,Cul es la probabilidad de que 6>> salga al menos una
vez en los n lanzamientos?
3.15. Do personas lanzan tres monedas regulares cada una. Cul es la probabilidad
de que obtengan el mismo nmero de caras?
3.16. Se lanzan dos dados. Puesto que la caras muestran nmero diferentes, cu l
es la probabilidad de que una cara sea 4?
3.17. En la fabricacin de cierto articulo se encuentra que se pre enta un tipo de defecto
con una probabilidad de 0,1 y defectos de un eguado tipo con probabilidad 0,05. (Se upone
la independencia entre los tipos .de defectos). Cul es la probabilidad de que:
(a) un artculo no tenga ambas clase de defectos?
(b) un artculo sea defectuoso?
(c) suponiendo que un artculo sea defectuoso, tenga slo un tipo de defecto?
3.18. Verifique que el nmero de condiciones indicadas en la ecuacin (3.8) est dado
por 2" - n - l.
3.19. Probar que si A y 8 on suceso indrpendientes, tambin lo son A y B, A y B, A y B.

(a) (b)
!GURA 3. 11

3.20. En la figura 3.1 l (a) y (b) e supone que la probabilidad de que cada rel est ce-
rrado es p y que cada rel se abre o se cierra independientemente de cualquier otro. Encon-
trar en cada ca o la probabilidad de que la corriente pase de 1 a D.
52 Probabilidad condi ional e independencia

TABLA 3.2

mero
de fallas o 2 3 4 5 6

A 0.1 0.2 0.3 0.2 0.09 0.07 0.04

B 0.3 0.1 0.1 O.l 0. 1 0.15 0.15

3.2 1. Do m<quinas, A, B. que e accionan independientemente, pueden tener un cierto


nmero de fallas cada da. a tabla 3.2 da la distribucin de probabilidades de las fallas de
cada una. 'alcular la siguientes probabi lidade :
(a) A y B tienen el mi mo nmero de falla .
(b) El nmero de fallas es menor que 4; menor que S.
(c) A tiene m fallas que B.
(d) B tiene e l doble de falla que A.
(e) B tiene 4 falla cuando e abe que B tiene por lo meno 2 fallas.
(f) 1 nmero mnimo de fallas de la do mquinas es 3; es menor que 3.
(g) 1 nmero mximo de fallas de las mquinas es 3; e m que 3.

3.22. Al verilicar la ecuacin (3.2), se observa que para A lijo, P(B 1A) sati facc lo diver-
so postulados de la probabilidad.

3.23. Si cada uno de lo elementos de un determinante de egundo orden es cero o uno,


cul e la proba il idad de que el valor del determinante sea positivo? (Supngase que las
entradas individuale del determin ante e e cogen independientemente, se upone que cada
uno de los valores tiene probabilidad!.)

3.24. Verilique que el teorema de la multiplicacin P(A 11 B) = P(A 1 B)P(B), e table-


cido para dos suceso , se puede generalizar para tre suce os como sigue:

P(A n B 11 C) = P(A 1B11C)P(B 1C)P(C).

3.25. n conjunto electrnico consta de dos ubsistemas, digamo A y B. A partir de


una serie de prueba previas, e pre uponen las siguiente probabi lidades:

P(A falle) = 0,20

P(B slo falle)= 0.15


P(A y Bfallen) = 0,15

Calcular las probabilidades siguiente .


(a) P(A fa lle 1 B haya fallado),
(b) P(A falle solamente).

3.26. inalicc el anlisis de l ejemplo dado en la eccin 3.2 decidiendo cul de los tipos
de tarros de caramelos, A o B. es el e cogido con base en el conocimiento de los do cara-
melo que fueron muestreado .
127. 'ada vez qu se hace un experimento. la ocurrencia de un suceso particular A es
11wal a 0,2. El experimento se repite, independientemente, hasta que A ocurre. 'alcule la pro-
babilidad de que sea necesario realizar un cuarto experimento .
.28. upngase que un mecanismo tiene N tubos. todos los cuales son necesarios para
u funcionamiento. Para localizar el tubo que funciona mal, se reemplaza suce ivamente
tilda uno de ellos por uno nuevo. lcular la probabilidad de que sea necc ario verificar
tu bo si la probabilidad (const nte) es p de.que un tubo est daado.
3.29. Probar: Si P(A 1B) > P(A) entonces P(B 1A) > P(B).
3.30. Un tubo al vaco puede provenir de uno cualquiera de tres fabricantes con pro-
b.t bilidadcs p 1 = 0,25, p 2 = 0,50 y p3 = 0,25. La probabilidades de que el tubo funcione
rnr rectamente durante un perodo de tiempo especificado on iguales a 0,1, 0,2 y 0.4, respec-
tiva mente, para los tres fabricante . alcular la probabilidad de que un tubo elegido alea to-
ria mente funcione durante el perodo de tiempo especific.'ldo.
3.31. Un istema elctrico consta de dos interruptores del tipo A, uno del tipo B, y cuatro
del tipo C, conectado como aparece en la figura 3.12. Calcule la probabilidad de que no se
pueda eliminar una falla en el circuito, con la llave K i los interruptores A, By Ce tn abierto
(es decir, fuera de servicio) con probabilidades 0.3, 0,4, 0,2, re pectivamcnte y i dlns fun-
cionan indcpcnd ientemcnte.

F IGURA . 12

3.32. La probabilidad de que un si tema s sot>rccargue e 0.4 durante cada conjunto


de ensayos de un experimento. alcule la probabilidad de que el si tema deje de funcionar
en tres ensayos independientes del experimento si las probabilidades de fallar ea l. 2 3 en-
ayos son iguales a 0,2, 0,5 y 0,8, respectivamente.
3.33. Se emiten cuatro eale de radio sucesivamente. Si la recepcin de cualquier eal
e independiente de la recepcin de otra y e tas probabilidades son 0,1; 0,2; 0,3 y 0,4 re pec-
tivamente, calcule la probabilidad de que la seal k ea recibid u por k = O, I, 2, 3. 4.
3.34. n <1ficionado usa el siguiente si tema para pronosticar el tiempo almo frico.
'lasifica cada da como seco o mojado y supone que la probabilidad de que cua lquier
da dado sea igual al precedente e. l dada por una constante p(O < p < 1). Con base en ano-
taciones anteriores, e supone que el l" de enero tiene una probabilidad fJ de ser seco. Su-
poniendo que /J. = probabi lidad (el n- imo da del aiio es Seco), obtener una expresin
para /J. en funcin de p y p. Evaluar tambin lim.- 00 /J. e interpretar su resultado.
(Indicacin: expresar P. en funcin de Pn - 1).
54 Probabllidad condiciooal e independe~la

3.35. En una ciudad se publican los peridicos A, B y C. Una encuesta reciente de lec-
tores indica lo siguiente: 20 por ciento lee A, 16 por ciento lee B, 14 por ciento lee C, 8 por
ciento lee A y B, 5 por ciento lee A y C, y 2 por ciento lee A, B y C. Para un adulto escogi-
do al azar, calcular la probabilidad de que (a) no lea ninguno de los peridicos (b) lea exac-
tamente uno de los peridicos (c) lea al menos A y B si se sabe que lee al menos uno de los
peridicos publicado .
3.36. Una moneda normal e lanza 2. veces.
(a) Obtener la probabilidad de que haya un nmero igual de caras y sellos.
(b) Verificar que la probabilidad calculada en (a) es una funcin decreciente den.
3.37. Cada una de las urna 1, urna 2, , urna n, contiene o: esferas blancas y fJ esferas
negras. Se pasa una esfera de la urna 1 a la urna 2 y luego se pasa una de la urna 2 a
la urna 3, etc. Finalmente, se escoge una esfera de la urna n. Si la primera esfera que se pas
era blanca, lcul es la probabilidad de que la ltima esfera elegida sea blanca? l Qu ucede
cuando n-+ oo? [Indicacin : sea p. = Prob (n- ima esfera pasada sea blanca) y exprese Pn
en funcin de P. - 1.]
3.38. La urna 1 contiene o: esferas blancas y P esferas negra mientras que una urna 2
contiene o: e foras blancas y p negras. Se escoge una esfera (de una de las urnas) y luego se de-
vuelve a esa urna. Si la esfera escogida es blanca, se e coge la esfera iguiente de la urna 1;
si la esfera escogida e negra, se escoge la siguiente de la urna 2. Contine de e ta manera.
Como la primera esfera escogida proviene de la urna l , obtener Prob (n-sima e fera escogida
sea' blanca) y tambin el lmite de esta probabilidad cuando n --+ oo.
3.39. Una mquina impresora puede imprimir n letras, digamo o:i, ., o:,.. sta
mquina es operada por impulsos elctricos y cada letra es producida por un impulso diferente.
Supngase que exista una probabilidad con tante p de imprimir la letra correcta y tambin
suponga independencia. Uno de los n impulsos, escogido al azar, aliment la mquina dos
veces y las do veces e imprimi la letra 0: 1 Calcule la probabilidad de que el impulso e co-
gido estuviese proyectado para imprimir o: 1
V riables aleatorias unidimensionales

4.1 ocin general de una variable aleatoria

Al de cribir el e pacio mue tral de un cxperiment , no e pecificamos que un


1csu ltado indi idual nece ariamente tiene que cr un nmer . De hecho, hemos
citado varios ejemplos en los cuales el re ultado del expcrimcnt no fue una
cantidad numrica. Por ejemplo, al clasificar un artculo manufacturado im-
plemente podramos usar las categoras defectuoso y <rno defectuo o. n tro
ca o, para observar la temperatura durante un periodo de 24 hora encillamen-
tc podramo mantener un reg tro de la curva trazada por el termgrao. sin
embargo. en mucha ituacionc experimentales vamo a intere amos en medir
algo y anotarlo como un nmero. An en los ca o citado anteri rmente po-
dremo asignar un nmero a
cada uno de lo re ultado (no numrico ) del
e perimento. P r ejemplo, pudimos asignar el valor un a artculos no dcfcc-
tuo o y el valor cero a lo defectuo os. Pudimos anotar la temperatura mxi-
ma del da , o la mnima, o e l promedio de la temperaturas mxima y mnima.
Las ilustraciones anteriores son caractersticas de una clase muy general de
problemas. En muchas situaciones experimentales descamo asignar un nme-
r rea l x a cada uno de los elemento s del espacio mue tral S. to es, x = X(s)
e el valor de una funcin X del e pacio muestra! a los nmeros rea les. Teniendo
esto presente, hagamos la siguiente definicin forma l.

Definicin. Sea un experimento e y S el e pacio mue tral asociado con el


experimento. Una funcin X que a igna a ca.da uno de lo elemento
se , un nmero real X(s). e llama variable aleatoria.

Observaciones : (a) a terminologa anterior es algo de afortunada. pero como e tan


universalmente aceptada. nosotros no nos apartaremos de ella. Hemos hecho lo ms claro
posible que X e unajuncin y todava la llamamo. variable (aleatoria).
(b) Resulta que no loda funcin que se conciba puede ser considerada como una variable
alea toria. Una exigencia (aunque no la ms general) e que para todo nmero real x el suceso
{X(s) = x} y para todo intervalo/, el suceso {X(s)E / } tiene probabilidades bien definida y
consecuentes con los axioma bsicos. n la mayora de las aplicaciones no aparece esta difi-
cultad y no haremo referencia posterior.
SS
56 Vari11bles aleatorias unidimensionales 4.1

(c) En a lgunos casos el re uhado s del e pac10 muestra ! es ya la caracterstica numrica


que queremos anotar. Sencillamente tomemos X(s) = s. la funcin identidad.
(d) En la mayora de las di cusiones de variables aleatorias que iguen. no nece itamo
indicar la natura leza funcional de X. Generalmente nos interesamo en los va lores posibles
de X. en vez de indagar de dnde provienen eso valore . Por ejemplo. supongamo que lanza-
mo dos monedas y con idercmos el e pacio mue tral asociado con este experimento. sto es,

= {ce. CS. se. SS}.


Defnamo la variable a leatoria X como igue: X es el nmero de cara obtenida en lo dos
la 1vamicntos. Por lo tanto X(CC) = 2, X(CSJ = X(S ) = l. y X(SS) = O.

= espacio muhtral der. R:i = valores po~ibles de X

F IGURA 4.1

(e) E muy importante comprender que una exigencia bsica de una funcin (uni- ariada):
a rnda se S le corrc ponde exacwmente 1111 valor X(s). to e demuestra esquemticamente
en la figura 4.1. alore diferentes de s pue<le11 dar el mismo valor de X . Por ejemplo en la
ilustracin anterior encontramo que X(CSJ = X(SC) = l.

El e pacio Rx. el conjunto de todo lo alore po ibles de X. se llama al-


gunas ece e l recorrido. En cierto entid s podemos considerar a Rx como
otro espacio mue tral. El e pacio muestra! (original) S corre ponde a lo re ultados
no numricos (posib lemente) del experimento, mientra que Rx e el e pacio mue -
t ral asociado con la variable aleatoria X. que representa la caracterstica numrica
que puede ser de inter . Si X(s) = s. tenemos S = Rx.
Aunq ue estamo con cientes de l. pe ligro pedaggico que exi te a l dar muchas
explicacione de la mi ma co a. ea lcmo sin embargo q ue podemo concebi r
una variable aleatoria X de do maneras:
(a) Realizamo el exper imento f: que tiene como re ultado s E S. Luego eva-
luamo e l nmero X(s).
(b) Efcctuamo e, y obtenemos el resultado s. e (inmediatamente) calcula-
mo X(s). 1 nmero X(s) se con idera entonce como el re ultado obtenido en
el experimento y Rx llega a er el e pacio mue tral del experimento.
La diferencia entre las interpretacione (a) y (b) e muy difici l de captar. Re-
lativamente e muy pequea, pero es digna de atencin. n (a) el experimento
termina. de hecho. con la ob crvaein de s. La evaluacin de X(s) e con idera
como a lgo que se hace posteriormente y que no e t afectada por la aleatorie-
dad de E. En (b) e considera que el experimento no est term inado hasta que
4. 1 Nocin genera l de una ~arhablc alcaloria Si

el nmero X(s) ya e ha calculado y ha re ultado as en el espacio muestra! Rx.


unque la primera interpretacin, (a), es la que e pretende corrientemente, el
segundo punto de vista, (b), puede er muy til y el lector deber recordarlo.
Lo que queremos decir, y e to ser ms evidente en la ltimas seccione , e que
al estudiar variable aleatoria estamo m interesado respecto a los valores
que toma X que de u forma funcional. Por lo tanto, en muchos ca os ignoraremos
e mpletamente el espacio mue tra l sobre el cual e puede definir X.

EJEMPLO 4.1. Supongamos que se pone una bombilla en un portalmpara .


e con idera que el experimento termina cuando la bombilla se apaga. lCul
e un re ultado posible, digamo s'? Una manera de describir s era anotando
'implemente la fecha y la hora del da en la cual la bombilla e quema, por
ejemplo 19 de mayo, 4 :32 p.m. Por lo tanto el espacio muestral e puede repre-
pre entar como S = {(d, t) 1d = fecha , t = hora del da}. Posiblemente la va-
ria ble aleatoria de inters es X , la duracin del encendido. _ te e que una vez
que se ha ob ervado s = (d, t), Ja evaluacin de X(s) no indica ninguna aleato-
riedad. Cuando e t e pecificado s, _%(s) e t completamente determinado.
Los dos punto de vista expresados anteriormente pueden aplicarse a este
ejemplo como igue. n (a) con iderarnos que el experimento termina con la ob-
crvacin s = (d, t), la fecha y la hora del da. 1 clculo de X(s) se efecta, en-
tonces haciendo una encilla operacin aritmtica. En (b) consideramos que el
experimento est terminado slo despu!> de que e haya calculado X(s) y el
n mero X(s) = 107 hora , por ~jemplo, e considera como el re ultado del expe-
rimento.
Podra sealarse que un anlisis similar e podra aplicar a otra variable
aleatoria de inters, por ejemplo, Y(s) la temperatura en la habitacin en el ins-
ta nte en que la bombilla e quem.

llMPLO 4.2. n una me a e lanzan tre moneda . Tan pronto como las
moneda caen .en la mesa, la fa e "aleatoria ' del experimento ha terminado.
Un solo re ultado s podra con i tir en una descripcin detallada de cmo y
dnde cayeron la monedas. Po iblemente estamos interesado lo en ciertas
caracter ticas numricas a ociada con este experimento. Por ejemplo, podra-
mos calcular

X(s) = nmero de cara que aparecen,


Y(s) = di tancia mxima entre do moneda cuate quiera,
Z(s) = distancia mnima de las monedas de cualquier ari ta de la mesa.

Si la variable aleatoria X es de inters, como indicamo en el ejemplo anterior


podramos incluir la evaluacin de X(s) en la descripcin del experimento y por
lo tanto indicar simplemente que el espacio muestra! a ociado con el experimen-
to es {O, 1, 2, 3}, que corresponden a los valores de X . Aunque muy a menudo
58 Variables aleatorias unidimensionales 4.1

adoptaremos preci amente e te punto de vista, es importante establecer que la


cuenta del nmero de caras e hace despus de que ha terminado la parte alea-
toria del experimento.
Observacin : al referirnos a variables aleatorias usaremos, casi sin excepcin letras
may culas tale como X, Y, Z, etc. Sin embargo, cuando hablamo del valor de esa variables
aleatorias suponemos que en general u aremos letras minsculas tale como x, y, z, etc. Esta es
una distincin muy importante que debemos hacer y el e tudiante debe con iderarla detenida-
mente. Por ejemplo, cuando hablamos de escoger al azar una persona de alguna poblacin
sealada y mc-Oir su altura (en pulgadas, por ejemplo), podramo referirno a los resultados
posibles como una variable aleatoria X. Podramo luego hacer varias preguntas acerca de X,
tales como P(X) ~ 60. Sin embargo, una vez que escogemos una persona y medimo u altura,
obtenemos un valor especifico de X, por ejemplo x. As no sera importante preguntar por
P(x <?:: 00) pue to que x e o no ~(i(). ta distincin entre una variable aleatoria y su valor
es importante, y haremo referencia posteriore a ella.
A como no interesamos por lo sucesos a ociados con el espacio muestra!
S, tambin er necesario tratar uceso con respecto a la variable aleatoria X ,
e to e , subconjunto del recorrido Rx. Muy a menudo cierto suce os asociados
con S estn relacionado (en un entido que luego describiremo ) con suce os
a ociado con Rx de la manera siguiente.

Definicin. Sea e un experimento y S u espacio muestra!. Sea X una va-


riable aleatoria definida en S y sea Rx su recorrido. Sea B un suceso res-
pecto a Rx; e to e , Be Rx. Supongamos que A e define

A = {seSIX(s) e B}. (4.1)

En palabras: A consta de todo los re ultados en S para los cuales


X(s)e B (figura 4.2). ne te ca o decimos que A y B son sucesos equi-
valentes. -- - - - - -

IG RA 4.2

Observaciones: (a) Expresando ms informalmente lo anterior, A y B son suce o equi-


valentes siempre que ocurran juntos. to e siempre que A ocurre, ocurre 8 y viccver a.
Si ocurri A, entonces e obtuvo un resultados para el cual X(s)eB y por lo tanto ocurri
8. Recprocamente, si 8 ocurri, se observ un valor X( ) para el cual se A y por lo tanto
ocurri A.
(b) importante destacar que en nuestra definicin de suceso equivalentes, A y B estn
asociados con espacos muestrales diferentes.
' Noci n general d una 'l'ltlabl alcaloria 5'J

EMP o 4.3. 'on idcremo el lanzamiento de dos menedas. n este ca o


S = {CC, S, SC, SS}. Sea X el nmero de caras obtenidas. En e te ca o Rx =
[O. 1, 2}. Sea B = {1}. Pue to que X(CS) = X(SC) = l si y lo i X(s) = 1, te-
nemos que A = ( S. SC} es equivalente a B.
Ahora damos la siguiente definicin importante.

Definicin. S a B un suce o en el recorrido Rx. Definimos entonce P(B)


como igue:
P(B) = P(A), en donde A = {seS I X( )eB}. (4.2)

En palabra : cfinimo P(B) igual a la probabilidad del suce o A e S,


que e equivalente a B. en el ent ido de la ecuacin (4.1).
Observaciones: (a) Suponemos que las probabilidade e pueden asociar con ucesos en
S. Por tanto la definicin anterior hace posible asignar probabilidades a uce os asociado
con Rx en funcin de probabilidades definidas-;;-; S-. -
(b) Realmente es posible probar que P(B) debe ser como se defini. in embargo. esto
implicaria alguna dficultad terica que queremos evitar y, por tanto, pro eguiremo como
antes.
(c) Puesto que en la formu lacin de la ecuacin (4.2) los sucesos A y B se refieren a espa-
cios muestrales diferente , realmente deberamos usar una notacin diferente cuando nos
referimos a la probabilidades definidas en S y para las definida en Rx, por ejemplo algo
como P(A) y Px(B). Sin embargo, no haremos e to ino que continuaremos escribiendo sim-
plemente P(A) y P(B). 1 contexto dentro del cual aparecern estas expresiones harn evi-
dente la interpretacin.
(d) La probabilidades a ociadas con ucesos en el espacio muestra! S (original) estn,
en un sentido, determinadas por fuerza que capan a nuestro controh> o. como se dice
alguna veces por naturaleza. La constitucin de una fuente radioactiva que emite par-
tculas, la distribucin de un gran nmero de persona que podra hacer una llamada tele-
fnica durante cierta hora y la agitacin trmica que re ulta de una corriente o las condi-
ciones atmosfricas que dan origen a um1 fuente de tormenta, ilu tran este punto. uando
introducimo una variable aleatoria X y su recorrido a ociado Rx, i11du'imos probabilida-
des sobre los uce os asociados con Rx que se determinan e trictamente si tas posibilidades
a ociada con los sucesos en estn especificada .

EJEMPLO 4.4. Si la monedas consideradas en el ejemplo 4.3 son norma-


les)), tenemo P(CS) = P{SC) = !. Por tanto P(CS SC) = ! + ! (Los clcu-=t.
lo anteriores on una con ecuencia directa de nuestra uposicin b ica que
e refiere a la regularidad de las moneda .) Puesto que el uceso {X = 1} es equi-
valente al suce o { S, SC} , u ando la ecuacin (4.1) tenemo que P(X = 1) =
P(CS, SC) = . [Realmente no haba eleccin acerca del valor de P(X = l), con-
tente con la ecuacin (4.2), una vez que e determin P(CS, SC). n este sen-
tido se inducen las probabilidades asociada con ucesos Rx.]
Observacin: ahora que hemos e tablccido la existencia de una funcin de probabilida-
de inducidas sobre el recorrido de X (ecuaciones 4.1 y 4.2) encontraremos conveniente su-
primir la naturaleza funciona l de X . Por lo tanto escribiremos (como lo hicimos en el ejem-
arables alealorias unidim~n i0t11lc 4.1

plo anterior), P(X = 1) = ~. Lo que e quiere decir es que un suceso en el espacio mue tral
S, llamado { . SC} = {s 1X(s) = 1} ocurre con probabilidad t. Por lo tanto a ignamos
e a misma probabilidad al suceso {X = 1} en el recorrido. ontinuaremos escribiendo ex-
pre ionc como P(X = 1), P(X ~ 5), etc. s muy imporiante que el lector e d cuenta de
lo que e a expre iones represen tan realmente.
Una vez que se han determinado (o m exactamente inducido) la proba-
bilidade asociada con vario re ultado (o uce o ) en e l recorrido Rx ignora-
remo a menudo el espacio muestra! original S que dio lugar a esa probabil;da-
de . As, en el ejemplo anterior. e tamo implemente interc ado en Rx = {O.
1.2} y la probabilidade a ciadas (!;l!). El hecho de que e tas probabili-
dade e tn determinadas por una funcin de probabilidad definida en el e pacio
mue tra l original S no nos preocupa i e tamos intere ados lo en e tudiar los
valores de la variable aleatoria X.
Al di cutir. en detalle, mucho de lo conccpt importante a ociado con
variables a leatorias, encontraremos conveniente di-tinguir do caso importan-
tes: la aria ble aleatoria di cretas y la continua .

4.2 Variables aleatoria discretas

Definicin. Sea X una variable aleatoria. i el nmero de valore po ible


de X (e to e . Rx. e l recorrido) e finito o infinito numerable. llamamo
a X una variable aleatoria di creta. to es. e pueden anotar los valores
po ible de X como x 1, x 2 , Xn En el caso finito la li ta termina
y en el ca o infinito numerable la lista contina indefinidamente.

JEMPLO 4.5. Una fu nte radioactiva emite partcula alfa. n contador ob-
erva la emisin de a partcula durante un perodo d tiemp e pecificado.
La iguientc variable a leatoria es de inter : X = nmero de partculas ob er-
vada . 'ules on lo valore posible de X? upondremo que e to valore
constan de todos lo enteros no negativos. to e . Rx = {O, 1, 2, ., n, }.
Una objecin que vimo anteriormente pu de aparecer de nuevo en e te punto.
Podra argir e que durante un intervalo de tiempo e pecilicado (finito) e im-
posible ob ervar m de N partcula , p r ejemplo. en donde N puede er un
entero po itivo muy grande. Por tanto lo valore po ible de X realmente seran:
O, 1, 2, , in embargo resulta que matemticamente e m encillo con-
iderar la descripcin idealizada dada anteriormente. De hecho, cada vez que
uponemo que los valores posibles de una variable aleatoria X son infinitos
numerable e tamo con iderando en e e momento una representacin ideali-
zada de X.

n vi ta de nue tro comentario pre io obre la descripcin probabil tica


de uc.e os con nmero finito de elemento o infinitos numerabl , la descripcin
probabil tica de una ariable aleatoria di creta no nos cau ar ninguna difi-
cultad. Procederemos como se indica a continuacin.
O finicin. ca X una variable alea toria discreta. Po r tanto Rx, el re orrido
de X. e nsla. a lo m, de un nmero de val re: x 1,x 2 infinito nume-
rable. 'o n cada resu lt ado posi ble x,. asociamo un nmero p(x;) = P(X = x;).
llamado la probabilidad de x;. Los nmero p(x1). i = l. 2, deben
atisfacer las condicione siguiente :

(a) p(x;) ~O para todo i. (4.3)

(b) L: p(x;) = l.
i 1

La func in p definida anteriorment e se llama funcin de probabilidad (o funci n


de probabilidad puntual) de la variable aleat ria . La coleccl"Jep;re (x, p(x;)).
1 1, 2. ,se llama alguna vece distribucin de probabilidad de X.

F 1G RA 4.3

Obser~acion es: (a) La elec in particular de lo nmeros p(x;) po iblcmente cst dc termi-
1111da por la funcin de probabilidad a ociada con succ os en el espacio muestra! S sob re
d cual e define X. to e, p(x,) = P(s 1 X(s) = xr]. (Ver ecuaciones 4.1 y 4.2.) Sin embargo.
puc~to que slo estamos interesados en l valores de X. e to es Rx. y en la probabilidades
.1sociada con esos valore omitimos nuevamente la naturaleza funcional de X. ( er figu-
ra 4.3). unque en la mayora de los ca o , de hecho. lo nmero e determinarn de la dis-
tribucin de probabilidade en a lgn e pacio mue tral fundamenta l S. cualquier conjunto
de nmero p(x,) que satisfaga la ecuacin (4.3) puede ser ir como una de cri pcin probabi-
lbtica propia de una variable aleatoria di creta.
(b) i X toma slo un nmero fi nito de valores. por ejemplo x., . X.... entonces p(x,) = O
1iara i > . y por lo tanto la serie infinita en la ecuacin (4.3) llega a ser una , urna lin ita.
le) uevamente podemos ob crvar una analoga con la mee<inica al considerar una ma a
total unitaria distribuida sobre la recta rea l con la ma a completa ubicada en lo punto
\ 1 x 2 Los nmeros p(X) repre entan la cantidad de masa ubicada en x,.

(d) La in terpretacin geomtrica (ligura 4.4) de una distribucin de probabilidades es


\lempre til.

p(x)

11 1 1 X

IGURA 4.4 Fro RA 4.5


62 ari11bles alca1ori1 unidim n~ionales 4.2

Sea B un uceso a ociado con la variable aleatoria X. E to es Be Rx(figura 4.5).


specficamente, supongamos que B = {x;., x;,, . --}. Por tanto

P(B) = P[s l X(s) e B] (puesto que estos suceso son equivalentes)

= P[s l X(s) = x 1rj = 1, 2, ] "' p(x;J


= :E (4.4)
i =1
n palabras: la probabilidad de un suceso Bes igual a la suma de las probabilidades
de los result"ido individuales asociados con B.

Observaciones : (a) Supnga e que la variable aleatoria discreta X puede tomar slo un
nmero finito de valores, por ejemplo Xi. '. x,.,. Si cada resultado es igualmente probable,
obviamente tenemo p(x 1) = = p(xN) = l/N .
(b) i X toma un nmero infinito numerable de valores, entonces es imposible tener todos
los resultado igualmente probables. Porque no podemos satisfacer posiblemente la con-
dicin Er 1 p(x;) = 1 si debemos t ner p(x 1) = e para todo i.
(c) n cada intervalo finito habr cuando ms un nmero finito de valores posible de
X . Si uno de tale intervalos no contiene ninguno de los valores po ible le asignamos pro-
babilidad cero. Esto es, si Rx = {x.,x 2, ,x.} y si ningn Xre[a,b], entonces P[a::;;X
.:<:;; b] = o.

EJEMPLO 4.6. Supngase que se pone un tubo de radio en un soporte y se


prueba. Supngase que la probabilidad de que el control sea positivo es igual
a i; por tanto la probabilidad de que el control sea negativo es !. Supngase
adems, que probamos una gran cantidad de tale tubos. La prueba contina hasta
que aparece el primer tubo positivo. elinase la variable aleatoria X como sigue:
X es el nmero de pruebas necesarias para finalizar el experimento. El espacio
muestra! asociado con este experimento es

s = {+, - +, - - +. - - - +, .. }.
fara determinar Ja distribucin de probabilidades de X razonamos como sigue.
Los valores posibles de X son 1, 2, , n, (obviamente estamos considerando
el e pacio muestra) idealizado). Y X = n si y slo si los primeros (n - 1) tubos son
negativos y el n-simo tubo es positivo. Si suponemos que la condicin de un tubo
no afecta la condicin de otro podemos escribir

p(,n) = P(X = n) = (!) - 1(!), n = 1,2,


Para verificar que estos valores de p(n) satisfagan la ecuacin (4.3), observemos que
"' ,X.n) 43( t + -41+ -161+ ...)
I
= -

3 l
= 41-!=l.
Ohservaciones: aqu cmplcamo el re uhado de que la serie geomtrica 1 + r + r 2 +
rnvergc a 1/ (1 - r) siempre que lrl < l. A este resultado nos referiremos varias veces. Su-
pongasc que queremos calcular P(A), en donde A e define como { 1 experimento termina
1bpus de un nmero par de repeticiones }. Usando la ecuacin (4.4) tenemos

3 3
p A) = = I P< 2n) = 16 + -25-6 + ...

= J~(I + it + )
3
16 1 - +.;

4.3 La diskibuc in binomial

n los captulo finales con idcraremos, en forma detallada diversas variables


aleatoria discretas imp rtante . Por el momento lo estudiaremo una de e tas
y luego la u aremos para ilu trar vario concepto importante .

EJEMPLO 4.7. Supnga e que Jo artculos que salen de una lnea de produc-
ci n e clasifican como defectuo o (D) o no defectuoso (N). Supongamos que e
digen al azar tres artcu los de la pr duccin de un da y e clasifican de acuerdo
con este e quema. 1 espacio muestra( para e te experimento, digamo , puede
describir e a :
S = {DDD,DDN D D, DD. ND, ND , DNN,NNN }.
(Otra manera de describir S es como S = 1 x S 2 x S 3 , el producto cartesiano
de , , S2, y S 3 , en donde cada S; = { D, N }.)

upongamo que con probabilidad 0,2 un artculo e defectuo o y por lo tanto


con probabilidad 0,8 un artculo no e defectuo o. Supongamos que esa probabili-
dade son iguales para cada artculo al meno durante nue tro e tudio. Finalmente
su pongam9s que la da ificacin de cualquier artculo particular e independiente
de la cla ilicacin de cualquier otro artculo. Usando esta suposicione , e deduce
que la probabilidadc asociadas con los diver o resultados del espacio mue tral S
como se de cribi anteriormente son

(0,2) 3 , (0,8)(0,2) 2 , (0,8)(0,2) 2 (0,8)(0,2) 2 , (O 2)(0 8) 2 , (O 2)(0,8) 2 , (0,2)(0,8)2 , (0,8)3.

'orrientemente nue tro inter no se enfoca hacia los resultado individuales de S;


ino que, simplemente, deseamo aber cuntos artculos defectuo o se encuentran
( in considerar el orden en que ocurrieron). Es decir, deseamos considerar la
variable a leatoria X que a igna a cada uno de los re ultados s ES el nmero de
artculo defectuosos encontrados en s. Por tanto el conjunto de valores po ible
de X es {O, 1, 2, 3}.
64 "ldablcs aleatorias unidimenson1les 4.3

Podemo obtener la distribucin de probabilidade para X, p(x,) = P(X = X)


como sigue:

X = O si y slo si ocurre NN ;
X= 1 si y lo si ocurre DNN, D .oN D
X = 2 i y lo i ocurre DDN. D D, o NDD;
X= 3 i y slo si ocurre DDD.

(Nte e que {N N} es equivalente a {X= O} , etc.) Por lo tanto

p(O) = P(X = O)= (0,8) 3 , p(l) = P(X = 1) = 3(0,2)(0.8)2


p(2) = P(X = 2) = 3(0.2) 2(0.8). p(3) = P(X = ) = (0.2) 3 .

Nte e que la suma de e ta probabilidade es igua l a J, porque la suma puede


escribir e (0.8 + 0.2) 3 .

Observacin : la presentacin anterior ilustra cmo las probabilidade en el recorrido


Rx (en este caso {O. 1, 2, 3}) son inducidas por la probabilidades definida en el espacio
muestral S. porque la supo icin de que lo ocho resultados de

S = {DDD,DDN , DND,NDD, NND, NDN, DNN, NNN }

tienen las probabilidades dada por el ejemplo 4.7, que determina el valor de p(x) para todo
x E Rx.

Generalicemo ahora las nociones pre entada en el ejemplo anterior.

Definicin. Con ideremo un experimento e y sea A un suce o a ociado con e.


Supongamo que P(A) = p y por lo tanto P(A) = l - p. Consideremos n
repeticiones independientes de e. Po r lo tanto el e pacio muestra( consi te
en toda la su ce iones po ibles {a 1 , a 2 , " }, en donde cada a1 es A o il,
segn que A o A ocurra en la i- ima repeticin de e. (Hay 2" de tale uce-
cione .) An m , supongamos que P(A) = p es el mismo para todas las
repct1c1ones. efinamos la variable aleatoria X como sigue: X = nmero
de veces que ocurri el suceso A. Llamamo a X una variable aleatoria
binomial con los parmetros n y p. Su valores po ibles obviamente son
O, 1, 2, , n. (Decimos en forma equivalente que X tiene una distribucin
binomial.) La repeticiones individuales de e e llamarn ensayos de
Bernoulli.

Teorema 4.1. Sea X una variable bnomial basada en n repeticione. Entonce

(4.5)
La di..tribucn binomial 6

I>cmo.\ltacin: con. idercmo un elemento particular del espacio mue tral e


q11 su lll>aga la ndicin de que X = k. Tal resultado aparecera, por ejemplo.
1 l:1s primera k repeticiones de i: re ultasen en la ocurrencia de A mientras que la
11 l111nas /1 - k repeticione resulta en en A. es decir:

AAA A AAA A
'- '
k n- k
l'ucsto que toda la repet1c1one on independiente , la probabilidad de esta
ll(;ci n particular era pk(l - pn - ". Pero exactamente la mi ma probabilidad
''l<.1ra asociada con cualquier otro resultado para el cual X = k. 1 nmero total
11 tale resultados e igual a (k), por lo que dcbemo elegir exactamente k posicione
ftntrc n) para la A. Pero e to produce el re ultad anterior ya que esos(~) re ul-
1.1do on mutuamente excluyentes.
Observuciu111:s: (a) Para verificar nuestros citlculos ob5'lrvemo que. usando el teorema
del binomio. tenemos :t; 0 /'(X = k) = 2:j_ 0 (l:)pl(I - p)" - 1 = [p + (1 - p)]" = In = 1, como
llcbcria . er. Pue to que las probabilidade (i:)t(I - p)" - ~ e obtienen al desarrolldr la expre-
1n binomial [p + (1 - p) ", a la llamamos distribucin binomial.
lb) 'ada vez que realizamos repeticiones independientes de un experimento y nos in-
tLrcsamo lo en una dicotoma- - dcectuo o o no defectuo o dureza sobre o bajo un
l I rto valor e tndar. nivel de ruido en un sistema de comunicacione obre o bajo un margen
1uca ignado - consideramos potencialmente un espacio muestra! en el cual podemos defi-
nir una variable aleatoria binomial. i las condicione del experimento permaneocn uf-
c1cn temente uniforme de modo que la probabilidad de algn atributo, por ejemplo A. per-
manezca constante, podemo u ar el modelo anterior.
te) i 11 es pequeo, lo trmino individuales de la di tribucin binomial on relativamen
te se ncillos de calcular. Sin embargo, si n es razonablemente grande esto clculos llegan
a se r un poco complicados. Afortunadamente, la probabilidades binomiales han sido ca lcu-
ladas. xisten mucha de tale tabulaciones. (Ver Apndice.)

J l:\1111. 0 . 4.8. upongamos que un tubo de radio puesto en cierto tipo de


equ ipo tiene una probabilidad de 0,2 de funcionar m d 500 horas. Si probamos
20 tubo cul e la probabilidad de que exactamente k de ellos funcionen ms
de 500 hora , k = O, 1, 2, , 20?
i X e el nmero de tubos que funcionan m de 500 hora , supondremos
que X tiene una di tribucin binomial. A P(X = k) = ( 2k)(0,2t(0,8) 2 0 - k.
Los iguicntes valore pueden leerse en la tabla 4.1.
TABLA 4.1

P(X = 0) = 0. 12 P(X = 4) = 0,218 P(X = 8) = 0,022


P( X = 1) = 0.058 P(X = 5) = 0. 175 P(X = 9) = 0.007

P(X = 2) = 0,137 P(X = 6) = 0,109 P( = 10) = 0,002


P(X = 3) = 0,205 P(X = 7) = 0.055 P(X = k) = o+ para k ~ 11
(las probabilidade restantes on menores que 0,001).
66 ariables aleatorias unidimen ionales 4.3

Si dibujamos e ta di tribucin de probablidade obtenemos el grfico que e


muestra en la figura 4.6. El modelo que ob ervamo aqu es muy general: la
probabilidades binomiale aumentan montonamente hasta que alcanzan un
valor mximo y luego di minuyen montonamente. (Ver problema 4.8.)

P(x)

0 1 2 J 4 5 6 7 8 9 IQ 11 12 IJ 14 15 16 17 18 X

FtOURA 4.6

EJEMPLO 4.9. Al operar una mquina, exi te cierta probabilidad de que el


operario cometa un error. Puede uponer e de manera realista que el operario
aprende en cuanto abe que la probabilidad de cometer errores di minuyc cuando
l use repetidamente la mquina. Supongamos que el operario hace n intento y
que lo n en ayos son estadsticamente independiente . Supongamos especfica-
mente que P(un error cometido en la i-sima repeticin) = l/(i + 1), i = 1, 2, , n.
Supongamos que se consideran 4 intento (esto es, n = 4) y que e define la variable
aleatoria X como el nmero de operaciones hechas in error en la mquina. Obser-
vemo que X no est di tribuida binomialmente porque la probabilidad de xito
no es constante.
Para calcular Ja probabilidad de X = 3, por ejemplo, procedcmo como igue:
X = 3 i y lo i hay exactamente un intento no exitoso. Esto puede uceder en el
primero. segundo, tercero o cuarto en ayo. Por lo tanto

P(x = 3) = !1i4 + Hi~ + tH-~ + trH =ti.


JEMPLO 4.10. Consideremos una situacin emejante a la descrita en el
ejemplo 4.9. E ta vez supondremo que hay una probabilidad constante p 1 de no
cometer error en la mquina durante cada uno de los primero n 1 intentos y una
probabilidad constante p2 ~ P de no cometer error en cada una de las siguientes
n 2 repeticiones. Sea X el nmero de operaciones cxito a de la mquina durante
lo n = n 1 + n2 intentos independientes. Encontramos una expresin general
para P(X = k). Por la misma razn dada en el ejemplo precedente, X no e t
distribuida binomialmente. Para obtener P(X = k) procedemo como igue.
Sea Y1 el nmero de operacione correcta durante lo primero n 1 intento y
y ea Y2 el nmero de operaciones correcta~ durante los egundos n 2 intentos.
11

1'01lo tanto, Y1 e Y2 on variable aleatoria independiente y X = Y1 + Y2 .


\~1 - k i y lo i Y, = re Y2 = k - r, para cualquier entero r que ati faga
O r ~ 11 1 y O s; k - r ~ 11 2 .
Las re triccionc anteriore obre r son equivalentes a O $ r $ n, y k - n 2 $
k. 'ombinndola podemo e cribir

mx (0, k - 11 2 ) $ r $ mn (k, ni).

Por tanto tenemo

< 'on la convencin corriente de que (~) = O cada vez que b > a o b < O, p demos
l'\ ribir la probabilidad anterior como
P(X = k) = L
" (" )
1
P't(I - pi)" - ( . 11 2 ) P~ - r(I - P2t2 - k+'(4.6)
r =O /' k - /'

1M ejemplo, i p, = 0.2. p2 = 0,1, n 1 = n 2 = 10. y k = 2, la probabilidad anterior


llega a er

P(X t
= 2) = r =O (')(0,2)'(0.8)
I'
10
- ( IO )(Q,1) - '(0.9) +' = 0,27,
2 - /'
2 8

despus de un clculo elemental.

Observacin: supongamos que p 1 = p2 n e te caso, la ecuacin (4.6) se reducira a


(:)p~( 1 -p 1 )~ - k. puesto que ahora la variable aleatoria X tiene una di tribu in binomial.
l~arn ver que esto es as. obsrvese que podemos escribir (puesto que '' + 11 2 = n)

P<x = k> = PW - P1r -


1 . (111) ( 112 )
L:
, o r k - r

Para mostrar que la urna anterior iguala (;:) comprense sim plemente lo coeficiente de
las potencia de x~ en ambos lados de la iden1idad (1 + x)"'( l + x)" = (1 + x)"+.

4.4 Variables aleatorias continuas

Sup ngamos que el recorrido de X cst formado por un gran nmero de valores,
por ejemplo todos los valores x en el intervalo O ~ x ~ 1 de la forma O; 0,01:
0,02; , 0,98; 0.99; 1.00. Con cada uno de e o valore e t a o iado un nmero
no negativo p(x;) = P(X = x 1). i = 1 2, ., cuya suma e igual a l. E ta ituacin
se repre enta geomtricamente en la figura 4.7.
Hemo sealado ante que podra er matemticamente ms fcil idealizar la
anterior de cripcin probabili tica de X al uponer que X puede lomar todos los
atore po ible . O ~ x $ l. Si hacemos e to. qu le ucede a la probabilidade.
puntua le p(x;)? Pue to que lo valore po ible de X no son contable , no podemos
hablar realmente del i- imo valor de X y por lo tanto p(x 1) pierde sign ificado.
Lo que haremos es ustituir la funcin p delinida slo para Xi. x 2 , ., por una
funcin! definida (en el contexto pre ente) para todos lo valores de x. O ~ x ;::;; l.
a propiedade de la ecuacin (4.3) se u tituirn por flx) ~ O y SlJl..x)dx = l.
Procedcremo formalmente como sigue.

P(x)

"1il1111111 ili lil 111.,


o 1
10 RA 4. 7

Definicin. Se diCl' ;.ue X e una variable all!u/Oria continua si exi te una fu.ncin
f llamada funcin de den idad de probabilidad (fdp) de X . que atisface la
siguientes condicione

(a) /(x) ~ O para todo x,

(b) f~ f(x)dx = l. (4.7)

(c) Para cualquier a. b. tal que - < a<b < +


tenemos P(a $ X $ b) = S~f(x)dx. (4.8)

Observacione : (a) undamentalmente queremos decir que X e una variable aleatoria


continua si X puede tomar todo lo valores en algn interva!o (c. d) en donde e y d pueden
ser - y + . respectivamente. La existencia estipulada de una fdp e un mtodo ma-
temtico que tiene una base intuitiva con iderable y hacen mas sencillos nue tros c lculo .
En relacin con esto, de nuevo se debe sealar que cuando uponcmo que X es una varia-
ble aleatoria continua, estamos con iderando la descripcin idealizada de X .
(b) P(c < X < d) representa el rea bajo el grfico en la figura 4.8 de la fdp / entre x = e
y X "" d.

fl..x)

~ x .. c
> X

FIGURA 4.8
\ 11ri11bk' ah-11tori ' c"ntinua~ <11

lcl na consecuencia de la descripcin probabilstica de X para cualquier valor espe -


lt de , , por ejemplo x 0 es que tenemos P(X = x 0 ) = O. puesto que P(X = xo) = f~:f (x)dx
11
O Lstc re ultado puede parecer muy contrario a nue tra intuicin. Debemo e tablecer,
111 mbargo. que si permiti mos que X tome wdos los valores en un intervalo. entonces la
i111hab1ltdad oero no e equ ivalente con la imposibilidad. Por tanto. en el ca o continuo,
/~ 1) O no impli.ca A=~. el conjunto vaco. (Ver teorema 1.1.) Para decirlo de un modo
111.1\ informa l, consideremos que elegimos un punto a l azar en el egmento {x 1 O,::;; x ~ 2}.
11114ue quisira mos estar de acuerdo (como un objetivo matemtico) con que cada punto
nccbible del segmento pudiese ser el resultado de nuestro experimento. nos sorprendc-
11.1mos mucho i en realidad e cogiramos p recisamente el punto medio del segmento, o
uulquier otro punto especifico de e e elemento. Cuando indicamos e to en un lenguaje ma-
11 matico preci o, decimos que el succ o tiene probabi lidad O. En vista de e tas considera-
11rncs, la sigu ientes probabilidades on todas iguales si X e una variable aleatoria continua :

P(c ,::;; X s; d), P(c ,::;; X < d), P(c < X ,::;; d), y P(c < X < d).

(d) Aunque no vcriricaremos los detalles aqu, puede demostrar e que la anterior asigna-
ll n de probabilidades a lo sucesos en Rx satisface lo axioma bsicos de probabilidades
( cuacin 1.3), en donde podemos tomar {x 1 - < x < + } como el espacio muestra!.
(e) Si una funcin f* satisface las condici nes, f*(x) ;;:: O. para todo x, y J: f*(x)dx = K,
111 donde K es un n mero positivo real (no necesariamente igual a 1), entonce f* 110 atis-
l.1cc toda las condiciones para ser una fdp. Sin embargo. podemo definir fcilmente una
nueva fu ncin. por ejemplo f, en funcin de como sigue:

f(x) =f*(x) para todo x.


K

1>or tanto f satisface todas las condiciones de una fdp.

i X slo toma valores en un intervalo finito (a, b]. simplemente p demos establecer
(l)
/('t) = O para todo XI [a,b]. Por tanto la fdp e t definida para codos los valores reales de
y debemo exigir que 00
r:
f( )d = 1. uando quiera que la fdp se especifique slo para
ciertos valores de x, ~upondremo s qu~o pa~lquier otro.
(g) f(x) no repre en ta la probabilidad de nada! Hemos observado antes que P(X = 2)
O. por ejemplo, y por tanto f(2) ciertamente no representa esta probabilidad . Slo cuando
la funcin se integra entre dos lmites produce una probabilidad. Sin embargo, podemo
dar una interpretacin de f(x)llx como igue. Del teorema del valo r med io del clculo se
deduce que
r x+~x
P(x ::;; X ::;; x + x) = Jx f(s)d.~ = Axf(~),

i Ax es pequeo, f (x)llx es aproximadameme igual a P(x ::;; X ,::;; x + x). Si f es contin uo


po~ la derecha, esta aproximacin llega a ser m egura cuando /1 -+ O.)
(h) Deberamos sealar nuevamente que la distribucin de probabilidades (en e te caso
la fdp) es inducida en R x por las probabilidades asociadas con ucesos en S. As cuando
cscribimo P e < X < d), queremos decir, como siempre P[c < X(s) < d] , que a su vez e
igual a P[s 1 e < X(s) < d], puesto que e tos sucesos son equivalentes. La definicin ante-
rior, ecuacin (4.8), e tpula e encialmente la existencia de una fdp f definida en una Rx
1al que
P[s lc <X(")< d] = J:f(x)dx.
70 11ri1bk.., 11lc111ori1,-; unidim 'D\ion11le~ 4.4

uevamente eliminaremo la naturaleza funcional de X y por tanto estaremos intere ado:.


slo en Rx y la fdp f.
(i) En el caso continuo, nuevamente podemos considerar la siguiente analoya co11 la me-
cnica: supngase que tenemos una ma a total de una unidad, distribuida continuamente
en el intervalo a 5: x 5: b. ntonces f(x) representa la densidad de la masa en el punto x
y Jd/(x)dx representa la ma a total contenida en el intervalo e 5: x 5: d.

EMPLO 4.11. En la di cusin precedente sobre variable aleatoria, se supuso


la existencia de una fdp. Consideremos un ejemplo simple en el cual podamos
determinar fcilmente la fdp, haciendo una upo icin apropiada acerca de la
conduela probabil tica de la variable aleatoria. Supngase que e cogemos un
punto en el intervalo (O,!). Representemos la variable aleatoria. X cuyo valor es
la coordenada x del punto escogido.

Suposicin; i 1 es cualquier intervalo entre (0, 1), entonces la Prob[X E/] e


directamente proporcional a Ja longitud de/, por ejemplo L(J). Esto e , Prob[X e/]
= kL(l), en donde k e la constante de proporcionalidad. ( s fcil ver, tomando
1 = (0, l) y observando que L((O, 1)) = 1yProb[Xe(O,1)] = l, quek = 1.)
Obviamente X loma todos los va lores en (0, 1). ul es su fdp? Esto e , ,podemo
encontrar una funcin f ta l que
P(a < X < h) = J~f(x")dx'!
Ntese que i a < b < O o 1 < a < IJ, P(a < X < b) = O y por tanto f(x) = O.
Si O < a < b < l , P(a < X < b) = h - a y por tanto f(x) = l. As encontramos,

1, <X< 1,
f(x) = { O, para cualquier otro valor.

f<.x) j(x)

x .. 1500 x 2500

FIGURA 4.9 FIGURA 4. 10

EJEMPLO 4. 12. Supnga e que la variable aleatoria X e cont inua. (Ver


figura 4.9.) Sea la fdp f dada por

f(x) = 2x, 0 <X< 1,


=O, para cualquier otro valor.
h ..citt de distribucioo 11cumuh1lit11 71

'lara mcntc.f(x) ~ O y f ~ 00 f(x)dx = Ji2xdx = l. Para calcular P(X ::::;; t). debemos
evaluar simplemente la integral f l/2(2x)dx = !.
1 concepto de probabilidad condicional tratado en el captulo 3 c puede
aplicar debidamente a las variables aleatoria . Por ejemplo, en el ejemplo anterior
dcbi mo evaluar P(X ::::;; ! I:\- .s; X $ j). Aplicando directamente la definicin de
probabilidad individual, tenemos

P(X ::::;; -!H .s; X :::;;


) = P(j- .:::;; X :::;; !)
P(j- .s; X :::;; f)
Jl}i 2xdx 5/ 36 5
JW 2xdx = lJf = 12'
EJEMPLO 4.13. Sea X la duracin (en horas) de cierto tipo de bombilla elc-
trica. Supnga e que X e una variable a leatoria c ntinua y upngase que la fdp
{de X est dada por
f(x) = a/x 3 , 1500 ::::;; x .s; 2500,
= O, para cualquier otro valor.

( s decir, asignamos probabilidad cero al uceso {X ::;; 1500} y {X > 2500}.)


Para evaluar la constante a. debemos acudir a la condicin I ~ ' f(x)dx = 1 que en
e te caso llega a er JH88a/x3 d x = l. De e to btenemo a = 7, 031, 250. El grfico
def aparece en la figura 4.10.
En un captulo po terior estudiaremos. con mucho detalle, diversas variable
aleatoria importantes, di creta y continuas. Mediante el uso de lo determin tico
sabemos que cierta funcione desempean un papel mucho ms importante que
otra . Por ejemplo, la funcione lineales, cuadrtica , exponenciales y trigonom-
tricas juegan un papel primordial al describir modelos dctcrminsticos. Al desarro-
lla r los modelos no determinst ico (e decir, probabil tico ) encontraremos que
cierta variable aleatoria son particularmente importante .

4.5 Funcin de distribucin acumulativa

Queremos present ar otro importante concepto general en e te captulo.

Definicin. Sea X una variable aleatoria, discreta o continua. Definimos


que F e la fun cin de distribucin a umulativa de la variable aleatoria X
(abreviada fda) como F(x) = P(X $ x).
Teorema 4.2. (a) Si X e una ariablc aleatoria di creta,

F(x) = p(xJ), (4.9)

en donde la suma e toma sobre todos lo ndice j que ati facen xi s x.


72 ariablei; alealorias Wlidiml'nsionalcs 4.5

(b) Si X e una variable aleatoria continua con fdp f,

F(x) = t /( )ds. (4.10)

Demostracin: ambos resultado e deducen inmediatamente de la definicin.

F(x)

:b-
.!.
] 1
1
2
1
3
X

FIGURA 4. 11

EJEMPLO 4.14. Supongamos que la variable aleatoria X toma los tre valore
O, 1, y 2 con probabilidade ~, t, y t, re pectivamente. Entonce

F(x) =O si x <O,
=! ~X< l,
=t 1 ~X< 2,
=l X~ 2.

(Nte e que e muy importante indicar la inclusin o exclu in de lo puntos


extremos al de cribir los diverso intervalo .) 1grfico de F se da en la figura 4.11 .

EMPLO 4.15. Supongamo que X es una variable aleatoria continua con fdp

/(x) = 2x, <X< 1,


= , para cualquier otro valor.

Por lo tanto la fda F est dada p r

F(x) = O i x ~ O,
= rx 2sds = x 2

Jo .
1 O<x ~ I.
= 1 Si X > l.

El grfico aparece en la figura 4.12.


4.5 Funcin de dis1ribucin acumulatia 73

F(x)

IGURA 4. 12

Los grfico obtenidos en las figura 4.11 y 4.12 para la fda (en cada uno de
los ca o ) on muy tpico en el iguiente entido.
(a) i X es una variable aleatoria discreta con un nmero finito de valore
po ible , el grfico de la fda F e formar de trazos horizontales (se llama funcin
escalonada). La funcin F es continua excepto para los valores posibles de X,
llamado , xi. ., Xn En el valor x 1 el grfico tendr un salto)} de magnitud
[J(.x) = P(X = xi)
(b) Si X es una funcin aleatoria continua, F ser una funcin continua para
todo x.
(c) La fda F __ t definida para todos los valore de x, lo cual es una razn
importante para con idcrarla.
Hay do propiedade importante de la fda que resumiremos en el teorema
iguiente.

Teorema 4.3. (a) La funcin Fe no decreciente. sto es, i x 1 s; x 2 , tenemo


F( .) ~ F(x z).
(b) lim_.. - ' F(x) = O y lim,.- .. F(x) =
l. [A menudo e to lo e cribimos
como f(- ro) = O, F(oo) = l.]
Demostraci6n : (a) Definamos los s ucesos A y B como sigue: A = {X ~ x 1 },
B = {X ~ x2}. ntonces, puesto que x 1 ~ x 2 , tenemo A c By por el teorema 1.5,
P(A) s; P(B) , que e el resultado pedido.
(b) n el caso continuo tenemo

F( -oo) =
..--lim- J~ '! (s) ds = O,

F( oo) lim
J< " ' f: cx.f(s)ds = 1
En el caso discreto el argumento es anlogo.

La funcin de distribucin acumulativa es importante por varias razones.


E to e particularmente cierto cuando tratamos con una variable aleatoria continua,
porque en este caso no podemos e tudiar la conducta probabil tica de X al calcular
74 11ri11bk5 1le1lorias unidirnensioltales 4.5

P(X == x). Esa probabilidad e siempre igual a cero en el ca o continuo. Sin embargo,
podemos inquirir acerca de P(X ~ x) y, como lo demo tramo en el prximo
teorema, obtener la fdp de X.

Teorema 4.4. (a} Sea F la fda de una variable aleatoria continua con fdp f
Luego
d
f(x) = dx F(x),

para toda x en la cual F e diferenciable.

(b) Sea X una variable aleatoria discreta con valores posible x 1 x 2 , ,


y upongamo que es posible rotular e o valore de modo que x 1 < x 2 < ...
Sea F la fda de X. Entonce
(4.12)

Demostracin : (a) F(x) = P(X ::;; x) = J~ "" f(s) ds. A , aplicando al teorema
fundamental del clculo obtenemo , F'(x) =f(x).
(b) Puesto que supu imo x 1 < x 2 < , tenemo

F(xj) = P(X = x 1 uX=x1 _ 1 u u X= x 1 )


= P<.x1)+ P<.x1 - 1 ) + + p(,xi).
y
F(x1 - d = P(X = x 1 _, u X= x1 _ 2 u u X= x)
= p(,x _ 1 ) + p(x1 _ 2) + + P( i).

Observacin : recon idercmo brevemente (a) del teorema anterior. Recordemo la defi-
nicin de derivada de la uncin F:
F'(x) = lim F(x + h) - F(x)
A O /

= . P(X :5: x
l 1m ~~~~~~~~~
+ lt) - P(X S x)
h

= lim _hl [P(x < X ::;; X+ h)].


"-o

As i h e pequeo y po itivo

F'(x) = f(x) - P(x <X h'.5: x + h).

s decir, f x) e aproximadamente igual a la cantidad de probabil idad en el intervalo


(x, x + h) por longitud lm. De aqu el nombre de funcin den idad de probabilidad.
Diwibucion ' mi tai. 75

EMPW 4.16. Supongam que una variable aleatoria continua tiene fda F
tlada por

F(x) =O x ~O,
= 1-e- ", x>O.

Lntonce F'(x) = e- " para x > O, y a la fdp fe dada por

f(x) = e-x, X~ O,
=o, para cualquier otro valor

Observacin: una advertencia obre la terminologa puede er de utilidad, sta termi-


nologa, aunque no es muy uniforme, ha llegado a estandarizar e. uando hablamos de la
1Jis1ribucin de probabilidades de una variable aleatoria X indicamo u fdp f i X es con-
tinua, o de u funcin de probabilidad puntual p definida para x., x 1 , si X es discreta.
uando hablamo de la funcin de d tribucin acumulativa, o algunas veces lo de la
funcin de distribucin, siempre nos referimos a F, en donde F(x) = P(X ~ x),

4. Distribuciones mixta
Hemo re tringido nuestra exposicin slo a variables aleatoria que son di
creta o continua . Tale variables aleatorias ciertamente son la m imp rtantes
en las aplicacione . Sin embargo, hay situaciones en las cuale podcmo encontrar
variables del tipo mixto: la variable aleatoria X puede tomar ciertos valore dis-
tintos, por ejemplo x 1 "Xn, con probabilidad positiva y tomar tambin t do
los valores en algn intervalo, por ejemplo a ::;; x ~ b. La distribucin de probabi-
lidades de tales variables aleatoria e obtendra al combinar las ideas con iderada
anteriormente para la descrip in de la variable aleatoria di cretas y continua
como sigue. A cada uno de lo valore X; e le a igna un nmero p(x;) tal que p(x 1) ~ O,
para todo i, y tal que I:J _ 1 p(x) = p < l. ntonces definimos una funcin f que
ati face/(x) ~O, J~/(x) dx = 1 - p. Para todo a, b con - oo <a < b < +

P(a ~ X ~ b) = J: f (x) dx + 1 ;,J;,~,, 1 p(x;}.

De esta manera atisfacemo la condicin

P(S) = P(-oo <X< oo) = l.

Una variable aleatoria del tipo mixto puede aparecer como sigue. Supngase
que estamo probando un equipo y ea X el tiempo de funcionamiento. n la
mayora de los problema describiramos X como una variable aleatoria continua
con valores po ible x ~ O. Sin embargo, hay alguno ca o en los cuales hay
una probabilidad positiva, de que el artculo no funcione del todo, es decir, falla al
tiem po X = O. n tal caso desearamos modificar nue tro modelo y a ignar una
76 \luiabl 11la1oril1s unldlmcn loo les 4.7

probabilidad positiva. p r ejemplo p, al re ultado X = O. Por tanto. tendramos


P(X = 0) = p y P(X > O) = 1 - p. A el nmero p de cribira la di tribucin
de X en O mientras que la fdp f describira la distribucin de valore de X > O
(figura 4.13).
f<.x)
fo"' f(x) dx .. 1-p
P(X~O)~p ~
...._~~~~~~~~~~--x
! X

F IGURA 4. 13 IGURA 4. 14

4.7 Variables aleatorias distribuida uniformemente


n los captulo 8 y 9 e tudiaremos detalladamente diversas variables aleatoria
importantes, di creta y continuas. Ya hemo presentado la importante variable
aleatoria binomial. Con ideremos brevemente ahora una variable continua de
importancia.
Definicin. Supongamo que X e una variable aleatoria continua que toma
todo lo valore en el intervalo [a, b], en donde ambo a y b son finito .
Si la fdp de X e t dada por

1
f(x) = -
b -, a::;; X::;; b.
-a (4.13)
= O, para cualquier otro valor

decimos que X est distribuida uniformemente en el intervalo [u, b]. (Ver


figura 4.14.)
Observaciones: (a) Una variable aleatoria uniformemente distrribuida tiene una fdp que
es una constante en el intervalo de definicin. A f'in de satisfacer la condicin J:!:. f( )d = 1,
esta constante debe er igual a l recproco de la longitud del intervalo.
(b) Una variable aleatoria di tribuida uniformente representa la analogia continua a los
resultados igualmente posible en el sentido iguiente. Para cualquier s ub-inter al (e, d],
en donde a :s; e < d :s; b, P(c :S: X :s; d) es la misma para todo Jo sub-inter alo que ti enen
la mi ma longitud. Esto es,
d d- e
P(c :s; X :s; d) =
f.
'
f(x)dx = - -
b- a
y as lo depende de la longitud del intervalo y no de la ubicacin del intervalo.
(e) Ahora podemos hacer precisa la nocin inlujtiva de elegir un punto P al azar en un
intervalo, por ejemplo [a, b]. Con esto sencillamente indicaremos que la coordenada x del
punto elegido, por ejemplo X, est distribuida uniformemente en [.:i,b].
4.11 nu o!JM!n Cll n
: JEMPLO 4.17. Un punto se elige al azar sobre el segmento de lnea [O, 2].
1,'ul e la probabilidad de que el punto escogido quede entre J y p
Representando la coordenada del punto elegido por X, tenemo que la fdp
de X e t dada por f(x) = !,O< x < 2, y por tanto P(l ~ X ~ ~) = ,t,

F(x)

IGURA 4. 15

EH: MPLO 4.18. Se puede suponer que la dureza H , de una muestra de acero
(medida en la e cala Rockwell) es una variable aleatoria continua di tribuida uni-
for memente sobre (50 70] en la escala B. Por tanto

f(h) = * 50 < h < 70,

= O, para cualquier otro val r.

EJEMPLO 4.19. Obtengamos una expre in para la fda de una variable aleato-
ria di tribuida uniformemente

F(x) = P(X ~ x) = t f(s) ds

= O si x <a
x- a
a~ X< b,
=b- a
=I X ~ b.

1 grfico aparece en la figura 4.15.

4.8 Una observacin

Hemos sealado repetidamente que en alguna etapa del de arrollo de nuestro


modelo probabillstico, deben asignarse algunas probabilidades a lo res ultados
obre la ba e de alguna evidencia experimental (tal como la frecuencia relativa,
por ejemplo) o algunas otras consideraciones, tales como experiencias pa adas
711 Variable~ aleatoria~ unidimensionah.s

con los fenmeno e ludiados. 1 interrogante siguiente se le podra presentar al


estudiante: l.por qu no podramo obtener toda la probabilidade en la cuales
e tamos intere ados por un medio no deductivo? La re pue ta e que muchos
uceso cuya probabilidade de eamo conocer on tan complicado que nuestro
conocimiento intuitivo es insuficiente. Por ejemplo, upongamos que diariamente
alen 1000 artculos de una lnea de produccin, algunos de lo cuale son defec-
tuo o . De eamos conocer la probabilidad de tener 50 o m artculos defectuo os
en un da dado. Aun i e tamo familiarizados con el comportamiento general
del proce o de produccin no podra ser dificil asociar una medida cuantitativa
al uce o: 50 o meno artculo son dcfectuo o . in embargo, podramo afirmar
que individualmente cualquier artculo tena la probabilidad OJO de er defectuoso.
( sto e , las experiencias anteriore no dan la informacin de que cerca del 10
por ciento de lo art ulo son defectuo o .) An ms, podramo suponer que los
artculos individuale son defectuoso o no defectuo os independientemente,
uno de otro. Ahora podemo proceder deductivamente y derivar la probabilidad
del uce o que se considera. sto es, i X = nmero de defectuo o .

o que e de taca aqu es que lo diver o mtodo para calcular probablidade


que hemo derivado (y lo que estudia remo po teriormentc), onde mucha imp r-
tancia puesto que con ellos podemos calcular las probabilidade a ociada con 0

suce o m complicado lo cual era difcil de obtener con medio intuitivo o


emprico.

PROBLEMAS

4.1. Se abe que en una moneda sale cara tre veces m a menudo que sello. Esta mo-
neda se lanza tres vece . Sea X el nmero de caras que aparecen. stablecer la distribucin
de probabilidades de X y tambin la fda. Hacer un grfico de amba .
4.2. De un lote que contiene 25 articulo , 5 de los cuales son defcctuosp . e eligen 4
al azar. Sea X el nmero de artculos defectuosos encontrados. Obtener la distribucin de
probabilidades de X i
(a) los artculo e escogen con ustitucin,
(b) los artculos se e cogen sin ustitucin.
4.3. Supngase que la variable aleatoria X tiene valore posible l. 2, 3, y P(X =J)
= 12J.j = 1,2, . ..
(a) Calcular P(X e par).
(b) Calcular P(X ~ 5).
(c) Calcular P(X es divi ible por 3).
4.4. Con idrese una variable aleatoria X con resultados po ibles: O. l, 2, Supon-
gamo que P(X = j) = (1 - a)cl j = O, l. 2,
Problem 79

(a) l Pa ra qu valores de a es significativo el modelo anterior?


(b) Verificar que lo anterior representa una di tribucin de probabilidades legtima.
(e) Demotrar que para dos enteros positivos cualesquiera s y 1,
P(X > s + t 1X > s) = P(X ~ t).
4.5. Supnga e que la mquina 1 produce (diariamente) el doble de artculos que la m-
quina 2. Sin embargo, cerca del 4 por ciento de los articulos de la mquina 1 tiende a er de-
fectuoso mientras que la mquina 2 produce slo alrededor de 2 por ciento defectuosos. Su-
pongamos que e combina la produccin diaria de las dos mquina . Se toma una muestra
leatoria de 10 del resultado combinado. lCul es la probabilidad de que esta muestra
contenga 2 defectuoso 7
4.6. Se lanza una serie de cohetes hasta que el primer lanzamiento exitoso tiene lugar.
Si esto no ocurre en 5 ensayo , el experimento se detiene y se inspecciona el equipo. Supn-
gase que hay una probabilidad constante de 0,8 de tener un lanzamiento exito o y que los
en a yos sucesivo son independientes. Adems, el costo del primer lanzamiento e K dlares
mientra que los lanzamiento que siguen cue tan K/3 dlare . ada vez que hay un lan-
zamiento exitoso, se obtiene cierta cantidad de informacin que puede expre arse como una
gana ncia financiera de C dlare . Si Tes el co to neto del experimento, encontrar la distri-
bucin de probabilidade de T.
4.7. Calcular P(X = 5), en donde X es la variable aleatoria definida en el ejemplo 4.10.
Supongamo que n 1 = 10, n 2 = 15, p1 = 0,3 y p2 = 0,2.
4.8. (Propiedades de las probabilidades binomiales. ) n la discusin del ejemplo 4.8 se
ugiri un modelo general para las probabilidade binomiales (t)l(I - p).- k. Indiquemos esta
proba bil idade por p.(k).
(a) Demostrar que para O :s;; k < n tenemos
p.(k + i)/p.(k) = [(n - k)/ (k + l)](p/(l - p)).
(b) a ndo (a). demo trar que
(i) p.(k + 1) > p.(k) i k < np - (1 - p),
(ii) p.(k + 1) = p.(k) si k = np - (1 - p),
(iii) p,,(k + 1) < p.(k) si k > np - (1 - p).
(c) Demostrar que si np - (1 - p) es un entero, p.(k) toma su valor mhimo para dos
valores de k, llamado k0 = np - (1 - p) y k0 = np - (1 - p) + J.
(d) Demostrar que si np - (1 - p) no es un entero entonces p11(k) torna su valor mximo
cuando k e igual al entero ms pequeo mayor que k 0
(e) Dcmo trar que si np - (1 - p) < O, p.(O) > p.(I) > > p.(n) mientras que si np -
( 1 - p) = O, p.(O) = p.(l) > p.(2) > > p,,(,n).
4.9. La variable aleatoria continua X tiene fdp f (x) = x/2, O ~ x ~ 2. Se hacen dos
determinaciones independientes de X. l Cul es la probabilidad de que ambas determina-
ciones sean mayores que uno? Si se han hecho tres determinaciones independientes, lcul
es la probabilidad de que exactamente dos sean mayores que uno?
4.10. Sea X la duracin de un tubo electrnico y supongamos que X se puede represen-
ta r como una variable aleatoria continua con fdp /(x) = be- bx, x ~ O. Sea PJ = PU :s;; X < j
+ 1). Demostrar que Pi e de la forma (1 - a')al y determine a.
4.11. La variable aleatoria continua X tiene la fdp /(x) = 3x 2 , - 1 5: x :s;; O. Si b es
un nmero que satisface - 1 < b < O, calcular P(X > b 1X < b/ 2).
llO Variables aleatorias unidillh?nMorlales

4.12. Supongamos que f y g son fdp en el mismo intervalo, a S x $ b.


(a) Demostrar que f + g no es una fdp en ese intervalo.
(b) Demo trar que para todo nmero {3, O< p < 1 P/(x) + (l - {J)g(x) e una fdp en
ese intervalo.
4.13. Supongamos que el grfico de la figura 4.16 representa la fdp de una variable
aleatoria X .
(a) lCul es la relacin entre a y b?
(b) Si a > O y b > O, lqu puede Ud. decir acerca del mayor valor que puede tomar b'I
(Ver figura 4.16.)
f(x)

IGURA 4.16
4.14. El porcentaje de alcohol (LOOX) en certo compuesto se puede con iderar como
una variable aleatoria, en donde X , O< X < l , tiene la siguiente fdp:
f (x) = 20x 3 (1 - x), O < x < l.
(a) Obtener una expresin para fda F y dibujar su grfico.
(b) alcular P(X ;::; 1).
(c) upngase que el precio de venta del compue to anterior depende del contenido al-
cohol. spccficamente, si t < X < i. el compuesto e vende por C 1 dlare / galn ; de otro
modo e vende por C 2 dlares/galn. Si el costo es C 3 dlares/ galn, encontrar la distribu-
cin de probabilidades de la utilidad neta p<>r galn.
4.15. Sea X una variable aleatoria continua con fdp f dada por :
f (x) = ax, O ;::; x S 1,
=a, 1 $X :5 2,
= - ax + 3a, 2 :s; x :s; 3,
= O para cualquier otro valor.
(a) Determinar la constante a. (b) Determinar F, la fda y dibujar el grfico.
(c) Si X., X 2 , y X 3 on tre ob ervacione independiente de X cul e la probabilidad
de que exactamente uno de e o tres nmeros sea mayor que 1,5?
4.16. Se supone que el d imetro de un cable elctrico digamo X es una variable aleatoria
continua con fdp f(x) = 6x(I - x) O ;::; x :5 l.
(a) Verificar que la anterior es una fdp y dibujarla.
(b) Obtener una expre in para la fda de X y dibujarla.
(c) Determinar un nmero b tal que P(X < b) = 2P(X > b).
(d) Calcular P(X :5 t 1j- < X < i ).
4.17. Cada una de las siguiente funciones representa la fda de una variable aleatoria
continua . En cada caso F(x) = O para x < a y F(x) = 1 para x > b, en donde [a , b] es el
intervalo indicado. En cada uno de los casos, dibujar la funcin F, determinar la fdp f y
dibujarla. Tambin verificar que f e una fdp.
l'robl~m , 111

(a) F( ) = x/5, O ::;; x s 5 (b) F(x) = (2/n) en 1


( x), O S x ::;; 1
(c) F(x) = el", - <x~O (d) F(x) = xl/2 + . - 1 ::;; x :s; l.
4.18. ea X la duracin de un instrumento electrnico (medido en hora). upngase
4uc X es una variable aleatoria continua con fdp flx) = k/x", 2000 ~ x ::;; 10.000.
(a) Para 11 = 2, determinar k.
(b) Para n = 3, determinar k.
(c) Para 11 en general, determinar k.
(d) i.Cu l es la probabilidad de que el instrumento folle an tes de 5000 horas de funcio
namicnto?
(e) Dibujar la fda F(t) para (e) y determinar su forma a lgebraica.
4.19. a X una variable aleatoria di tribuida binomialmente con ba e en 10 repeti-
ciones de un experimento. Si p = 0,3, calcular las siguientes probabilidades. u ando la ta bla
de la distribucin binomial del Apndice.
(a) P(X ::;; 8) (b) P(X = 7) (c) P(X > 6).

4.20. Supnga e que X est distribuida uniformemente en [-a. +a], en donde :r > O.
Cada vez que sea posible, determinar a: de modo que e satisfaga lo siguiente.
(a) P(X > 1) = j (b) P(X > 1) = t (c) P(X < ) = 0,7
(d) P(X < !) = 0,3 (e) P(IXI < 1) = P<IXI > 1).
4.21. uponiendo que X est distribuida uniformemente en [O, a:], a > O responder las
preguntas del problema 4.20.
4.22. Se escoge un punto al azar de un segmento de longitud L . i. ul es la probabili-
dad de que la razn del segmento m corto con relacin al ms largo sea menor que !'?
4.23. Una fbrica produce diariamente 10 recipientes de vidrio. Se puede uponcr que
hay una probabilidad constante p = 0,1 de producir uno defectuoso. Antes de que estos
dep itos se almacenen on inspeccionados y los defectuoso puesto aparte. Supongamos
que hay una probabilidad constante r = 0,1 de que un recipiente defectuoso sea mal cla-
ifcado. a X igual al nmero de recipientes cla ificados como defectuosos al trmino de
un da de produccin. (Suponcmo que todos los recipientes que se fabrican en un da se ins-
peccionan ese mismo da.)
(a) alcular P(X = 3) y P(X > 3). (b) Obtener una expresin para P(X = k).
4.24. Supnga e que el 5 por ciento de lo artculo que salen de una lnea de produccin
son defectuo os. Se e cogen 10 de tales aniculos y se in pcccionan. i.C ul es la probabilidad
de que e encuentren a lo m dos defeetuo os'?
4.25. Suponiendo que la duraccin (en horas) de cierto tubo de radio es una variable
aleatoria continua X con fdp /(x) = l00/ x 2 , x > 100 y O para ualquier otro valor.
(a) lCul es la probabilidad de que un tubo dure menos de 200 horas si se abe que el
tubo todava funciona despus de 150 horas de servicio?
(b) lCul es la probabilidad de que si se instalan 3 de tale tubos en un conjunto, exac-
tamente uno tenga que ser sustituido despu de 150 horas de servicio?
(c) , ul e el nmero mximo de tubos que se pueden poner en un conjunto de modo
que haya una probabilidad 0.5 de que despus de 150 horas de servicio todos ellos toda va
funcionen"!
4.26. Un experimento consta de n ensayos independientes. Se puede suponer que debi-
do al aprendizaje'>, la probabilidad de obtener un resultado exito o aumenta con el nme-
112 ariablc' al atoria~ unidimcn i 0111 ~

ro de ensayo realzado . Especficamente supongamos que P(x.ito en la i -sima repeticin) =


(i+ l)/(i + 2), i = 1, 2, . . " 11.
(a) ul es la probabilidad de tener tres re ultados exito os a lo menos en ocho repe-
ticione?
(b} Cul es la probablidad de que el primer re ultado exitoso o urra en la o lava re-
peticin?
4.27. Refirndono al ejemplo 4.1 O,
(a) calcular P(X - 2) si 11 - 4,
(b) para un 11 arbitrario, demostrar que P(X = 11 - 1) = P (exa lamente un intento no
exito o) es igual a [l /(n + I)] I:i 1(1 / i).
4.28. i la variable aleatoria K est di tribuida uniformemente en (0, 5) cul e la pro-
babilidad de que la raices de la ecuacin 4x 2 + 4xK + K + 2 = O sean reales?
4.29. upngase que la variable aleatoria X tiene valore posible 1, 2 3, y que
P(X = r) = k(I - flY- 1, 0 < fl < l.
(a) Determinar la constante k.
(b) Encontrar la moda de esta distribucin (es decir, el valor de r que da el mayor valor
de P(X = r)).
4.30. na variable aleatoria X puede tomar cuatro valores con probabilidades (1 + 3x)/4,
( 1 - x)/4, ( 1 + 2x)/ 4, y ( 1 - 4x)/4. t.Para qu valores de X es sta una distribucin de pro-
babilidades?
Funciones de variables aleatorias

5.1 Un ejemplo

Supongamos que el radio X de la entrada de un tubo muy bien calibrado


se considera como una variable aleatoria continua con fdp f. Sea A = 7r.X 2 el
rea de la eccin de la entrada. Es evidente que, puesto que el valor de X e el
resultado de un experimento aleatorio, tambin lo es el valor de A. Es decir, A es
una variable aleatoria {continua), y podramos obtener su fdp, digamo g. E pe-
raramos que puesto que A es una funcin de X , la fdp g e obtenible de alguna
manera, conociendo la fdp f. En e te captulo trataremos problemas de esta na-
turaleza. Antes de familiarizarno con algunas tcnica especifica nece aria ,
for mularemos ms precisamente los conceptos anteriore .

Rx Ry

Gi-----x_,B~x -Q '----.!!...H

!GURA 5.1

5.2 Suce os equivalentes

Sea e un experimento y sea S un e pacio muestra! asociado con e. Sea X una


variable aleatoria definida en S. Supongamos que y = H(x) es una funcin real
de x. Entonces Y = H(X) es una variable aleatoria puesto que para cada se S,
se determina u'n valor de Y, sea y = H[X(s)]. Esquemticamente tenemo la
figura 5.1. Como antes, llamamos Rx al recorrido de X , el conjunto de valore
posibles de la funcin X. De igual modo, definimos como R r al recorrido de la
variable aleatoria Y, el conjunto de valores posibles de Y. Previamente (ecuacin 4.1)
definimos la nocin de sucesos equivalentes en S y en Rx. Extendamo ahora e te
concepto de la siguiente manera natural.
83
K4 1'11:11 ior1c\ de 1aria bles 11lc111orius 5.2

Definicin. ca C un uce o (subconjunto) a ociado con el recorrido de Y.


Rr. como e describi anteriormente. De11na e Be Rx como 1gue:

B = {xe Rx: H(x) eC}. (5.1)

n palabra : Be el conjunto de los valore de X tales que H(x)E . Si


B y C estn relacionados de e ta manera lo llamamos suce o equiva-
lentes.
Observaciones: (a) Como dijimo antes, la interpretacin info rmal de lo anterior e que
B y C son uce o equivalente si y lo si B y C ocurren juntos. sto e . cuando ocurre
B ocurre C y recprocamente.
(b) Supngase que A es un suceso asociado con S lo que equivale a un suceso B asociado
con Rx. Luego. s Ces un suceso asociado con Rr que es equivalente a B. tenemo que A es
equivalente a C.
(e) uevamente, es imp rtante reafi rmar que cuando hablamos de succ os equiva lent
(en el sentido anterior), esos sucesos estn asociados con espacios mue trale diferentes.

EJEMPLO5.1. Supongamo que H(x) = nx 2 como en la seccin 5.1. Luego


los uceso B: {X> 2} y C: {Y> 4n} on equivalentes. Porque si Y= nX 2
entonces ocurre {X > 2} si y slo i ocurre {Y> 4n} , pue to que en el presente
contexto X no puede toma r valore negativos. Ver figura 5.2).

FIGURA 5.2

Observacin : otra vez es importan!. sealar que se usa una notacin taquigrfica cuando
escribimos expresiones tales como {X > 2} y I Y> 4n}. Cuando nos referimos a los valores
de X y de Y, o sea {s 1 X(s) > 2} y [x 1Y(x) > 4n}.

Como lo hicimo en el capitulo 4, (ecuacin 4.2), nuevamente haremo la de-


finicin siguiente.

Defmicin. Sea X una varable aleatoria en el espacio mue tral S. Sea Rx


el recorrido de X. ea H una funcin real y con ideremos la variable alea-
toria Y = H(X) con recorrido Rr. Para cualquier suceso C e Rr. defi-
nimos P(C) como sigue:

P(C) = P[{xe Rx: H(x) E } ]. (5.2)


~. 2

En palabras: la probabilidad de un suceso asociad con el recorrido de Y


e l definida como la pr babilidad del suceso equi alente (en funcin
de X). c mo aparece en la ecuacin (5.2).
Obserimciunes : (a) La delinicin anterior har posible calcular las probabilidades re la-
cionadas con ucesos con Y si conocemos la distribucin de probabilidades de X y podemos
determinar el suce o equivalente en cuestin.
(b) Puesto que lo discutido previamente (ccuacione 4.1 y 4.2) relaciona probabilidades
asociadas con Rx con probabilidades asociadas con S. podemos escribir la ecuacin (5.2)
como ..gue:

P(C) = P[{x E Rx: H(. ) E }] = P[{s E S: l(X (s)} e C}].


Jt:MPLO 5.2. Sea X una ariable aleatoria con fdp

.f(x) = e - x. X > O.

(Una integracin sencilla indica que J e -" dx = l.)


upnga e que H(x) = 2x + 1. Por lanlo Rx = {x 1x > O}, mientras que
Rr = {yly > !}. upnga e que el uce o estdefinidocomo igue:C = {Y~ 5}.
h ra y e: si y slo si 2x + 1 ~ 5 lo que a su vez da x ~ 2. Por lo tanto es
equiva lente a B = {X e: 2}. (Ver figura 5.3). Ahora P(X ~ 2) = J~ e - dx = l /e 2 .
Por 1 tanto aplicando la ecuacin (5.2) encontramos que

P(Y e: S) = l / e2

FIG RA 5.3

Ohsrn"do11e.\ : (a) uevamente e conveniente sealar que debemos con clerar incor-
poradas la evaluacin de x =
X(s) y la evaluacin de y = Jf(x) en nue tro experimento y,
por tanto. con iderar implemente Rr. el recorrido de Y, como el e pacio muestra! de nuestro
experimento.
E trictamente hablando. el espacio mue tral del experimento es S y el re ultado del ex-
perimento e s. Todo lo que hagamo a continuacin no e t influenciado por la naturaleza
aleatoria del experimento. U1 determinacin de =
X(s) y la evaluacin de Y = /-l(x) son
116 l u11don~ de Yilrh1bl :. 11lc11lori11 .J

estrictamente procesos determinsticos una vez que se ha observado . Sin embargo, como
discutirnos previamente, podemos incorporar e tos clculo en la de cripcin de nue tro
experimento y as relacionarlos directamente con el recorrido Rr.
(b) A como la distribucin de probabilidade fue inducida en Rx por la di tribucin
de probabilidades sobre el espacio muestra! original S, as la distribucin de probabilidades
de Y, se determina s se conoce la distribucin de probabilidades de X . Por ejemplo. en el
anterior ejemplo 5.2, la distribucin pccilica de X determin ompletamente el valor de
P(Y ::?: 5).
(c) Al considerar una fun9in de una variable aleatoria X , digamos Y = H(X), debemos
comentar que no e puede permitir toda funcin H concebible. Sin emba rgo, las funciones
que aparecen en las aplicaciones estn inmediatamente entre aquella que podemo consi-
derar y, por tanto, no nos referiremo posteriormente a esta pequea dificultad.

5.3 Variables aleatorias discretas

Caso 1. X es una variable aleatoria discreta. i X e una variable aleatoria


di creta e Y = H(X), entonce e deduce de inmediato que Y e tambin una va-
riable aleatoria di creta.
Porque upnga e que e pueden enumerar los valores posible de X como
x 1, x 2 , . , Xm . . on eguridad los valore po ible de Y e pueden enumerar
como y = H(xi), y = H(x 2) , . . (Alguno d los valores anteriores de Y pueden
er iguales, pero esto ciertamente no impide el hecho de que esos valore puedan
enumerarse).

EJEMPLO Supngase que la variable aleatoria X tome lo tre valores


5.3.
!. t. y i, re pectivamente. Sea Y = 3X + 1. ntonces
- 1, O y I con probabilidade
lo valores posible de Y on - 2, l y 4, upue tos con probabilidade -!. ' y !.

ste ejemplo ugiere el siguiente pro edimienlo general : si xi, . . . Xn , . . . on


lo valores po ibles de X , p(x;) = P(X = x 1) , y H e una funcin tal que a cada
valor de y le corre ponda exactamente un val r de x, entonce la di tribucin
de probabilidade de Y e obtiene como sigue:

Valores posibles de Y: y 1 = H(x;), i = l , 2, . . . , n . .. '


Probabilidade de Y: q(y} = P( Y = Y1) = p(x).
Muy a menudo la funcin H no tiene la caracter tica anterior, y puede uceder
que varios valore de X den el mismo valor de Y, como ilustra el siguiente ejemplo.

EJEMPLO 5.4. Supnga e que consideramos la mi ma variable aleatoria X


que en el anterior ejemplo 5.3. Sin embargo, introducimos Y = X 2 En e te caso
lo valores posible de Y on cero y uno, upuesto con probabilidade ! , t. Porque
Y = 1 si y lo i X = - 1 o X = 1 y la probabilidad de e te ltimo uce o es
t + ! =t. En razn de nuestra terminologa anterior los suce o B: {X= l }
y C: {Y = 1} on uce os equivalente y por lo tanto egn la ecuacin (5.2) tienen
probabilidade iguale .
S.3 V riahle!\ 1lleatoria~ dl!M:reta~ 87

1 procedimiento general para ituacione como la de crita en el ejemplo an-


terior e como sigue: repre entemo como x;., X; 2 , x 1., . , los valores de X
que tienen la propiedad H(x1) = y1 para todo j. Luego

q(y1) = P(Y = y 1) = p(x1,) + p(x1 + ..


2)

En palabras: para calcular la probabilidad del uce o {Y = y 1}, encuentre el


suceso equivalente en funcin de X (en el recorrido Rx) y luego agregue toda la
probabilidades corre pondiente . (Ver figura 5.4.)

Rr

F10 RA 5.4

EJEMPLO 5.5. Tenga X lo valore posible 1, 2, ... , n, ... y up6nga e que


P(X = n) = r. Sea

Y= l X es par,
=- l si X es impar.

Luego Y toma los dos valores -1 y +l. Puesto que Y = 1 si y lo i X = 2,


o X = 4, o X = 6, o . . . , aplicando la ecuacin (5.2) e tiene

P(Y = 1) = ! +-fo+~+ .. = j.
Luego
P(Y =- 1) =1- P(Y = 1) = ~.
Caso 2. X e una variable aleatoria continua. Puede uceder que X ea
una variable aleatoria continua mientra que Y es discreta. Por ejemplo, upon-
gamo que X puede tomar todos lo valores reales mientras que se define que Y
ea + 1 si X ~ O y que Y = - 1 si X < O. Para obtener la distribucin de pro-
babilidades de Y, determinemos simplemente el suceso equivalente (en el reco-
rrido Rx) que corre ponde a los diferente valore de Y. En el caso anterior, Y = 1
iy losiX~O, mientrasqueY = - lsiyslo iX <0.PorlotantoP(Y= l) =
P(X ~O) mientra que P(Y = -1) = P(X < 0). Si se conoce la fdp de X, pueden
calcularse estas probabilidades. En el caso general, i {Y = y1} es equivalente
a un suceso, sea A en el recorrido de X , entonce

q(y1) = P(Y = y;) = L f(x)dx.


5.4

5.4 Variable aleatorias continuas

1 caso m importante (y el que e encuentra con ms frecuencia) aparece


cuando X es una varable aleatoria continua con fdp f y H es una funcin con-
tinua. Por tanto Y = H(X) e una variable aleatoria continua, y er nue tro
prop ito obtener u fdp, digamo g.
1 procedimiento general er a :
(a) Obtener G, la fda de Y en donde G(y) = P(Y :::; y), al encontrar el succ o A
(en el recorrido de X) que es equivalente aJ uce o {Y :::; y}.
(b) Dferenciar G(y) con respecto a y para obtener g(y).
(c) eterminar e to valore de y en el recorrido de Y para lo cuate g(y) > O.

JEMPLO 5.6. Supnga e que X tiene fdp Y

f(x) = 2x, O < x < 1,


= O, en otra parte.

ca H(x) = 3x + 1. Por tanto para encontrar la


fdp de Y = H(X) tenemos {ver ligura 5.5)

G(y) = P( Y :::; y) = P(3X + 1 :::; y)


= P(X :::; (y - l )/3)
= s~ - l)/J 2xdx = [(y - 1)/3]2.
As
y(y) = C' (y) = i(y - 1).

Puesto que f(x) > O para O < x 1, encontramo


IOURA 5.5
que g(y) > O para 1 <y < 4.

Observacin : el suce o A, mencion<1do atrs, que es equivalente al suceso {Y ~ y}, e


implemente {X ~(y - 1)/3}.

Hay otro mtodo ligeramente diferente, para obtener el m mo re ultado y


que posteriormente er til. onsideremo nuevamente

G(y) = P(Y :::; y)= P (x : :; y~ 1) = F~ ~ 1


),

en donde Fe la fda de X , e to es,

F(x) = P(X :::; x).


S.4

A fin de e aluar la derivada de G. G'(> ), usemo la regla de la cadena para la


derivacin como sigue;
g(y)
y-1

1,~':
en donde 11 =- -
3
por tanto
y=I y=4
G'(y) = F'(u) = f(u) ~ = 2 (Y -3 ~3'
1 1
)
3 3 FIGURA 5.6

como ante . En la figura 5.6, aparece el grfico de la fdp Je Y. (Para erificar lo


clculo ntese que J1y(y)dy = 1.)
JEMPLO 5.7. Supngase que una variable aleatoria continua tiene fdp como
en el ejemplo 5.6. ea H(x) = e- x. Para encontrar la fdp de Y = H{X) procede-
mos como sigue (ver figura 5.7):
G(>) = P( Y s; y) = P(e- x s; y)

= P(X : : : : - lny) = J~ 1 .. , 2xdx


= 1- ( - In y) 2
Por tanto g(y) = G'(y) = -2 In y/y . Pue to que f(x) > O para O< x < 1, en-
con tramos que g(y) > O para 1/e < y < l. ( te e que el igno algebraico para
g(y) es correcto pue 'to que In y < O para 1/e < y <l.) El grfico de y(y) e t di-
bujado en la figura 5.8.
y

g(y)

'---~-1--=--..-----..y
x= - In y y= e yc l
FIGURA 5.7 FlG RA 5.8

Otra vez podemo obtener el re ultad anterior con un enfoque ligeramente


diferente que e bozare s brevemente. 'orno antes,
s; y) = P(X - In y)
=1- X s; - In y) = 1 - F( - In y).
en donde como antes F e la fda de X . A fin de obtener la derivada de G u amos
otra vez la regla de rivacin en cadena como sigue:

As
<i'(y) =- F'(u) ( - t) = + 2 In y ( - D.
como ante.
Generalicemos ahora el enfoque ugcrido por los ejemplo anteriore . El pa o
crucia l en cada uno de los ejemplo e efectu al sustituir el uce o {Y .s; y} por
el uce o equivalente en funcin de la variable aleatoria X. n los problemas
anteriore e to fue relativamente sencillo puesto que en cada uno de los casos
la funcin fue una funcin de X e trictamente creciente o e trictamente decreciente.
n la figura 5.9 y e una funcin estrctamente creciente de x. Por lo tanto
podemos re o lvcr y = H(x) para x en funcin de y, digamo x = H - 1 (y), en donde
H - 1 e llama funcin in ver a de H. A . si Hes estrictamente creciente, {H(X) :::;; y}
es equivalente a {X ::::;; H - 1(y)} mientra que i H es estrictamente decreciente,
{ H(X) $ y} es equivalente a {X ~ H - 1(y)}.

!GURA 5.9
. El mtodo empleado en lo ejemplos anteriore e puede generalizar ahora
como igue.

Teorema S. l . Sea X una variable aleatoria continua con fdp / , en donde


f(x) > O para a < x < b. Supnga e que y = H(x) ea una funcin de x
e trictamente montona (creciente o decreciente). Supngase que esta
funcin es derivable (y por tanto continua) para toda x. Luego la variable
aleatoria Y definida como Y = H(X)tiene una fdp g dada por,

g(y) = f (x) 1:;1. (5.3)


5.4 arlables alca1orias con1inua 91

en donde x se expresa en funcin de y. Si H es creciente, entonces g es dis-


tinta de cero para los valore de y que sati facen H(a) < y < H(b). Si H es
decreciente, entonces g es distinta de cero para los valores de y que satis-
facen H(b) <y < H(a).

Demostracin: (a) Supongamo que H e una funcin estrictamente creciente.


Por tanto
G(y) = P(Y :S y) = P(H(X) s; y)
= P(X :S H - 1{y)) = F(H - 1(y)).

Diferenciando G(y) con re pecto a y, obtenemo al usar la regla de la cadena


para la derivadas,
dG(y) dG(y) dx
dY = ----- dy ' en donde x = H- 1(y).
As
G'(y) = dF(x) dx = f(x) dx.
dx dy dy

(b) Supongamos que H e una funcin decreciente. Por lo tanto

G(y) = P(Y:::; y) = p(H(X):::; y) = P(X:::; H - 1(y))


= l - P(X :S H - 1{y)) = 1 - F(H - 1(y)).

Procediendo como anteriormente, podemos escribir

dG(y ) dG(y) dx d dx dx
- = - - - = - [I - F(x)] - = - f(x) -
dy dx dx dx dy dy

Observacin: el signo algebraico obtenido en (b) es correcto puesto oJe, si y es una fun.
cin decreciente de x, x es una funcin decreciente de y y por lo tanto dx/dy < O. As, al usar
el smbolo del valor absoluto en torno a dx/ dy, podemos combin::ir e l resu ltado de (a) y (b)
y obtener la forma final del teorema.

EJEMPLO 5.8. Recon ideremo lo ejemplo 5.6 y 5.7, aplicando el teorema 5.1.
(a) n el ejemplo 5.6 tenamos /(x) = 2x, O < x < 1, e y = 3x + l. Por lo
tanto x = (y - 1)/3 y dx/dy = l As g(y) = 2[(y - 1)/ 3]! = ~ - 1). 1 < y < 4,
lo que concuerda con el resultado obtenido previamente.
(b) En el ejemplo 5.7, tenamos /(x) = 2x, O < x < 1, e y= e- x. Por tanto
x = - In y y dx/dy = - 1/y. As g(y) = - 2(1n y)/y, 1/ e < y < t lo que de nuevo
e t de acuerdo con el resultado anterior.
i y = H(x) no es una funcin montona de x, no podemos aplicar directa-
mente el mtodo anterior. n su lugar, volveremos al mtodo general bosquejado
anteriormente. El ejemplo siguiente ilustra e te procedimiento.
Yl l'uncion~" k uriabl 11katorl11!>

g(y)

x .. -J X= [

IOURA 5.10 FIGURA 5. 11

EJEMPLO 5.9. Supongamo que


f (x) = !, - 1< X < 1.
= O, para cualquier otro valor.

ea H(x) = x 2 . ta obviamente no es una funcin montona en el intervalo


[ - l. I] (figura 5.10). Por lo tanto obtenemos la fdp de Y = X 2 como igue:

G(y) = P( Y ~ y) = P( 2
~ y)

= P(- y~ X~ y)
= F( y) - F( - y),

en donde F es la fda de la variable aleatoria X. Por tanto

_ G'( ) _ f ( y) f ( - y)
( )-
gy Y- -;;--r--
2..; y - 2 y
JY
- 2 y [!( y) + f (- y) .

As g(y) = (1/ 2 y)(! + !) = 1/ 2 y, O < y < L (Ver figura 5.11.)


1 mtodo u ado en el ejemplo anterior da el siguiente re ultado general.
Teorema 5.2. Sea X una variable aleatoria continua con fdp f. Sea Y= X 2
ntonces la variable aleatoria Y tiene fdp dada por

1
g(y) = 27Y f(~ - f ( - JY)].

Demostracin : ver ejemplo 5.9.


l'rnbl ma' CJJ

PROBLEMA
5.1. Supngase que X est distri buida uniformemente en ( - 1, 1). ea Y = 4 - X 2 . n-
contrar la fdp de Y, sea g(y), y dibujarla. Tam bin ver ificar que g(y ) es unll dp.
5.2. Supngase que X e t1 distribuida uniformemente en (1 , 3). Obtener las fdp de las
siguientes variables a leatoria :
(a) Y = 3X + 4 (b) Z = ex.
Verificar en cada uno de los caso que la funcin obtenida es una fdp.
5.3. Supngase que la variable aleatoria X tiene fdp f(x) = e - ~. x > O. Encontrar las
fdp de las siguientes variable aleatorias :
(a) Y = X 3 (b) Z = 3/(X + 1) 2
5.4. Supngase que la variable aleatoria discreta X tome los valores 1, 2, y 3 con igual
proba b ilidad. ncon trar la distribucin de probabilidade de Y = 2X + 3.
5.5. Supngase que X e t di tribuida uniformemente en el intervalo (0, 1). Encontrar
la fdp de las siguiente variables aleatoria :
(a) Y = X 2 + l (b) Z = l/(X + 1).
5.6. Supngase que X e t distribuida un iformemente en ( - J, 1). ncontrar la fdp de
las iguientes variables a leatoria :
(a) Y = en (n/ 2)X (b) Z = cos (n/ 2)X (c) W = IXl -
5.7. Supngase que el radio de una esfera es una variable aleatoria continua. (Debido
a la imprecisin del proceso de fabr icacin, lo radios de esferas diferen tes pueden ser di-
ferentes.) Supngase que el radio R tenga fdp f(r) = 6r(I - r , O < r < 1. ncontrar la fdp
del volumen V y del rea superficial S de la esfera.
5.8. Una corriente elctrica I que fl ucta se puede considerar como una variable alea-
toria distrib uida uniformemente en 1 intervalo (9. 11). Si esta corriente pasa por una resis-
tencia de 2-ohm, encontrar la fdp de la potencia P = 2/ 2
5.9. La velocidad de una molcula en un gas uniforme en equilibrio e una variable
aleatoria V cuya fdp est dada por
f( v) = av2e- h". v > O,
en donde b = m/2kT y k, T, y m denotan la constante de Boltzman, la temperatura absoluta..
y la ma a de la molcula, respectiva mente.
(a) a lcular la constante a (en funcin de b). [Indicacin: use el hecho de que Jo> e- x dx =
n/ 2 e integre por parte .
(b) Derivar la di tribucin de la variable aleatoria W = m V 2/2, que representa la energa
cintica de la molcu la.

5.10. Un voltaje aleatorio X est di tribuido uniformemente en el intervalo ( - k, k). Si


X es la energia recibi da de un artefacto no lineal, con las caractersticas que se indican en la
figu ra 5.12, encoqtrar la distribucin de probabi lidades de Y en los tres casos siguientes
(a) k < a (b) a < k < x 0 (c) k > x 0 .

Observacin : la di tribucn de probabilidades de Y e un ejemplo de una distrbucin


mixta. Y toma el valor cero con una probabilidad positiva y tambin toma todo lo valores
en ciertos intervalos. (Ver seccin 4.6.)
CJ4 Funci nes de variable aleatoria

----Y=yo

- a a 10 RA 5.12

5.11. La energa radiante (en Btufhr/ ft 2) est dada como la funcin siguiente de la tem-
peratura T (en grados fahrenheit): E = 0,173(T/ 100)4 Supongamos que la temperatura T
est considerada que es una variable aleatoria continua con fdp

f(I) = 200t - 2 , 40 ~ t ~ 50,


= O, para cualquier otro valor.

Encontrar la fdp de la energa radiante E.


5.12. Para medir las velocidades del aire, se usa un tubo (conocido como el tubo est-
tico de Pitot) que nos permite medir la diferencia de presin. ta diferencia de presin est
=
dada por P (l/2)dV 2, donde d es la densidad del aire y V es la velocidad del viento (kph~
Si V es una variable aleatoria distribuida uniformemente en (JO, 20), encontrar la fdp de P.
5.13. Supnga e que P(X ~ 0,29) = 0,75, en donde X una variable aleatoria continua
con alguna distribucin delinida en (0, 1). Si Y= 1 - X, determinar k de modo que P(Y ~ k)
= 0,25.
6

Variables aleatorias bidimensionales y de mayor dimensin

6.1 Varia ble aleatorias bidimensionales

n nuestro estudio de las variables aleatorias hemos considerado, hasta aqu.


lo el ca o unidimensional. decir, el resu ltado del experimento se poda re-
gistrar como un olo nmero x.
n mucho ca o , sin embargo, no intere a observar dos o ms caracters-
ticas numrica simultneamente. Por ejemplo, la dureza H y la re istencia a la
ten in T de una pieza manufacturada de acero pueden er de inters y con ide-
raramos (h, t) como un solo re ultado expermental. Podramo e ludiar la al-
tura A y el pe P de alguna per ona determinada, que dara lugar al re ultado
(p a). inalmente, podramo observar la cantidad de lluvia total, LL y el pr -
medio de temperatura T en cierta regin durante un mes especfico, que dara
lugar al re ultado (//, e).
Haremo la siguiente delinicin formal.

Definicin. Sea i; un experimento y S un e pacio muestra! a ociado con c.


Sean X = X(s) e Y = Y(s) do funciones que asignan un nmero real a
cada uno de los resultados se S (figura 6.1). Llamamo a (X, Y) variable
aleatoria bidimensional (algunas veces llamada veclor aleatorio.)

i X 1 = X 1(s), X 2 = X 2 ( ), .. , X,, = X ,,(s) son n funcione cada una de


la cuale asigna un nmero real a cada resultado s ES, llamamos (X 1
. . ., X n) variable aleatoria n-dimensio11al ( un vector aleatorio o-dimen-
sional).
s
X

FIG kA 6.1
95
Y6 Variable 11leacorl11S bidimen IOfl11le de mayor dimen~.i6n 6.1

Observacin : orno en el ca o unidimensional. !1.2- nos intere ar la naturaleza funcional


de X( ) L Y(s), sino lo valore que toman X y .~ Hablaremo nuevamente del recorrido
de (X , Y), d igamos Rxxr. como el conjunto de todos los valore po ibles de (X, Y). En el caso
bidimensional, por ejemplo, el recorrido de (X , Y) ser un subconjunto del plano euclidiano.
Cada uno de lo resultado X( ), Y(s) e puede representar como un punto (x, y) en el plano.
Suprimiremo nuevamente la naturale?.a funcional de X y Yal escribir, por ejemplo, P[X S a,
Y s; b] en vez. de P [X (s) ~ a, Y(s) s; b].
Como en el caso unidimensional, di tnguiremo entre do tipos bsicos de variables alea-
torias : las variable aleatorias discretas y las continuas.

Definicin. (X , Y) e una variable aleatoria bidimensional discreta i los va-


lore posible de (X , Y) son finitos o infinitos numerable . s decir, los
valore po ibles de (X , Y) se pueden representar como (x ;, y1}, i = l , 2, ... ,
n .. . ; j = 1, 2, .. . , m, . ..

(X, Y) e una variable aleatoria bidimensional co11ti11ua i (X , Y) puede


tomar todo los valore en un conjunto no numerable del plano euclidiano.
[Por ejempl.o, si (X, Y) toma todo lo valore en el rectngulo {(x, y) l
a :s; x :s; b, e :s; y :s; d} o todo los valore en el crculo {(x, y) 1 x 2 + y 1 ~ 1},
diramos que (X, Y) e una variable aleatoria continua.]

Observaciones : (a) En otra palabra , (X, Y) e una variable aleatoria bidimensional


si representa el re ultado de un experimento aleatorio en el cual hemos medido la dos carac-
tersticas numrica , X y Y.
(b) Puede suceder que una de las componente de (X , Y , digamos X , sea discreta, mientras
que la otra e continua. Sin embargo, en la mayor parte de las aplicaciones nos interesamos
slo por lo ca os discutidos anteriormente, en lo cuales ambas componentes on di cretas,
o amba continua .
(c) n muchas situacione la dos -variable aleatoria X y Y, con ideradas en conjunto.
son el resultado de un solo experimento. como se ilustr en los ejemplos anteriores. s as
como X y Y pueden representar la altura y el peso de un mismo individuo. etc. Sin embargo.
no es nece ario que exista esta clase de conexin . Por ejemplo, X podria ser la corriente
que circula por un circuito en un momento e pecfico, mientra que Y podra er la tempera-
tura en la habi.tacin en e e in tante, entonces podramos con iderar la variable aleatoria
bidimensional (X, Y). En la mayor parte de la aplicacione hay una raz.n importante para
con iderar X y Y en conjunto.
Para describir la distribucin de probabilidade de (X, Y) procedemos de un modo anlogo
al caso unidimen ional.

Definicin. (a) Sea (X Y) una variable di creta bidimen ional. 'on cada
re ultado po ible (x; Yi) asociamo un nmero p(x;, Yi) que repre enta
P(X = x i. Y = y) y que ati face las condiciones iguientes:

(1) p(_x, yi) ';?: O para todo (x, y),

(2) r
J 1 i= 1
(6.1)
6.1

La funcin p delinida para todo ( ;. Yi) en el recorrido de (X, Y) e llama


.funcin de probabilidad de (X. Y). El conjunto de ternas (x. Yi p(x;. Y;)).
i, j = 1, i . ... , e llamada en algunos ca o la distribucin de probabilida-
des de (X, Y).
(b) Sea (X , Y) una variable aleatoria continua que toma todo los valore
en una regin R del plano euclidiano. La ftmcin de densidad de probabi-
lidades conjuntas f es una funcin que sa tisface las siguiente condici ne :
(3) f(x , y) ~ O para todo (x. y) e R
(4) JJJ(x. y) dx dy = 1. (6.2)
R

Observaciones : (a) La analoga a una distribucin de ma as es otra vez indudable. Te-


nemo una ma a un ilaria di tribuida en una regin .:n el plano. n e l caso di creto. toda la
masa e t concentrada en un nmero finito o infinito numerable, de puntos con masa J(x 1 y1)
ubicado en (x 1, y). n el caso continuo. la ma a e encuentra en todos lo puntos de un con-
junto no numerable en el plano.
(b) La condicin 4 indica que el volumen tolal bajo la superficie dada por la ecuacin
z = f(x, y) es igua l a l.
(c) 'orno en el ca o unidimensional. f(x. y) no representa la probabilidad de a lgo. Sin
embargo, para tu y Ay suficientemente peq ueos y po itivos, f(x. y) y es aproximada-
mente igual a P( :$; X ~ x + Ax, y ::;; Y ~ y + y).
(d) orno en el ca o unidimensional adoptaremo la convencin de que /( . y) = O si
(x, y) rt R. Por tanto, podemos considerar f definida para todo (x. y) en e l plano y la condicin
4 anterior llega a ser f:!:"' J!"' f( y)dxdy = l.
(e) Nuevamente suprimiremos la naturaleza funcional de la variable aleatoria bidimensio-
nal (X , Y). Deberiamos escribir proposiciones de la forma P[X(s) = x 1, Y(s} =y]. etc. Sin
embargo, i se entiende nue tra notacin taquigrfica no debe surgir. ninguna dificultad.
(f) De nuevo. como en el ca o unidimensional. la distribucin de probabilidades de (X. Y)
es realmente inducida por la probabilidad de suce os asociados con el espacio muestral origi-
nal S. Sin embargo, principa lmente no interesaremo por los valores de (X, Y) y por tanto
relacionado directamente con el recorrido de (X. Y). o obstante, el lector no debe perder de
vista el hecho de que si P(A) est especiicada rara todos los uceso A e: s. entonces esta
determinada la probabilidad asociada con succ~o en el recorrido de (X. Y). s decir, i B
est en el recorrido de (X. Y). tenemos

P(B) = P((X( ), Y(s)) E B = P[sl (X( ), Y(s)) E B).

sta ltima probabil idad se refiere a un suceso en S y por tanto !lelermirw la probabilidad
de B. n nue tra terminologa previa, B y {s 1 (X( s ), Y(s}) e 8 } on suce os equivalen/es (li-
gurn 6.2).

F1G 11.A 6.2


!111 \ ariahk"> iil~:.Uoria' hidimcn~ionalc' de ma}or dimen,hn 6.1

i B est en el recorrido de (X. Y) tenemos

P(B) = LLP(X;.y). (6.3)


H

si (X, Y) es di creta , la urna se toma con todo~ los ndice (,j) para los cuales (x,y) E B.
y
P(B) = JJ /(x . .1 d1) <ly, (6.4)
8

i (X, Y) e contin ua.

EMPLO 6.1. Do lneas de produccin manufacturan cierto tipo de artcu-


lo. Supnga e que la capacidad (en cua lquier da dado) e 5 artculos para la l-
nea I y 3 artculos para la lnea II. Sup ' nga e que el nmero verdadero de artculos
producido por cada una de la lneas de produccin es una variable aleatoria.
ea (X, Y) la repre entacin de la variable aleatoria bidimensional que da el
nmero de artculos producidos por la lnea l y por la lnea II re pectivamente.
La tabla 6.1 da la distribucin de probabilidades conjunta de (X, Y). 'ada entra-
da rcpre enta

p(X, J~) = P(X = X, Y = Y) .

p(2. 3) = P(X = 2, Y = 3) = 0.04. etc. Por 1 tanto si B est definida como

8 = {Ms artculos produ idos por la lnea 1 que por la lnea TI }

encontramos que

P(B) = O.O 1 + 0.03 + 0,05 + 0,07 + 0,09 + 0.04 + 0.05 + 0.06


+ 0.08 + 0.05 + 0.05 + 0.06 + o06 + 0.05
= 0.75.

EJEMPLO 6.2. upngase que un fabricante de bombillas est interesado en


el nmero de ta que le han sido pedida durante los me e de enero y febrero.
X y Y indican el nmero de bombilla ordenadas durante e os do me e respec-
ti amente. Supondremos que (X. Y) es una variable aleatoria bidimensional

TABLA 6.J

I~ o l 2 3 4 5

o o 0,01 0,03 0.05 0,07 0,09


l 0.01 0.02 0,04 0,05 0.06 0,08
2 0.01 0.03 0,05 o.os 0.05 0,06
3 O.O! 0.02 0,04 0.06 0,06 0.05
Vari11bles 11leato1ia\ i>itf ens~01111I~' Y.:

x 5000 x - 10.000

FIGURA 6.3

con la siguiente fdp conjunta (ver figura 6.3):

f(x, y) = <" si 5000 _:::; X .$; 10.000 y 4000 _:::; y _:::; 9000.
=0 en otro ca o.

Para determinar e u amo el hecho de que J ~: J! f(x. y) dx dy = l. Por tanto

+ f +oo 19000f10.000
f - 00 - O()
f(x, y) dx dy =
4000 sooo
f(x y) dx dy = c[5000] 2 .

A e= (5000) - 2 Por tanto si B = {X ~ Y}, tenemos

P(B) =1- 1 ) 19000


(5000
2
sooo
f'sooo
dx dy

1 f 9000 17
= 1 - (5000) 2 5000 [y - 5000] dy = 25.

Observacin : en el ejemplo anterior X y Y obviamente deben ser nmeros enteros puesto


que no podemo ordenar un nmero fraccionario de bombillas. Sin embargo, nuevamente
tratamo con una situacin idealizada en la cual permitimo que X tome iodos los valores
entre 5000 y 10.000 (inclusive).

EJBMPLO 6.3. Supngase que la variable aleatoria continua bidimensional


(X, Y) tiene una fdp conjunta dada por

f(x, y) = x 2 + x: , O .:::; x s; J, O ..:::; y.:::; 2,

= O, para cualquier otro punto.


.
l '
'ari1t1lle.. al ..awYias bidimeni.ionales. d<' mayor dimensin 6.1

Para verificar que J::: ' J:: ' f(x, y) dx dy = 1:

+ f'_+
f- f(x. y) clx cly = (2 Jo Jo11 (x 2
+ x:) clx d;

!" "
=
l .2 xl
O 3
- + -x2y
6
1

x O
dy

=
12 (]
o
.-
3
= 1 +h = l.
+ =-)') dy
6 3.
1
= - V+-
12 o
)'212

Sea B = {X+ Y~ l}. (Ver ligura 6.4) 'alcu laremo P(B) al evaluar 1 - P(Bl.
en donde B = {X + Y < 1}. Por lo tanto

Jor
y
P(B) = 1 -
f 0
1 -x (
x
2 xy)
+ 3" dy dx

= 1- I [x 2
(1 - x + x(l -/) 2] dx

= 1 -lz = ~.

Al e tud ar variables aleatorias unidimensio-


nale , encontramos que f, la funcin de distribucin
acumu lativa,jugaba un papel importante. En el caso
bidimensional podemos definir otra ez una fun-
cin acumulativa como se indica a continuacin. FlGURA 6.4
/"
Definicin. Sea (X, Y) una variable aleatoria bidimen ional. La funcin de
distribucin acumulativa (fda) F de la variab le aleatoria bidimen ional
(X. Y) e t definida por

F(x, y) = P(X ~ x. Y~ y).

Observacin: F e una uncin de do. variable y tiene un nmero de propiedades ami-


logas a las discutidas para la fda unidimensional. (Ver seccin 4.5). Mencionaremo slo la
siguiente propiedad importante.
Si Fe da de una variable bidmen ional con dp conjunta f. entonces

0 2 F(x.y)/oxoy = f(x.))
dondequiera que F ea d ierenciable. ste resultado es an logo al del teorema 4.4 en el cual
probamos que (d/dx)F(x) = f(x). en donde fes la fdp de una variable aleatoria unidimen-
ional X.
(1.2 Uislribuclon d probabilld11dl'' nuu:in11le~ condk1onalc 1111

6.2 Di tribuciones de probabilidades marginales y condicionales

Con cada variable aleatoria bidimen ional (X. Y) a ociamo do variable


a leatorias unidimen ionale . llamadas X y Y respectivamente. E decir. podemo
interesarnos por la d tribucn de probabi lidades de X o por la distribucin
de probabilidades de Y.
EJEMPLO 6.4. 'on ideremo otra vez el ejemplo 6.1. Adems de los datos
de la tabla 6. L calculemos tambin los totales marginales)>, esto cs. la suma de
las 6 columna y 4 la de la tabla. (Ver tabla 6.2).
Las probabilidades que aparecen en los mrgenes de las fila y columnas re-
pre entan la di tribucin de probabilidades de Y y X. respectivamente. Por ejem-
plo, P( Y = 1) = 0,26, P(X = 3) = 0,21, etc. Debido a la forma de la tabla 6.2 nos
referimo , generalmente, a la di tribucn marginal de X o a la di tribucin mar-
ginal de Y. cada vez que tenemos una variable aleatoria bidimensional (X. Y)
ea di creta o continua.
TABLA 6.2

~ o 1

'
2 3 4 5 urna

o o 0,01 0.03 0,05 0.07 0.09 0.25


1 0.01 0,02 0.04 0.05 0,06 0,08 0,26
2 0,01 0,03 0,05 0,05 0;05 0.06 0.25
3 0.01 0.02 0.04 0.06 0.06 0.05 0.24

uma 0.03 0.08 0. 16 0.21 0.24 0.28 1.00

n el ca o discreto procedemos a : pue to que X = X; debe ocurrir con Y = Y


para una j. y puede currir con Y = yj para una j, tenemos:
p(x1) = P(X = x;) = P(X =X. Y= Y o X = X;. Y = Y2 o )

= L p{X, Yi>
j = 1

Definida la funcin p para x., x 2 , . repre enta la di tribucin marginal de pro-


babilidades de X. Anlogamente definimos q(y1) = P(Y.= YJ) = 1: 1 1 p{,x,y1) como
la distribucin marginal de probabilidades de Y.
n el ca o continuo procedemo como sigue: sea f la funcin den idad de
probabildade conjunta de la variable aleatoria continua bidimen ional (X, Y).
Definimo g y Ti la funciones densidad de probabilidades margi1wles de X y Y,
respectivamente, como igue :

y(x) = f_+ f(x, y) dy; h(y) = J_+ f(x. y) dx.


102 \-ariabl ~aleatoria' bidimcn~iunulc, y di; m~yor dimen,in (1.2

sta fdp corre ponden a las fdp bsicas de la vari-1ble aleatorias unidimen-
sionales X y Y, re pectivamentc. Por ejemplo

P(c :::;; X :::;; d)

= r
= P[c :::;; X :::;; d, -

f_+if f(x, y) dy dx
< Y< .

= f g(x dx.

EJEMPLO 6.5. 1 empuje X y la razn de la mezcla Y son dos caractersticas


del funcionamienl de un motor a reaccin . Supnga e que (X, Y) e una varia-
ble aleatoria bdimen ional continua con fdp conjunta:
f(x. y) = 2(x +y - 2xy), O :::;; x :::;; L O :::;; y :::;; l.
= O, en otro caso.

(Las unidade se han ajustado para u ar valores entre O y 1.) La fdp marginal de
X e t dada por

g(x} = f 2(x +y - 2xy) d.1 = 2(x) + y 2/2 - xy 2 )1~


= l, O :s;x:s; I.

E decir. X e t di tribuida uniformemente en [O, 1].


La fdp marginal de Y e tii dada por

ll(y) = f 2(x +y - 2xy) dx = 2(x 2 / 2 + xy - x 2 y)j~


= 1, O:s;):s;I.

Por lo tanto Y tambin e l distribuida uniformemente obre [O, 1].

Definicin. ecimos que una variable aleatoria continua idimensional est


distribuida 11nijormemente en una regin R en un plano euclidiano, si
f (x, y) = const. para (x, y e R.
= O, para todo otro punto.

Debido a la condicin J ~ J ~ f(x. y) dx dy = l. lo ant rior implica que la


con tante e igual a !/ rea (R). uponemo que R es una regin con rea
finita distinta de cero.

Observacin : esta definicin presenta la analoga bidimensional con la variable aleatoria


unidimensional distribuida uniformemente.
(1.2

EMPLO 6.6. Supnga e que la variable aleatoria bidimen ional (X , Y) est


distribuida tmiformemente en la regin ombreada R. indicada en la figura 6.5.
P r tanto
y
. 1
J (X. y) = .a rea (R) (X. y)e R.

En entramo que

rea(R) = 1 (x - x 2 )dx = .
L uego la fdp est dada por

f (x. y) = 6, (X. y) E R
= O, (x. y ) (f R. FIGURA 6.5

En la ecuaciones siguiente encontramo las fdp marginale de X y Y.

y(x) = J_+.e f(x. y) dy = t 6 dy

= 6(x - x 2 ). O ~ x :::;; 1;

li(y) = f_+ f(x, y) dx = l.,. 6 dx

= 6( y - y). o : :; y :::;; l.

Lo grficos de e tas fdp aparecen en la figura 6.6.


1 concepto de probabilidad condicional e puede pre entar de una manera
muy natural.

EJEMP o 6.7. 'onsideremos otra vez lo ejemplos 6.1 y 6.4. Supngase que
queremos evaluar la probabilidad condici na\ P(X = 2 Y = 2). e acuerdo con
la definicin de probabilidad condicional tenemos

P(X =2 y J = 2) = P(X = 2. y = 2) = 0,0 = 0.20.


P( Y = 2) 0,25

Podemos efectuar tal clculo muy genera 1 para el caso di. creto. Tenemo

p(xj YJ) = P(X = X; J Y = Yi)


p(x, Yi)
(6.5)
q(yj)
q(yj 1X) = P( y = Yi 1X = X}

p(x ;, >'il i p{x;) > O. (6.6)


p(x;)
I~ \ ariabk" aleatorio~ bidimen~ional~!> } de mayor dim n in

h(y)

'b x~~ (1, O)


X

(a) (b)
IGURA 6.6

Obsermcin : para una j dad.1. p(x; l .l'J) satisface todas la condiciones de una distribucin
de probabilidade . Tenemos p(x; 1}') ;;::, O y tam bin

L p(x; 1y) = "' p(x,. )'J) = qJ!'.1 = 1.


1 ~ l <(y) q(y)

n el caso co111i11uo la ~ rmulacin de la probabilidad condiciona l presenta


alguna dificultad pue to que para cualqu ier x 0 y 0 dado. tenemo P(X = x 0 ) =
P( Y = y 0 ) = O. nunciemos la definicione forma le iguientes.

Definicin. Sea (X. Y) una varia bl e bidimen iona l contin ua con fdp conj un-
ta f Sean g y 11 las fdp marginale d e X y Y respectivamente.
La fdp co11dicio11al de X para Y = y dada. est definida por
f(x. y)
g(x 1 y) = li(y) li(y) > O. (6.7)

La fdp condicional de Y para una X = x dada e define

_ f (x. y) ( )
(6. )
JI( V ) -
X )' g X >0.
. 1 g(x

Observaciones: (a) Las fdp condicionales anteriores satisfacen toda la exigencias de


una fdp unidimensional. A. , para y fijo, tenemo g(x 1 y) ;;::, O y

J
+"'
_"'
g(x ly)dx =
f +oo
_ ,,_
f(x y)
- ' - dx = - )
/(y) 11(y
1 f +>:
cr
h(y)
f(x. J)dx = - - = l.
11()')

n clculo an logo e puede hacer para h(y 1 x}. Por tanto. la. ecuaciones (6.7) y (6.8) definen
las fdp en Rx y Rr, respectivamente.
(b) Una interpretacin intuit iva de g(x 1 y) se obtiene i consideramo, que la upcrlicie
repre entada por la fdp conjunta f es cortada digamos por el plano y = c. La interseccin
del plano con la uperficic z = f(x. y) resultar en una fdp unidimensional. llamada la fdp
=
de X para Y c. Esta seni precisamente g( '1 e).
(c) Supongamos q ue (X. Y) repre enten respectivamente la altura y el peso de una pcr-
ona. Sea f la fdp conjunta de (X. Y) y ea g la fdp marginal de X (prescindiendo de Y).
6.3 Variable~ al 1lloria~ ind pendi ntes 105

Por lanto f~. s g(x)dx reprc entara la proba ilidad del uceso {5,8 ~ X :::;; 6} pre cindiendo
del peso Y. l,8 g(x l 150)dx se interpretara como P(5,8 :::;; X S 6 I Y = 150). strictamente
hablando, e ta probabilidad condicional no e t definida en lo trminos de nuestra conven-
cin previa con la probabilidad condicional, puesto que P( Y = 150) = O. Sin embargo, slo
u amos la integral anterior para definir esta probabilidad. Sobre una ba e intuitiva, cierta-
mente te debe ser el signieado de este nmero.

BMPLO 6.8. Refirindonos al e.1emplo 6.3. tenemos


2
(x XI') dy = 2x 2 + 2 x.
y(x) =
J
0
2
+3
3
1
xy) dx = -y+ -1 .
Por tant
h(y) =
f
o
(
x2 +-
3, 6 3

_ x 2 + xy/ 3 _ 6x 2 + 2xy
y(x 1 y - 1/ 3 + y/6 -
)
2 +y o~ X ~ L o~ y ~ 2;

2 2
h Ix = x + xy/ 3 = 3x + xy = 3x + y
(y ) 2x 2 + 2/ 3(x) 6x 2 + 2x 6x + 2

Para verificar que o(x 1 y) es una fdp. tenemo

r
Jo
6x2 + 2xy dx =~ y = 1
2+y 2+y
para todo y.

Un clculo semejante se puede hacer para h(y 1 x).

6.3 Variables aleatorias independientes

Tal como definimo el concepto de independencia entre dos ucesos A y B,


definiremo ahora las variables aleatoria independientes. Lo que queremo decir
intuitivamente es que X y Y son variable aleatorias independientes si el re ulta-
do de X , digamos de ninguna manera influye en el resultado de Y. ta es una
nocin extremadamente importante y hay muchas situaciones en que tal opo-
sicin e justifica.

EJEMPLO 6.9. Consideremo do fuentes de material radiactivo situadas a


cierta distancia una de otra, que emiten partculas a. Supongamo que estas do
fuente e observan durante un perodo de dos horas y se anota el nmero de
partculas emitidas. Supngase que las iguientes variable aleatoria on de
inter : X 1 y X 2 , el nmero de partculas emitidas por la primera fuente durante
la primera y ta egunda hora. respectivamente; Y1 y Y2 el nmero de partcula
emitida por la egunda fuente durante la primera y la segunda hora, re pectiva-
mente. Parece intuitivamente obvio que (X 1 y Y.), o (X 1 y Y2 ) o (X 2 y Yi): o (X 2
106 ariablc~ el atoria~ bidimen~onalt-.s y d mayor dimensin 6.3

y Y2 ) son todas pares de variable aleatorias independientes. Las X dependen lo


de las caracter tica de la fuente 1 mientras que las Y dependen de la caracte-
rstica de la fuente 2, y po iblemente no hay razn para suponer que una fuente
influya de manera alguna en el comportamiento de la otra. uando con idera-
mos la posible independencia de X 1 y X 2 el asunto no es tan delinido. 1 n-
mero de partcula emitidas durante la segunda hora e influenciado p r el nmero
emitido durante la primera hora? Para responder a e te interrogante tendramos
que obtener informacin adicional acerca del mecani mo de emisin. 'iertamente
que no podriamo u poner a priori, que X 1 y X 2 son independiente .
Hagamo ahora ms precisa la anterior nocin intuitiva de independencia.

Dermicin. (a) Sea (X, Y) una variable aleatoria bidimen ional di creta. De-
cimo que X y Y on variable aleatorias independiente i y lo i p(x;, yj) =
p(x;)q(yJ) para todo i y j. Esto e P(X = X , Y = yj) = P(X = x;)P( Y = y),
para todo i y j.
(b) Sea (X , Y) una variable aleatoria bidimen ional continua. ecimo que
X y Y on variable aleatorias independientes i y lo si f(x , y) = g(x)h(y)
para todo (x, y), en donde f es la fdp conjunta, y y y Ji son las fdp mar-
ginales de X y Y respectivamente.

Observaci11 : si comparamos la definicn anterior con la dada para st1ce os independiente ,


la semejanza e aparente : esencialmente necesitamos que la probabilidad conjunta ( fdp
conjunta) pueda ser faclorizada. El teorema siguiente ind ica que la definicin anterior es
equivalente a otro enfoque que podramos haber tomado.

Teorema 6.1. (a) Sea (X , Y) una variable aleatoria bidimen i nal di creta.
Entonce X y Y son independientes si y lo i p(x; 1 Yi) = p(x;) para todo
i y j (o lo que es equivalente si y lo si q(y 1 1 x1) = q(yi ) para t do i y 1).
(b) Sea (X , Y) una variable aleatoria bidirnen ional continua. ntonce
X y Y on independientes i y slo i g(x 1y) = (gx) o lo que e equivalente,
si y lo si h(y 1 x) = h(y), para todo (x, .11).

Demostracin : ver problema 6.10.

EJEMPLO 6.10. Supongamos que una mquina se u a para un trabajo e pe-


cfico en la maana y para uno diferente en la tarde. Repre entemo por X y Y
el nmero de vece que la mquina falla en la maana y en la tarde, re pectivamente.
La tabla 6.3 da la distribucin de probabilidade conjunta de (X, Y).
Un clculo fcil revela que para todas las entrada de la tabla 6.3 tenemos

A X y Y son variables aleatorias independiente . (Para comparar vase tambin


el ejemplo 3. 7.)
6. arible~ all.'alorie independiente~ IITT

TABLA 6.3

~ o 1 2 q(yj )

o 0.1 0,2 0.2 0,5

1 0,04 0,08 0,08 0,2

2 0,06 0,12 0,12 0.3

p(X) 0,.2 0.4 0,4 1,0

EJEMPLO 6.11. Sean X y Y la duracin de do di po itivos electrnico .


Supnga e que su fdp conjunta est dada por
f(x y) = e- 1+ >1 x ~O, y~ O.
Pue to que podemo factorizar /(x. yl = e- e - Y, e establece la independencia
de X y Y.
y
EJEMPLO 6.12. upnga e que flx, y) = 8xy,
O ~ x ~ y ~ l. (El dominio e t dado por la re-
gin ombreada en la figura 6.7). Aunque f ya
est escrita en forma factorizada, X y Y no on
independientes, puesto que el dominio de definicin
{(x, y) ! 0 ~ X ~ y ~ f:

es tal que para una x dada, y puede tomar slo va-


lores mayore que la x dada y menores que l. Por
tanto X y Y no son independienie . IGURA 6.7

Observaci6n : de la definicin de la J 1stribucin marginal de probabilidade (en cualquiera


de los casos discreto o continuo) es claro que la distribucin conjunta de probabilidades
determina, en forma nica, la distribucin marginal de probabilidades. decir, que cono-
ciendo la fdp f conjunta, podemos obtener las fdp marginales g y h. Sin embargo, lo inverso
no es cierto. Es decir, en general, el conocimiento de las fdp marginales g y /1 no determinan
la fdp conjunta f. E to slo es verdadcrro cuando X y Y on independiente , porque en este
caso tenemo j(x, y) = g(x)lr(y).

El resultado iguiente indica que nue tra definicin de variable aleatorias


independientes e t de acuerdo con nuestra definicin previa de uce o indepen-
dientes.

Teorema 6.2. Sea (X, Y) una \ariable aleatoria bidmen ional. Sean A y B
uce os cuya ocurrencia (o no ocurrencia) depende lo de X y Y respec-
tivamente. (Esto es, A es un subconjunto de Rx, el recorrido de X , mientras
lllK ariablc~ aleatorias bidlm nsionales y de ma or dimensin 6.-t

que B e un subconjunto de Rr el recorrido de Y.) Entonce , i y Y son


variable aleatoria independiente , tenemos P(A n B) = P(A)P(B).

Demostracin: (slo el caso continuo):

P(A n B) = JJ f(x y) dx dy = JJ g(x)h(y) dx dy


A.nB

= f,..y(x) dx f8 1i(y) dy == P(A)P(B).


6.4 Funciones de una var"able aleatoria

Al definir una variable aleatoria X. ealamo , muy enfticamente, que X es


una funcin definida del espacio muestra! S a los nmero reale . Al definir una
variable aleatoria bidimensional (X , Y) tratamos un par de funcione X = X(s),
Y = Y(s), cada una de las cuales est definida en el e pacio mue tral de algn
experimento y cada una de la cuate a igna un nmero real a cada s E S, pr du-
ciendo as el vector bidimensional [X(s), Y(s)].
Consideremo ahora Z == H 1(X, Y) , una funcin de las dos variabl a leato-
rias X y Y. Debe estar claro que Z = Z(s) e otra vez una variable aleatoria. on-
ideremo la siguiente ucesin de paso :
(a) Se realiza el experimento e y se obtiene el re ultado s.
(b) Se evalan lo nmero X(s) y Y(s).
(e) Se evala el nmero Z == H 1 [X(s), Y(s)].
1 valor de Z depende claramente de s, el resultado original del experimento.
E to es, Z = Z(s) es una funcin que a igna a cada resultado s E S un nmero
real, Z(s). Por lo tanto, Z es una variable aleatoria. Alguna variable aleatoria
importantes que nos van a interesar on X + Y, XY, X / Y, min (X , Y), max (X, Y),
etctera.
El problema que re olvimo en el captulo anterior para la variable aleatoria
unidimensional aparece otra vez: dada la distribucin de probabilidade con-
junta de (X Y), cul e la d tribucin de probabilidades de Z = H 1 (X , Y)?
(Debe haber quedado claro en las numero as di cusione previa bree te punto.
que una distribucin de probabilidade se indt1ce en Rz, el espacio mue lral de Z.)
Si (X , Y) e una variable aleatoria di creta, e te problema e resuelve muy
fcilmente. Supngase que (X , Y) tiene la distribucin dada en lo ejemplo 6.1
y 6.4. Las siguientes variables aleatorias (unidimensionale ) podran er de in-
ters:
U = min (X, Y) = el menor nmero de artculos produc.idos por la dos lnea :
V = max (X , Y) =el mayor nmero de artculos producido por la do lnea :
W = X + Y = nmero total de artculo producido por la dos lnea .
Para obtener la distribucin de probabilidade de U, por ejemplo, procedemos
como igue. Lo valore p ible de. U on: O, 1, 2 y 3. Para evaluar P( = 0)
argumentamo que U = O si y lo i ocurre uno de lo ca o iguiente : X = O.
Y = O o X = O, Y = 1 o X == O, Y = 2 o X = O, Y = 3 o X = 1, Y = O o X = 2.
6.4 oocionc1> de una ~ari11ble 11le111<1ri11 109

Y = Oo X = 3, Y = Oo X = 4, Y = Oo X = 5, Y = O. Por lo tanto P( U = O) = 0,28.


El re to de las probablidade a ociadas con U se pueden obtener de una manera
semejante. Por tanto, la distribucin de probabilidades de U se puede resumir
como igue: u: O, 1,2,3; P(U = u): 0,28; 0,30; 0,25; 0,17. La distribucin de pro-
babilidade de las variables aleatoria V y W como se defini anteriormente se
pueden obtener de una manera emejante. (Ver problema 6.9).
Si (X, Y) es una variable bidimensional continua y si Z = H 1 (X, Y) es una
funcin continua de (X, Y}, entonce Z ser una variable aleatoria continua (uni-
<:Umen ional) y el problema de encontrar u fdp es algo ms complicado. Para
re olver este problema necesitamos un teorema que vamos a indicar y discutir
a continuacin. Ante de hacerlo, bosquejemo brevemente la idea bsica.
Para encontrar la fdp de Z = H 1 (X, Y) es a menudo ms simple introducir
una egunda variable aleatoria, digamos W = H 2 (X, Y), y obtener primero la fdp
conjunta de Z y W, digamos k(z, w). Conociendo k(z, w) podemos entonce obte-
ner la fdp de Z, digamo g(z), al integrar implemente k(z, w) e n respecto a w.
sto es.
g(z) = f+- "'
ao
k(z, w) dw .

Lo problemas que quedan son (1) cmo encontrar la fdp conjunta de Z y W,


y (2) cmo elegir la variable aleatoria apropiada W = H 2 (X , Y). Para resolver
el ltimo problema, implemente, digamo que generalmente hacemo la eleccin
m sencilla po ible de W. En el contexto presente, W de empea lo un paptl
intermediario, y realmente no nos interesa en s misma. 'on el lin de encontrar
la fdp conjunta de Z y W necesitamo el teorema 6.3.

Teorema 6.3. Supongamos que (X, Y) es una variable aleatoria bidimen io-
nal continua con fdp conjunta f Sea Z = H 1 (X, Y) y W = H 2 (X, Y), y
supongamos que las funcione H 1 y H 2 sati facen las condiciones siguientes:
(a) as ecuacione z = H 1 (x, y) y w = H 2 (x, y) se pueden resolver nica-
mente para x y y en funcin de z y w, digamo x = Gi(z, w} y y = G 2 (z, w).
(b) La derivada parcale ox/oz, ox/ow, oy/oz, y iJy/iJw existen y on
continuas.
Luego la fdp conjunta de (Z, W), digamo k(z, w), est dada por la expresin
siguiente: k(z, w) = /[G 1 (z, w), G 2 (z, w)] jJ(z, w)i, en donde J(z , w) es el
siguiente determinante 2 x 2:
ox ox
i)z iJw
J(z, w) =
i)y i)y
oz ow
E te determinante e llama Jacobiano de la tran formacin (x, y)-+ (z, w)
y alguna veces se escribe a o(x, y)/o(z, w). Ob ervemos que k(z w) ser
distinta de cero para eso valores de (z, w) que corresponden a valores
de (x, y) para los cuate f (x, y) es distinta de cero.
110 \lariabk:~ alntori11.' bldlmen~iooale!> y d mayor dimensioo

w
y

(a) z (b)
FIGURA 6.8

Observaciones: (a) Aunque no demostraremos este teorema, por lo menos indicaremos


lo que nece ita ser demostrado y dnde se encuentran las dificultades. onsidrese la da
conjunta de la variable aleatoria bidimensional (Z, W),

K(z, w) = P(Z ~ z, W .S w) = J~.., J:...., lc(s, t)dsd1 ,


en donde k es la dp bu cada. Pu to que e supone que la tran formacin (x, y) (z, w) es
.de uno a uno (vase la suposicin (a) anterior), podemos encontrar el suceso, equivalente
{Z .S z, W .s w}, en funcin de X y Y. Supnga e que este uceso se indica como . (Ver
figura 6.8). sto es {(X Y) e C} i y lo i {Z .s z, W ~ w} . Por tanto

r 1: lc(s. 1) ds di = J,Jf(x, y) dx dy.

Pue to que e upone que fes conocido. puede calcularse el segundo miembro de la integral.
Dierencndola con respecto a z y w obtenemos la fdp pedida. En la mayora de los textos
de clculo avanzado se demuestra que esta tcnicas c<>nducen al resultado formulado en
el teorema anterior.
(b) Ntese la gran semejanza entre el resultado anterior y el obtenido en el caso unidi-
mensional tratado en el captulo anterior. (Ver teorema 5.1). La c<>ndicin de monotona
de la uncin y = H (x) se sustituye_ por la condicin de que la correspondencia entre (x, y)
y (z, w) es uno a uno. La condicin de difcrencialidad e sustituida por ciertas suposiciones
acerca de las derivada parciales consideradas. La olucin lina l obtenida es tambin muy
semejante a la obtenida en el caso unidimensional: la variables x y y sencillamente se sus-
tituyen por sus expresiones equivalentes en funcin de z y w, y el valor abso luto de dx/dy se
sustituye por el valor abso luto del Jacobiano.

EJEMPLO 6.13. Supngase que estamos apuntando a un blanco circular de


rado uno, que ha ido colocado de modo que su centro e t en el origen de un
si tema de coordenada rectangulares (figura 6.9). Supnga e que las coordenada
(X , Y) de lo puntos de mpacto estn d . tribuida uniformemente en el crculo.
Es decir,

f(x,y) = l/n i (x, y) queda en el interor o sobre el crculo,


= o, en otro punto.
Funciooc' d" una ~arl11ble al~11loria 111

F10 RA 6.9

upngase que e tamos intere ados en la variable alea toria R que repre enta
la distancia del origen. (Ver figura 6JO). s decir, R =
X 2 + Y ~ Encontra-
remo la fdp de R. digamo (J , a i : ea <1> = tan - l (Y/ .\'). Por tanto, X = H 1 (R , <l>)
y Y = H 2 (R, <1>) donde x = H 1(r, </J) = r co </>y y = Nz(r </>) = r en </J. ( imple-
mente hemo introducido coordenada potare ).
1 Jacobiano es

ax. ax co - r . en</>
ar aq,
} =
ay ay "' r co </>
en</>
il r o<J>
= r co 2
<P +rs n 2 </> = r.

Bajo la transformacin anterior. el crculo unitario en el plano xy e aplica en


el rectngu lo en el plano <J>r en la figura 6. 11. Por tanto la fdp conjunta de (<l>, R)
est dada por
r
{J(</J, r) = - , 0$r $ l. O $ cjJ < 2n.
1t

~~
T

FIGURA 6. 10
l FIGURA 6. 11
(211', 1)

1
."'
As la fdp pedida de R, digamos h, est dada por

h(r) = J~ " y(<f>, r)d</> = 2r, O $ r ,::;; 1.

Observacin : este ejemplo seala la importancia de obtener una representacin precisa


de la regin con los valores po ibles introducido por la nueva variable aleatoria.
112 ariabie al atorias bidimensionales y de mayor dimensin 6.5

6.5 Distribucione del producto y del cociente de variable aleatorias independientes

ntre la funciones de X y Y m importante que deseamos con iderar e tn


la suma S = X + Y, el producto W = X Y, y el cociente Z = X / Y. Podemo usar
el mtodo de e ta seccin para obtener las fdp de cada una de e a variable alea-
toria bajo condiciones muy generales.
n el captulo 12, inve ligaremos la suma de variables aleatoria con mayor
detalle. Por tanto, postergaremos la discu in de la di tribucin de probabilida-
de de X + Y ha ta entonces. Sin embargo, con ideraremos el producto y el co-
ciente en los dos teoremas siguientes.

Teorema 6.4. Sea (X, Y) una variable aleatoria bidimen ional continua
y supongamos que X y Y son independientes. Por tanto la fdp f se puede
escribir como f(x y) =.. g(x)h(y). Sea W = X Y. - -
Luego la fdp de W, digamos p, est{t dada por

p(w) = J: y(u)/i(;)I~ du. (6.9)

Demostracin: ea w = xy y u = x. A i x =uy y= w/ u. ! Jacobiano e


o
) = =-
-w u
7 u

Por tanto la fdp conjunta de W = XY y U = X es

s(w, u) = g(u)h ( ;) !~I


a fdp marginal de W se obtiene al integrar s(w, u) con respecto a u, que da
el resultado pedido. Los valores de w para los cuales p(w) > O dependde lo va-
lores (x, y) con los cual e f (x, y) > O. -

Observacin : al evaluar la integral anterior ' e puede usar el hecho de que

EJEMPLO 6.14. upnga e que tenemos un circuito en el cual varan de un


modo aleatorio la corriente l y la resi tencia R. Supngase e pecficamente que
1 y R son variable aleatorias continuas independiente con la iguientes fdp.

1: g(i) = 2i, O :::; i :s; 1 y O en otra parte;

R: h(r) = r2 /9, O :s; r :s; 3 y O en otra parte.


l>lslribu ion !> d I produ lo ) d 1 rnci ncc 113

De intcr es la aria ble aleatoria E = l R (el voltaje n el circuito). Sea p la fdp de E.


Segn el teorema 6.4 lenemo

p(e) = f_+, y(;)h (T) lf\ di.

e debe tener cuidado al resolver e ta integral. Ntese primero que la variable


de integracin no puede tomar valore negativo . Segundo, ntese con el fin de
que el integrando sea positivo, ambas fdp que aparecen en el integrando deben
er po itiva . Con iderando los valores para los cuales g y h no son iguale a cero
encontramos que deben atisfacer e la condiciones siguientes:

O ~ i :::;; 1 y O :::;; e/i :::;; 3.

ta dos desigualdade on, a u ve~ equiv.tlentes a e/ 3 :::;; i :::;; l. Por tanto.


la integral anterior llega a er
p(e)
e2 1
f
t
p(e) = 2i --: -:- di
c/ 3 91 1

= -~e2 --:- lk
1 /3

= ~e(3 - e), O :::;; e :::;; 3.


t=~ (3, 0)
2
n clculo fci l demuestra que f;' p(11}de = 1. FIGURA 6.12
(Ver figura 6.12.

Teorema 6.5. Sea (X Y) una variable aleatoria continua bidimen ional e


uponc que X y Y son independiente . [Por tanto, Ja fdp de (X, Y) puede
e cribir e como f(x, y) = g(x)h(y).] Sea Z = X / Y. Luego la fdp de Z,
digamo q, e t dada por

q(z) =f
. ~

-.:()
g(vz)lr(v)lvl dv. (6.10)

Demostracin: ea z = x/y y ea e =y. Por tanto. x = vz y y = u. El Jacobiano


e

~\ =v.
Por tanto, la fdp conjunta de Z = X/ Y y V = Y es igual a

t(z, v) = g(vz)li( )ivl.

Integrando esta fdp conjunta con re pecto a " da la fdp marginal de Z.


114 ariabl 11lnlori1t.~ bidimen~ional s y d mayor dimemdn 6.b

EMPL 6.15. Representemo por X y Y la duracin de dos bombilla fa-


bricadas mediante do procedimientos distintos. Supongamo que X y Y s n
variable aleatoria independiente con fdp f y g re pectivamente, en donde

f(x) = e- ", x ;;:::. O, y Oen otra parte;


g(y) = 2e- 2 1, y ~ O, y O en otra parte.

De inters podra er la variable aleatoria X / Y, que repre enta la razn de la dos


duraciones. Sea q la fdp de z.
Segn el teorema 6.5 tenemos q(z) = J ~ ... g(vz)h(v)lvl dv. Puesto que X y Y
pueden tomar slo cantidades no negativa , la integracin anterior lo nece ita
ser calculada sobre los valores positivos de la variable de integracin. Adem ,
el integrando ser positivo slo cuando las dos fdp que aparecen ean po itivas.
Esto implica que debemo tener v ~ O y vz ~ O. Puesto que z > O, esta de igual-
dades implican que v ~ O.
As lo anterior se convierte en / q(z)

Una fcil integracin por partes da

2
q(z) = (z + 2)2 ' z ;;:::. O.
IGURA 6.13
(Ver figura 6.13). De nuevo es un ejercicio
fcil verificar que f g' q(z) dz = 1.

6.6 Variables aleatorias n-dimensionales

Hasta ahora nuestra expo icin se ha restringido a variables aleatorias bidi-


men ionale . Sin embargo, como lo indicamo al comienzo de e te captulo,
podemos interesarnos en tres o ms caractersticas numricas simultnea .
Slo haremos una brevsima exposicin de las variables aleatorias n-dimen-
sionales. La mayor parte de los concepto presentado anteriormente para el
caso bidimensional e pueden extender al caso n-dimensonal. Nos limitaremo
al ca o continuo. (Ver la nota al final de este captulo).
Supongamos que (X., . .. , X,.) puede tomar todos los valores en una regin
del espacio n-dimensional. to es, el valor es un vector n-dimensional.

(X 1 (s), .. . , X "(s)).
( 'a raclcrizamo la distribucin de probabilidade (X 1 , .. X,.) e m igue:
iste una uncin densidad de probabilidades conjunta q ue satisface las con-
dicione siguientes:

(a) f(x 1 , . ,Xn) ;:?: Opara todo (x 1 , , xn).


(b) r:: ... f ~ f(x ... x,.)dx1 ... dx,, = l.

<'on la ayuda de e ta fdp definimos

P[(X., ... , Xn)eC] = J Jf(xi .... Xn)dx 1 dx.,


e

n donde C es un ubconjunto del recorrido de (X 1 , , X.).


Con cada variable alea toria n-dimensiona l podemo a ociar un nmero de
varia ble a leatorias de dimensin inferior. Por ejemplo, si n =
3, en tonce

en donde g e la fdp marginal de una variable a leatoria unidimensional X 3 ,


mientras que

en donde h repre enta la fdp conjunta de la variable aleatoria bidimen ional


(X 1, X 2 ), etc. 1 concepto de variable aleatorias independientes e t tambin
extendido de una manera natural. Decimos que (Xi. ... , X ni on variables a leato-
rias independientes i y slo i u fdp conjunta f(xi. ... , Xn) se pueden factori-
za r en

Hay mucho casos en los cuale de eamos considerar las variables a leatorias
11-dimensionales. Daremo unos pocos ejemplos.
(a) Supngase que estudiamos el modelo de precipitacin debido a un is-
tema particular de tormenta . i tenemos una red de, digamos, 5 estacione de
observacin y si X; e la lluvia cada en la estacin i debido a un sistema frontal
particular, querramo considerar la variable penta-dimensiona l (X 1, X 2 , X 3 ,
X 4, X s).
(b) Una de las aplicacione m importante de la variables a leatoria
n-dimen ionales aparece cuando tratamos con medida repetida de una variable
aleatoria X. Supngase que se pide la informacin acerca de la duracin X, de
cierto tubo electrnico. Un fabricante produce un gran nmero de e to tubos,
de lo cuale probamos n. Sea X 1 la duracin del i- imo tubo, i = l , ... , 11. Por
tanto (X 1 , X") es una variable a leatoria 11-dimensional. Si suponemo que
cada X; tiene la misma di tribucin de probabilidades (pue to que todo lo tubos
116 1ri1blei. aleatorias bidlm nslonales y de mayor dim n In 6.tt

e producen de la mi ma manera) y i suponemos que las X ; on todas variables


aleatorias independiente (puesto que, po iblementc. la produccin de un tubo
no afecta la produccin de lo otro ), podemo suponer que la variable aleatoria
n-dimensional (X, .. . , X nl e t formada de las componente X t. . . . X n inde-
pendiente e idnticamente distribuidas. (Debe ser obvio que aunque X 1 y X 1
tienen la mi ma distribucin no necesitan adoptar el mi mo valor).
(c) Otra manera como aparecen la variable aleatoria n-dimen ionales
es la sigu iente. Repre entemos por X(t) la potencia requerida p r cierta empresa
industrial durante un tiempo t. Para t fijo, X(t) es una variable aleatoria unidi-
men ional. Sin embargo, podemo estar interesad en establecer la potencia
pedida en determinado n tiempo especifico , 1 1 < t 2 < < c. As deseamos
estudiar la variable a leatoria n-dimensional.

te tipo de problemas se e ludia a un nivel rn1s avanzado. (Una referencia ex-


celente para e te tema e el lbro Swdiastic Processes por manuel Parzen.
San Franci co: Holden-Day. 1962.)
Obs11Tadn11 : en alguna parte de nuc.~lra C\posicin nos hemos reerido al concepto de
espac10-n. Re umamos un poco algunas de la ideas b icas necesarias.
011 t:ada nmero real x. podemos aso~1;1r un punto sobre la recta de lo nmeros real~
y recprocamente. Anlogamente, con cada par de numero rea les (x 1,x 2). podemos a ocia r
un punto en el plano rectangular de coordenadas y recprocamente. Finalmente, con cada
conjunto de tres nmeros rea le (x., x 2 , x 3), podemo asociar un punto en el espacio tridi-
mensional de coordenadas y recprocamente.
n muchos de los problema que nos intere an, tratamos un conjunto de 11 nmero reafo,
(x 1 , x 2 , . , x.). tambin llamado un n-tuplo. Aunque no podemo dibujar ningun grfico,
i 11 > 3. podemos continuar adoptando la terminologa geomtrica sugerida por los casos
de dimensin menor, citados anteriormente. A , hablaremo de un punto en un espacio n-
dimen ional determinado por el n-tuplo (x,, ... , x.). Definiremos como espacio n (algunas
vece llamado espacio 11 euclidiano) el conjunto de todos los (xi. ... , x.), en donde x 1 puede
ser cualquier numero real.
Aunque realmente no necesitaremos evaluar integrales 11-dimen ionale , vamos a en-
contrar que es un concepto muy til y a lgunas vece necesitamos expresar una cantidad como
una integral mltiple.
. i recordamos la definicin de
If f (x. ' 1dx dy.
A

en donde A es una regin del plano (x, y). entonces la extensin de este concepto a

f f f (x., .. . . :c,.)dx 1 dx .
11

en donde R es una regin en el espacio 11 era _1ustificada. Si f representa la dp conjunta de


la variable aleatoria bidimensional (X , Y) entonces

fJ f(x, y) dx dy
A
1cprescnta P [(X, Y) E A). nlogamente, f re pre en ta la fdp conjunta de (X 1, . X.)
cnl nces
J Jf(x,, ... . x.)dx 1 clx.
R

re presenta
P[(X 1 X.Je R].

PROBLEMA

6.1. Suponga que la tabla siguiente represen1a la distribucin de probabilidades conjunta


de la variable aleatoria discreta (X, Y). 'alcular todas las di tribuciones marginales y con-
diciona les.

~ 1
-
2 3

1 -h k o
2 o ~
1
'S'

3 ~ i ~

6.2. Supngase que la variable alcatona bidimensional (X, Y) tenga fdp conjunta

f (x, y) = kx(x - y). O< < 2, - x < y < x,


= O. en otra parte.

(a} Eva luar la constante k.


(b) ncontrar la fdp marginal de X .
(c) ncontrar la fdp marginal de Y.
6.3. Supngase que la fdp conjunta de la variable ale"3 toria bidimensional (X . Y) e t
dada por
2 xy
f(x , y) = X + J' 0 < X < l. 0 <y < 2,

= O, en otra parte.

Calcular lo iguientc.
(a} P(X > l); (b) P(Y <X); (e) P(Y < ~ I X < !J.
6.4. Suponga que e acan dos carta a l azar de una baraja de cartas. ea X el nmero
de ase obtenidos y sea Y el nmero de renas obtenido.
(a) Obtener la di tribucn de probabilidade conjunta de (X. Y)
(b) Obtener la di tribucin marginal de X y de Y.
(e) Obtener la di tribucin condicional de X (dado Y) y de Y (dado X).
118 ari11blcs aleatorias bldimensi()nales y de mayor dim nsin

6.5. Para qu valores de k es f(x, y) = ke - 1" una fdp conjunta de (X, Y) en la regi n
0 <X < l. 0 <y < l?
6.6. upnga e que la variable aleatoria continua bidimen ional (X, Y) est distribuida
uniformemente en el uadrado cuyos vrtices son (l. 0), (O, 1), ( - 1, 0) y (0, - 1). Encontrar
la fdp marginales de X y de Y.
6.7. Supngase que las dimen iones, X y Y. <le una plancha metlica rectangular se pueden
considerar como variable aleatorias continua independientes con las siguiente fdp.

X: g(x) = x - 1, 1 < x ::;; 2,


= - X + 3, 2< X < 3,
= O, en otra parte.

y: h(y) = !. 2 < y < 4,


= O, en otra parte.

ncontrar la fdp del rea de la plancha A = XY.


6.8. Repre entemo por X la duracin de un dispositivo electrnico y supongamos que X
es una variable a leatoria continua con fdp

1000
f(X) = - 2
, X > 1000,
X

= O, en otra parte.

Sean X 1 y X 2 dos determinaciones independiente de la anterior variable aleatoria X. (Es


decir, supngase que estamo probando la duracin de dos de tales dispositivos). Encontrar
la fdp de la variable aleatoria Z = X 1/X 2
6.9. Obtener la distribucin de probabilidades de la variables aleatorias V y W presen-
tadas en la p. 95.
6.1 O. Demo trar el teorema 6.1.
6.11. La fuerza magntica H en un punto P. a X unidades de un alambre que transporta
una corriente 1, est dada por H = 21/ X. (Ver figura 6.14). Supnga e que Pes un punto
variable. Es decir. X e una variable aleatoria continua di tribuida uniformemente en (3,si
Supngase que la corriente l es tambin una variable aleatoria continua, distribuida uni-
,,
,. ,..
,.. ,..
,,.,.."
,.. ,,.
,,.." X
P-<::-..-.. .- - - - - - - -
... .......
... ......
...... I
......
FIGURA 6.14
Problema~ 11'1

lormcmentc en (10, 20). upnga e, adcm , que las variables aleatorias X e 1 son indepen-
diente . ncontrar la fdp de la variable aleatoria H.
6.12. La inten idad de la luz en un punto dado est dada por la relacin 1 = C/0 2, en
donde es la potencia lum inosa de la fuente y D es la distancia de la fuente al punto dado .
upnga e que est distribuida uniformemente en (1,2), mientras que D es una variable
aleatoria continua, con fdp f(d) = e- 4 , d > O. Encon trar la fdp de / , si C y D son indepen-
dientes. [Indicacin: hallar primero la fdp de D2 y luego aplicar los re ultados de e te captulo.]
6.13. Cuando una corriente del (amperes) pa a por una resistencia de R (ohms), la po-
tencia generada e dada por W = 12 R (watt ). Supngase que l y R son variable aleatorias
independientes con las iguientes fdp.

l : f(i) = 6i(J - i), o~ i ~ !,


= O, en otra parte.

R: g(r)=2r, O < ,.< 1.


= O, en otra parte.

Determinar la fdp de la variable a leatoria W y dibujar su grfico.


6.14. upnga que la fdp conjunta de (X , Y) e dada por

f(x, y) = e- 7 , para x > O, y > x,


= O. en otra parte.

(a) ncontrar la fdp marginal de X.


(b) ncontrar la fdp marginal de Y.
(e) valuar P(X > 2 I Y < 4).
7
Otras caractersticas de las variables aleatoria

7.1 El valor esperado de una variable aleatoria

'on ideremos la relacin determinstica ax +by = O. Reconozcmo la como


una relacin lineal entre x y y. Las con tante a y b son lo parmtttros de esta
relacin en el entido de que para cualquier eleccin particular de a y b obtene-
mos una funcin lineal e pecfica. n otro casos uno o ms parmetros pueden
repre entar la relacn que e considera. Por ejemplo, i y = ax 2 + bx + e, on
nece ari tre parmetros. Si y = e-Ax, e suficiente un parmetro. o lo una
rel ~cin particular e caracteriza por lo parmetro ino, recprocamente. por
una cierta relacin podem definir vario parmetros pertinente . Por ejemplo,
i ay + bx = O, entonces m = - b/a repre enta la pendiente de la recta O, i
y = ax 2 + bx + e, entonces -b/2a repre enta el valor para el cual exi te un
mximo relativo o un mnimo relativo.
En lo modelos matemtico no determin ticos o aleatorio que hemos ve-
nido considerando, lo parmetro tambin pueden u arse para ealar la di -
tribucin de probabilidades. on cada di tr ibucin de probabilidadc podemos
a ocar ciertos parmetro que dan informacin valiosa acerca de la distribucin
(tal como la pendiente de una recta da una informacin til acerca de la rela-
cin lineal que repre enta).

EMPLO 7.1. upongamo que X e una variab le aleatoria continua con


fdp f(x) = ke - kx, x ;: :-:_ O. Para verificar que e ta e una fdp ob erve que Jo ke - kxdx
= 1 para toda k > O, y que ke - kx > O para k > . ta di tribucin e llama
di tribucin exponencial, que estudiaremos m adelante con mucho detalle.
una di tribucin muy til para repre cntar la duracin, digamo X, de cierta
clase de componente de equipos. La interpretacin de k, en e te entido, se dis-
cutir tambin po teriormente.

EJEMPLO 7.2. Supongamo que en una lnea indefinida de montaje e produ-


ce un artcu lo dado. La probabilidad de que un artcul ea defectuoso e p, y
e te valor es el mi mo para todos lo artcu lo . uponiendo tambin que los ar-
tci.;los uce ivo on defe.ctuo os (D) o no defectuo o (N) independientemente
uno de otro. Sea la variable aleatoria X el nmero de artculo in peccionados
120
7. 1 El valor esperado de una v11riable 11le11loria 121

hasta que se encuentra el primer artculo defectuoso. As un re ultado tpico


del experimento sera de la forma N N D. Por tanto X(N N N N D) = 5. Los
va lores posibles de X son: l , 2, ... , n, . . . Puesto que X = k si y s lo si lo pri-
mero (k - 1) artculos no son defectuo os y el k-simo artculo es defectuo o,
asignamos la probabi lidad siguiente al suceso {X = k}: P(X = k) = p(l - Pt- 1 ,
k = 1, 2, ... , n, ... Para verificar que e ta es una legitima distribucin de pro-
ba bilidade ob ervemo que

'L p(l - pt - 1
= p[I +(l - p)+(l - p) 2 + .. -J
1
= p
1 - (1 - p)
=1 si O < IPI < l.

As el parmetro p puede ser cualquier nmero que satisfaga O < p < l .


Supongamos que se especifican una variable aleatoria y su distribucin de
probabilidades. Hay alguna manera de establecer esta distribucin en funcin
de esca os parmetro numrico apropiados?
Antes de investigar la pregunta anterior, motivemos nue tra presentacin al
con iderar el iguiente ejemplo.

JEMPLO 7.3. Una mquina corta alambre de una longitud determinada.


Debido a cierta imprecisin del mecanismo de corte, el largo del alambre corta-
do (en pulgadas), digamos X , se puede con iderar como una variable aleatoria
di stribuida uniformenente en [11 ,5, 12,5]. El largo especifico es de 12 pulgadas.
Si 11 ,7 s; X < 12,2, el alambre se puede vender con una utilidad de $ 0,25. Si
X 2: 1.2,2, el alambre se puede cortar de nuevo, y por consiguiente se obtiene
una utilidad de $ 0,10. Y si X < 11 ,7, el alambre se descarta con una prdida
d $ 0,02. Un clculo sencillo ind ica que P(X ~ 12,2) = 0,3, P(l l,7 ~ X < 12,2)
= 0,5, y P(X < 11 ,7) = 0,2.
upongamo que e corta un gran nmero de muestras de alambre, digamos
N. ea Ns el nmero de mue tras para las cuales X < 11 ,7, N R el nmero de
muestras para las cuales 11 ,7 ~ X < 12,2, y N L el nmero de muestra para las
cuales X 2: L2,2. Por tanto, la utilidad total obtenida de la produccin de N
mue tra s es igual T = Ns( - 0,02) + N R(0,25) + N L(0,10). La utilidad total por
alambre corcado, digamos W , e igual W = (Ns/N)( - 0,02) + (NR/ NX0.25) +
(NJ N)(O,l). (Ob ervemo que W es una variable a leatoria pue to que Ns, NR,
y NL son variables aleatoria .)
Ya hemos mencionado que la frecuencia relativa de un suceso e t prxima
a la probabilidad de e e uce o i el nmero de repeticiones en la que se basa
la frecuencia relativa es grande. (Di cutiremos con ms precisin esto en el ca-
pitulo 12.) Por tanto, si N es grande, esperaramos que N si N ~uera prximo a
0,2, NR/ N sea prximo a 0,5 y NJ N sea prximo a 0,3. Luego para N grande
W podra aproximarse como igue :

w~ (0,2)(-0,02) + 0,5(0,25) + (0,3)(0, 1) = $0,151.


122 OlrL1 caracterislicas de las variables aleatorias 7.1

Asi, si se produje e un gran nmero de alambres, esperaramos tener una utili-


dad de $0,151 por alambre. El nmero 0.151 e llama . valor esperado de una va-
riable aleatoria W.

Defmicin. Sea X una variable aleatoria discreta con valore po ible


x", ... Sea p(x;) = P(X = x 1) , i = 1, 2, . . . n, . . . 1 valor esperado
X, ... ,
de X (e peranza matemtica de X), denotada por E(X), se define como
co
E(X) = L Xp(X) (7.l)
i= l

i la ere :E;"= 1 x;p(x 1) converge ab olutamente, e decir, s :E'f'= 1 lx11p(x 1) <


E te nmero tambin se designa como el valor promedio de X .
Observaciones : (a) Si X toma slo un nmero finito de valores, la expresin anterior llega
a er E(X) = I:7=1p(x1)x1. Esta se puede considerar como un promedio ponderado de los
valores posibles x., . . . , x. Si todos los valores posibles son igualmente probables. E(X) =
(1/11):E7= 1 X, lo que representa el promedio aritmtico ordinario de lo n valore posible .
(b) Si se lanu un dado regular y la variable aleatoria X designa el nmero de puntos
que salen, entonces E(X) = 1/6(1 + 2 + 3 + 4 + 5 + 6) = 7/ 2. E te ejemplo sencillo ilu tra,
categricamente, que E(X) no es el resultado que esperaramos cuando X se observa una
sola vez. De hecho, en la situacin anterior, E(X) = 7/ 2 no es siquiera un valor posible de
X! Por el contrario, sucede que si obtenemo un gran nmero de ob ervacione indepen-
diente de X , tales como x, ... , x., y calculamos el promedio aritmtico de e os resultados,
entonces, bajo condiciones generales regulares, el promedio aritmtico estar cerca a E(X)
en un entido probabilstico. Por ejemplo, en la situacin anterior, i lanzramos el dado
un gran nmero de veces y luego calculramos el promedio aritmtico de los diver os resul-
tados, esperaramos que este promedio llegase a estar ms prximo a 7/2 cuanto m a me-
nudo fuese lanzado el dado.
(c) Se debe observar la similitud entre la nocin de valor esperado como se defini an-
teriormente (especialmente si X puede tomar slo un nmero finito de valores) y la nocin
del promedio de un conjunto de nmero como, z 1i . , z.. orrientemente definimos
z = l/n) :Ei=1 z1 como el promedio aritmtico de los nmeros z 1, . , z. Supngase, adems
que tenemos lo nmeros z'1, . , zi., donde z; ocurre n1 veces, I:'=
111 1 = n. Haciendo/= n;/n,
:Et=if1 = 1, definimos el promedio ponderado de lo nmero z'i. ... , zj. como
l t k
- L n;ti = L f 1z.
nl l i I

Aunque hay un fuerte parecido entre el promedio ponderado anterior y la


definicin de E(X), es importante sealar que este ltimo es un nmero (parmetro)
asociado con una di tribucn de probabilidade terica, mientras que el primero
es simplemente el resultado de combinar un conjunto de nmeros de una manera
e pecial. Sin embargo, es m que un parecido superficial. Con ideremos una
variable aleatoria X y sean X, . . . , x. lo valore obtenidos cuando el experimento
que da origen a X se realiz n veces independientes. (Es decir, xi. . . . x. simple-
7.1 El nlor pcrado de w1a v1rl1bl aleatoria 123

mente representa lo re ultado den medidas repetidas de la aracterstica numrica


..) ca x el promedio aritmtico de esos n nmeros. ntonces, como discutiremos
mucho m precisamente en el captulo 12, in es suficientemente grande, x estar
prxima a E(X) en un determinado sentido. E te re ultado e t muy relacionado
e n la idea (que tambin ser discutida en el captulo l2) de que la frecuencia relativa
f A asociada con n repeticione de un experimento estar prxima a la probabilidad
P(A) i !A est basada en un gran nmero de repeticiones de e.
EJEMPLO 7.4. Un fabricante produce artculos de tal modo que el 10 por cien-
on defectuosos y el 90 por ciento no lo son. Si se produce un artculo defec-
tuo o, el fabricante pierde $1, mientras que un artculo sin defecto le produce una
utilidad de $5. Si X es Ja utilidad neta por artculo, entonces X e una variable alea-
toria cuyo valor e perado e calculado como E(X) = - 1(0,1) + 5(0,9) = $4,40.
upongamos que se produce un gran nmero de tale artculos. Entonces, puesto
que el fabricante perder $1 alrededor del 10 por ciento de la vece y ganar $5
alrededor del 90 por ciento de las vece . l e perar ganar al redor de 4 40 por
artculo a la larga.

Teorema 7.1. Sea X una variable aleato ria distribuida binomialmente con
parmetro p. basada en n repeticiones de un experimento. ntonce

E(X) = np.
Demosiracn: pue to que P(X = k) = (~)pk(I - p)n - t, tenemos

= z:
k l
nt

(k - l)!(n - k)!
P"< 1 - Pr - k

(ya que el trmino con k = O es igual a cero). Sea s = k - 1 en la urna anterior.


Como k toma valore de uno ha tan s toma valore de cero ha ta (11 - 1). Sustitu-
yendo k en toda partes por (s + 1) obtenemos

= np
n- 1 ( n - ') T(l - p)" - 1- .
O S

a urna en la ltima expresin e implemente la urna de probabilidade bino-


miales con n sustituido por (n - 1) [e to es (p + (l - p))n - 1] que, por tanto, es
igual a uno. sto establece el resultado.
Observacin : el resultado anterior corresponde ciertamel}le a nuestra nocin intuitiva.
Porque se supone que la probabilidad de algn suceso A es 0,3. por ejemplo, cuando e rea-
124 Otras cara teristlca d las variables aleatorias 7.1

liza un experimento. i repelimos este expermento 100 veces, por ejemplo, esperaramo!.
que A ocurriera alrededor de 100(0,3) = 30 veces. El concepto de valor esperado, presen-
tado anteriormente para variables discretas, se extender brevemente en el caso continuo.

JEMPLO 7.5. Una mquina impresora tiene una probabilidad con tante d
0,05 de fallar en cualquier da. Si la mquina no tiene fallas durante la emana.
se obtiene una utilidad de $S. Si ocurren l o 2 fallas, se obtiene una utilidad de $R
(R < S). Si ocurren 3 o m fallas se obtiene una utilidad de $( - L). (Suponemos
que R, S, y L son mayore que cero; tambin suponemo que i la mquina falla
cualquier da, permanece fuera de u o durante el re to de l dia.) Sea X la utilidad
obtenida en una emana de cinco das. Lo valores posibles de X son R, S y ( - L).
Sea B el nmero de fallas por semana. Tenemos

k = O, 1, ... , 5

Puesto que X = S i y slo si B = O, X = R si y slo si B = 1 2, y X = ( - L)


si y lo i B = 3, 4, 5 encontramos que,

E(X) = SP(B = O) + RP(B = 1 2) + (- L)P(B = 3, 4 5)


= S(O 95) 5 + R[5(0,05}(0,95)4 + 10(0,05)2 (0,95)3]
+ ( - L) (10(0,05)3 (0,95) 2 + 5(0,05) 4 (0,95) + (0,05) 5 ] dlares.

Defmicin. Sea X una variable aleatoria continua con fdpf El valor esperado
de .X se deline como

E{X) = J: 00
xflx)dx (7.2)

uevamente puede suceder que esta integral (impropia) no converja. Por


lo tanto decimos que E(X) exi te i y slo si
(l)

es finita.
J- fx lf(x)dx

Observacin: debemos observar la analoga entre el valor esperado de una variable alea-
toria y el concepto de <{centro de masa en mecnica. Si una masa unitaria ei t di tribuida
a lo largo de la recta en los puntos discretos xi. ... , Xno . y si p(x;) es la masa en x;, vemos
entonces que l:";. 1 x 1p(x1) representa el centro de ma a (respecto a l origen). De modo se
mejante, si una masa unitaria est distribuida continuamente en una recta, y si f(x) represen-
ta la densidad de masa en x, entonces f '!: "'. xf(x) dx se puede interpretar nuevamente como
el centro de masa. En el sentido anterior, E(X) puede representar un centro de la distribu-
cin de probabilidad. Tambin, E(X) se llama algunas veces medida de tendencia central
y est en la mismas unidades que X .
7. 1 El valor perado de una nrlable alea1orl1 125

/{x)

~-' X= 1500 x = 3000 IGURA 7.1


JEMPLO 7.6. Vamos a definir la variable aleatoria X como gue. Supongamos
que X es el tiempo (en minuto ) durante el cual un dispositivo elctrico e utiliza
a u mxima carga cierto perodo de tiempo determinado. Supongamos que X es
una variable aleatoria continua con la siguiente fdp:
1
f(x) = (1500)2 x , ~ X ~ 15()(),

- 1
= ( )2 (X - 3000), J5()() ~ X ;5; 3000,
1500
= O, para cualquier otro valor.
A
+oo
E(X) =
J_
00
xf (x)dx

= (1500~ 1500) f soo x 2dx - f soo x(x - 3000)dx J


= 1500 minuto .
(Ver figura 7.1.)

J MPLO 7.7. El contenido de ceniza en el carbn (p rcentaje), digamo X ,


e puede considerar como una variable aleatoria continua con la iguiente fdp :
f( x) =-:nin x 2 , 10 ~ x ::::; 25. Por lo tanto E(X) = -cJn J!ij x 3 dx = 19 5 por ciento.
As el contenido esperado de ceniza en la muestra particular de carbn que e
considera e 19,5 por ciento.

Teorema 7.2. upongamos a X distribuida uniformemente en el intervalo


[a , b]. ntonces

E(X) =a; b.

Demo tracin : la dp de X est dada por / (x) = l / (b - a), a ~ x ~ b. Por tanto

b X x2,b
E(X) =
i - - dx
ab - a
= ---
l
b - a2
a+b
=--
2
126 Olras caraclcri,lica de h1 ~ariabl~ 11lealol'ia.' 7.2

( tese que e to representa el punto medio del nter alo [a. b]. como intuitiva
mente lo e peraramos.)
Observacn : valdra la pena recordar en este punto que una variable aleatoria X es una
funcin de un espacio muestra! S con relacin al recorrido Rx. 'orno repetidamente lo hemo
sea lado, para la mayora de la aplicacione esta no ha interesado slo en el recorrido
y en la probabilidades definidas en l. Esta nocin de valor esperado fue completamente
definida en funcin del recorrido [ver ecuaciones (7.1) y (7.2.)]. Ocasionalmente, in embar-
go, deberamos observar la naturaleza funcional de X . Por ejemplo, cmo cxprcsamo la
ecuacin (7. l.) en funcin de re ultados s ES, suponiendo que Ses finito? Puesto que x 1 = X(s)
para una se S y puesto que
p(x,) = P[s: X(s) = x 1],
podemos escribir

E(X) = L: x;p(x,) = L: X(s)P(s), (7.3)
j , s

en donde P(s) e la probabilidad del uceso {.~}e: S. Por ejemplo. si el experimento consiste
en cla ificar tres artculos como defectuosos (D) o no defoctuo o (N), un espacio mue tral
para este experimento era

Si X est definida como el nmero de defoctuo o , y si se supone que todos los resultado
anteriores on igualmente posibles, tenemos de acuerdo con la ecuacin (7.3.)

E(X) = L: X(s)P(s)
KS

= . m+ 1(1) + 1(!l + 1m + 2(il + 2m + 2(ll + 3(!)


=l
Se habra podido obtener e te resultado ms fcilmente al aplicar directamente la ecuacin
(7.1.) Sin embargo, es bueno recordar que para empicar la ecuacin (7.1) necesi tbamos co-
nocer los valores p(x 1}, lo que a su vez significaba la necesidad de un clculo tal como el uti-
lizado anteriormente. Lo importante es que una vez que se conoce la distribucin de pro-
babilidade obre Rx [en e te caso lo valores de p(x 1)], podemos uprimir la relacin fun-
cional entre Rx y S.

7.2 Esperanza de una funcin de una variable aleatoria

'orno lo expusimos previamente. i X e una variable aleatoria y si Y = H(X).


e una funcin de X, entonce Y e tambin una variable aleatoria con una distri-
bucin de probabilidade . Por lo tanto er interesante y significativo evaluar E( Y).
Hay do maneras de evaluar E(Y) que re ultan equivalentes. Demostrar que en
general son equivalente no e trivial y probaremos slo un caso e pecial. Sin
embargo, e importante que el lector comprenda lo do enfoques presentados
a continuacin .

Definicin. Sea X una variable aleatoria y sea Y= H(X).


7.2 ~ranza de una r-ln de un11 11rlable aleatorh1 127

(a ) i Y es una variable aleatoria discreta con valores po ibles y 1, y , ...


y i q(y;) = P( Y= y 1), definimo

QO

E(}") = L yq(y). (7.4)


i l

(b) Yes una variable aleatoria continua con fdp y, definimos

E( Y) =
r+, yg(y)dy.
J_ , (7.S)

Observacin : naturalmente esta delinicioncs son enteramente consistente con la dt>r


finicin previa dada para el valor esperado de una variable aleatoria. De hecho, lo anterior
representa simplemente una repeticin en funcin de Y. Una desventaja de aplicar la de-
finicin anterior a fin de obtener E(Y) e que la distribucin de probabilidade de Y (es decir,
la di tribucin de probabilidadc en el recorrido Ry) e necesaria. n los captulo anteriores,
expusimo mtodo mediante lo cuales podemos obtener o las probabilidades puntuales
q(y1) o g, la dp de Y. Sin embargo, el problema que aparece es si podemos obtener E(Y)
in encontrar primero la distribucin de probab'ilidades de Y, sloa partir del conocimien-
to de la distribucin de probabilidade de X . La re puesta es afirmativa como lo indica el
siguiente teorema.

Teorema 7.3. Sea X una variable aleatoria y ea Y = H(X).


(a) Si X es una variable aleatoria di creta y p(x1) = P(X = x}. tenemo

E(}') = E(H(XJ) = L: H(xj)p(x). (7.6)


j . 1

(b) i X e una variable aleatoria continua con fdp f, tenemo

+ QO
(7.7)
E(}') = E( H(X}) = f_ " H(x)flx)dx.

Observacin : este teorema hace mucho ms sencilla la evaluacin de E(Y), porque quiere
decir que no nece itamo en ontrar la di tribucin de probabilidade de Y a fin de evaluar
E(Y). Es uficiente el conocimiento de la distribucin de probabilidades de X.

Demostracin : [ lo demostraremo la ecuacin (7.6). La demo tracin de la


ecuacin (7.7) e algo m complicada]. onsideremos la urna !:.f= 1 H(xj)p(x) =
L . 1(I: 1 H(x;)p(x;)), en donde la urna interior e toma sobre todo lo ndice i
para lo cuate H(x;) = y1, para un y1 fijo . Por tanto todo lo trminos H(x r) on
con tante en la suma interior. Por tanto
128 Otras car1cter tic1 d la vulables aleatoria!>

2:
j= 1
H(x1)p{x;) = /=Ll YJL p(x,). j

Pero.
Lf p{x;) = Li P[xlH (x;) = yiJ = q(y1 .

Por tanto, 1:1 1 H(x;)p(x1) = 1:1= 1 y1q(y1). lo que e tablece la ecuacin (7.6).

Observacin : el mtodo de demostracin es equivalente esencialmente con el mtodo


de contar en el cual ponemos juntos todo lo artcu los que tienen el mismo va lor. A i. si
queremo encontrar la urna total de lo valore 1, 1, 2, 3, 5, 3, 2, l. 2, 2, 3. podemo sumarlos
directamente o indicar que puesto que hay 3 unos, 4 dose . 3 trese y 1 cinco. la urna total
e igual
3(1) + 4(2) + 3(3 + 1(5) = 25.

EJEMPLO 7.8. Sea V la velocidad del viento (kph) supongamo que V e t


distribuida uniformemente en el interva lo [O, JO]. La pre in, W{en lb/ pie 2 ) , bre
la uperficie del ala de un aeroplano e t dada por la relacin: W = 0.003 V~
Para encontrar el valor esperado de W, E( W), podemos proceder de do manera :
(a) Usando el teorema 7.3., tenemo

E( W) = Jof '0,003v f (v)dv


2

= I 0
0,003v
2
/
0dv
= 0,1 lb/ pie 2
(b) Usando la definicin de E( W), nece itamos encontra r primero la fdp de
W, g, y luego evaluar J ~.., wg(w)dw. Para encontrar g(w), ob ervemos que w = 0.003 v2
es una funcin montona de , para v;;::::: O. Podemo apli car el teorema 5.1 y
obtenemo

g(w} = /ol:w
o~ w ~ 0,3,

= O, para cualquier otro valor.


Por tanto

E(W) =Jof3 wg(w)dw = 0, 1


despus de un clculo sencillo. A , como lo indic el teorema la do evaluaciones
de E( W) producen el mismo resultado.
7.2 Esper1nu de una funcin de una variable 11le1tori1 12'>

MP o 7.9. n muchos problemas nos interesa lo la magniwd de una


variable aleatoria sin consideracin a su signo algebraico. decir. nos interesa
IXI. Sup ngamo que X e una variable a leatoria continua con la siguiente fdp:
e"
/(x) = - X :::;; .
2

=- i X > .
2

Sea Y = IXI. Para obtener E( Y) debemo proceder de una de la dos manera .


(a) Usando el teorema 7.3. tenemo.

00

E( Y) = J_ lxl/(x)dx

= t[f (- )e"dx + t (x)e - "dx J


= t[ l + l] = l.

(b) Para evaluar E( Y)u ando la definicin. necesitamos obtener la fdp de Y = IXI.
g. ea G la fda de Y. Lueg

G(y) = P( Y s; y) = P[lxl s; y] = P[ - y $; X $; y J= 2P(O 5 X 5 y).

puc to que la fdp de X e imtri a re pect al cero. P r lo tanto

G(y) = 2 f f(x)dx = 2 i' P-xdx = -e - y+ l.


fo o 2
A tenemo para g, la fdp de Y,g(y) = G'(y) = e- 1 , y ~ O. Por lo tanto E(}') =
Jgi yg(y)dy = Jlf ye - >'dy = 1, como antes.
JEMPLO 7.10. n mucho problemas podemo u ar el valor e perado de
una variable aleatoria a fin de hacer ciertas deci iones de una manera ptima.
Supngase que un fabricante produce cierto tipo de aceite lubricante que pierde
alguno de u atributo e peciale i no se u a dentro de cierto periodo de tiempo.
Sea X el nmero de unidades de aceite pedida al fabricante durante cada ao.
(Una unidad e igual a 1000 galone .) Supongamo que X es una variable aleatoria
continua, di tribuida uniformemente en [2. 4]. Por lo tanto la fdp f tiene la forma.

/(x) = t 2 5 X 5 4,

=O, para cual.q uier otro va lor.


IJO Otras car11cter ticas de las v11rl11bles ale11IOria.s 7.2

Supongamos que por cada una de las unidade vendida e obtiene una utilidad
de $300, mientras que cada una de las unidade no vendida (durante un ao
determinado) produce una prdida de $100, ya que una unidad no utilizada tendr
que er de cartada. Suponiendo que el fabricante debe decidir pocos me es antes
del comienzo de cada ao cunto producir, y que decide fabricar Y unidades.
(Y no es una variable aleatoria, est especificada por el fabricante.) Sea Z la utilidad
por ao (en pesos). Aqu Z es evidentemente una variable aleatoria puesto que es
una funcin de la variable aleatoria X. specficamente, Z = H(X) en donde

H(X) = 300 Y X ~ 1--:


= 300X +( - lOO)(Y - X), si X < Y

(La ltima expresin puede escribir e como 400X - 100}').


A fin de obtent.>r E(Z) aplicaremos el teorema z
7.3 y escribimos

E(Z) = J+" H(x)f(x)dx


1
= lf
2 2
4 H(x}dx.
1
2 y 4
1 1

FIG RA 7.2

Para evaluar esta integral debemos considerar tre ca os : Y < 2, 2 :::; Y :s; 4.
y Y > 4. on ayuda de la figura 7.2 y despu de algunas impliicaciones btenem .

E(Z) = 300 Y si Y :::; 2


= - 100 Y 2 + 700 y - 400 si 2 < Y<4
= 1200 - 100 Y si y~ 4.

La pregunta iguiente e de inter . Cmo elegira el fabricante el valor de Y


a fin de maximizar la utilidad esperada? Podemos responder fcilmente esta
pregunta al poner simplemente dE(Z)/dY = O. sto produce Y = 3,5. (Ver figura 7.3.)

E(Z)

FIGURA 7.3
7. 11rl11ble 1le11tori11 bidlmen,lunalc' IJ 1

7.3 Variable aleatorias bidimensionales

Los conceptos di cutido anteriormente para el ca o unidimen ional tambin


e mantienen para el ca o de variable aleatorias de mayor dimensin. n particular
para el caso bidimen ional. hacemos la siguiente definicin.

Defmicin. Sea (X, Y) una variable aleatoria bidimen ional y sea Z = H(X, Y)
una funcin real de (X. Y). Por lo tanto Z e una variable aleatoria (unidi-
men ional) y definimos E(Z) como igue:
(a) Si Z es una variable aleatoria discreta con valore po ible z 1 z 2
y con
p(z1) = P(Z = z;),
entonce

E(Z) = L:" :;p(z;). (7 .8)


~ 1

(b) i Z e una variable aleatoria continua con fdp f. tenemo


+x
E(Z)
J
= _
7

Como en el ca o unidimensional. e puede demo trar el teorema siguiente


zf (z)dz. (7.9)

(anlogo al teorema 7.3.)

eorema 7.4. Sea (X . Y) una variable aleatoria bidimen ional y sea Z =


H(X. Y).
(a) Si (X . }') e una variable aleatoria di creta y

p(X. y) = P(X = X; , y= .l'j) . i.j = l. 2 ... '


tenemos
~

E(Z) = iL I
L
j: l
H(x,. Y1)p(x;. Yi). (7.1 O)

(b) Si (X.Y) e una variable aleatoria continua con fdp conjuntaf, tenemo

E(Z) = f_+oC> f _+roe> H(x, y)f(x. y)dxdy . (7.J 1)

Ob ervacin : no demostraremos el teorema 7.4. Otra vei.. tal como en el ca o unidimen-


sional. este e un re ' ultado muy til puesto que indica que 110 nece itamo encon1rar la di -
tribucin de probabilidades de la variable aleatoria Z a fin de evaluar u esperanza. Pode-
mo encontrar directamente E(Z) a partir del conocimiento de la distribucin conjunla
de (X, }').
1.U Otra' c11raclcrb1ic11!> dt h1!> v11riables alealoriu~ 7...

EJEMPLO 7.11. Reconsideremo el ejemplo 6.14 y encontrcm ElE) en donde


E = JR . Encontramo que I y R son variable aleatoria independiente. con la~
iguientes fdp g y h re pecti amente:
y(i) = 2i, o $ i ~ 1; /1lr) = r 2/9. O ;S; r ~ 3.
Tambin en ontramo que la fdp de E e p(e) = e(3 - e). O 5 e 5 3. Pue to que
I y R on variables aleatorias independientes, la fdp conjunta de (J. R} e encilla-
mente el producto de las fdp de J y R: f(i, r = ~ir 2 , O 5 i s; t. O :s; ,. 5 3. Para
e aluar E(E) u ando el teorema 7.4 tenemos

U ando directamente la definicin (7.9). tenem o

E(E} = L 3
ep(e)de = r e~e(3 - e) de

= ~f: (3e
2
-
3
e )cle = i.

7.4 Propiedade del valor esperado


Haremos una li ta de propiedade del valor esperado de una variable a leatoria
que er muy til en el trabajo futuro. n cada ca o supondremos que existen t d s
los valore e perado a lo cuale no referimo . Daremos la demo tra ione
lo para el ca o continuo. 1 lector debe er capaz de dar el argum nto para el
ca o di creto u tituyendo encillamente la integrales por umatoria .
F(x)
Propiedad 7.1. Si X = en donde e
una constante. entonces E(X) = C.

Demostracin F(x) 1

f+
J
+oo
E( X) = _ Cj(x)dx =C _ f (x)dx =
r C.
00

FIGURA 7.4

Observacin: el significado de X igual es el siguiente. Pue to que X es una funcin del


e pacio mue tral a Rx. el ignificado de lo anterior es que R .~ con ta de un solo \'alor C.
Por tanto X e igual a C si y slo i P[X(s) = = 1 ta nocin se explica mejor en funcin
de la fda de X . Llamada, f(x) = O, i X < C; F(x) e igua l a l. si X ~ (figura 7.4). al va- e
riable aleatoria se llama degenerada algunas veces.
7.4 Propiedade del valor ,,.pend<1 133

Propiedad 7.2. Supongamo. que C e una con tante y X es una variable


aleatoria. Entonces E(CX) = CE X).

Demostracin: E(CX) = f: xf(x)dx = J_+ ,- xj{x)dx = CE(X).

Propiedad 7.3. Sea (X, Y) una variable aleatoria bidimen ional con una
distribucin de probabilidade conjunta. Sean Z = H 1(X, Y) y W =
H1(X Y). ntonce E(Z + W) = E(Z) + E(W).

Demostracin

E(Z + W) = f_ llO [H1( ,y)+ H2(x,y)]f(x,y)dxdy

[en donde/ e la fdp conjunta de (X. Y)]


f/ 1(x,y)f(x,y)dxdy + f + J+ H i(x, y)f(x, y)dxdy
- oo -
= E(Z) + E(W).

Propiedad 7.4. Sean X y Y dos variable aleatorias cualquiera. Entonces


E(X }') = E(X) + E( Y).
Demostracin: esta e deduce de inmediato de la propiedad 7.3 al hacer H 1(X, Y)
=X. y Hi(X , Y)= Y.
Obs1trvacio11es: (a) ombinando las propiedades 7.1, 7.2 y 7.4 observamos el siguiente
hecho importante: si Y = a X + b, en donde a y b son constantes. entonce E{ Y) = a E( X) + b.
n palabras : la esperanza de una funcin lineal es esa misma funcin lineal de las esperan-
zas. sto no es cierto a menos que e t implicada una funcin lineal y es un error comn
creer de otro modo. Por ejemplo, E(X 2) o/- (E(X))2, E(lnX) o/- lnE(X), ele. As si X toma los
=
valores - 1 y + 1, cada uno con probabilidad t, entonces E(X) O. Sin embargo,

(b) En general. es dificil obtener expresiones para E( 1/ X) o E{X ' ' 2), por ejemplo, en funcin
de 1/ E(X) o (E(X)) 1' 2 Sin embargo. estn disponibles algunas desigualdade.<;. que .son muy
fciles de deri ar. (Ver los artculos de Fleis~. Murthy y Pillai, y Gurland en los nmeros de
febrero y diciembre de 1966 y abril de 1967. respectivamente, de The Amercan Stacistician.)
Por ejemplo, tenemos:
(l) Si X torna solo valores po itvos y tiene una esperanza finita, entonces E( 1/ X) ~ 1/ E(X).
(2) Bajo la mi ma hiptesis que en (1). E(X 1 ' 2) ,::;; (E{X))li2_

Propiedad 7.5. Sean Xi, ... , X.nvariables aleatoria . Entonces

E(X, + ... + Xnl = E(Xi) + ... + E(Xn)


134 Olr~ caracterstica~ d las variables alealoria~ 7.4

Demostracin : esta se deduce inm diatamcntc de la propiedad 7.4 al aplicar


la induccin matemtica.

Ohserrc1ci11 : combinando esta propiedad con la anterior. obtenemos

E (L" ) .
i 1
<l;X ; =
; 1
llE(X ).

en donde las u; son con tanles.

Propiedad 7.6. ea (X.)') una variable aleatoria bidimensional y upongamo


que X y Y n independientes. Entonce E(XY) = E(X)E( Y).

Demos/ racin :

E(X Y) = f+: f_+ xyf(x. y)dxdy

f f_+~
1

= _+ xyy(x)h(y)dxdy

= f_+"' xy(x)dx J: yli(y)dy = E( )E(Y).

Obsen>aci11 : la hiptesi adiciona l de independencia es necesaria para e tableccr la pro


piedad 7.6. men1ra que no se necesit ninguna suposicin para obtener la propiedad 7.4.

EJEMPLO 7.12. ( te ejemplo se ba a en un problema de An ln1roduc1ion to


Probability 111eory and lis Applications de W. Feller pgina 225.)
upnga e que necesitamos examinar un gran nmero de per ona , buscando
cierta caracterstica. con resultados po itivo negativo. M an, supongamos
que e toman mue tra de varia per ona y e prueba la muestra combinada como
una unidad. tal como puede er el ca o en cierto tipo de exmenes de sangre.

Suposicin : la mue tra combinada dar un re ultado negativo si y lo i toda


la mue tras comp nente on negativa .
As, en el caso de resultados positivo (de la muestra combinada). todas la
muestra deben er individualmente probada de nuevo para determinar cules
on positivas. Si las per onas son divididas en n grupo de k per onas (supo-
niendo = kn) aparecen las siguientes deccione :
(a) xaminar a toda la N per onas individualmente. olicitando pruebas.
(b) Examinar grupos de k mue tras, lo cual puede nece itar tan poco como
n = /k o tanto como (k + l)n = + n prueba .
Nue tro objetivo ser e tudiar el nmero e perado de prueba necesarias
en (b) y luego compararla con N.
Suposicin : la probabilidad de que el re ultado de la prueba ea po it ivo e
7.4 Propiedades d 1 valor Hperado 1 S

igual a p y es la mi ma para todas las personas. An m los re. ultados de las


prueba para las per onas del mismo grupo que se examina on independiente .
ea X = nmero de pruebas nece aria para determinar la caracter tica que e
e tudia para toda las N per onas, y ea X; = nmero de prueba necesarias para
examinar persona en el i-simo grupo, = 1, ... , n.
Luego X= X 1 + + Xn, y por lo tanto E(X) = E(X } + + E(Xn), lo
cual e igual a nE(X 1 ), pue to que todo los X 1 tienen la misma esperanza. X 1
lo toma dos valores: 1 y k + l. Adems,

P(X 1 = 1) = P (toda las k per ona en el grupo 1 on negativa ).


= (l - pt
Por tanto
P(X 1 = k + 1) = 1 - (1 - p)k
y luego

E(X 1) = 1 (1 - Pt + (k + l)[J - (1 - Pt]


= k[l - (1 - p)k + k - 1].
As
E(X) = nE(X 1) = N[I - (1 - pt + k - 1
].

(La frmula anterior e vlida lo para k > 1, pue to que para k = l da


E(X) = N + pn, lo cual obviamente e fa! o.)
Un a unto de inters es la eleccin de k para el cual el anterior E(X) es m
pequeo. E to puede er fcilmente manejado por algn procedimiento numrico.
(Ver problema 7.1 fa.)
Finalmente, observemo que para que la prueba en grupo ea preferible a
la prueba individual. deberamo tener E(X) < N, e to es, 1 - (1 - pf + k - 1 < 1,
lo cua l e equivalente a k - 1 < ( 1 - vt Esto no puede ocurrir i ( 1 - p)< !. Porque
en ese ca o (1 - Pt < ! < l/k la ltima desigualdad proviene del hecho de
que 2k > k. A i obtenemos la iguiente conclu in importante: si p, la probabilidad
de una prueba po itiva en cualquier per ona determinada, es mayor que , entonces
no es aconsejable agrupar las mue tra antes de examinar. (Ver problema 7. 11 b.)

EJEMPLO 7.13. Apliquemos algunas de la propiedade anteriores para derivar


(nuevamente) la esperanza de una variable aleatoria distribuida binomialmente.
1 mtodo u ado puede aplicarse con ventaja en mucha ituacione semejantes.
Consideremos n repeticione independiente y sea X el nmero de veces que
ocurre un suce o A. Sea p igual a P(A) y supongamos que e te nmero e constante
para todas las repeticiones consideradas.
Defnamo la variable auxiliares Yi. ... , Y,, como igue:

Y; = s el suceso A ocurre en la i-sima repeticin,


= O, en cualquier otro caso.
136 Olras caraclerl dcas de la ~11ri1bles aleatoria 7.4

Por lo tanto

y aplicando la propiedad 7.5, obtenemos

E(X) = E(Y1) + .. + E(Y,,).


Sin embargo,

E(Y;) = l(p) + 0(1 - p) = p, para todo i.

A E(X) = np, lo que concuerda con el re ultado previo.

Obser11aci11 : reinterpretemo e te importante resultado. 'on ideremos la variable alea-


toria X /n. ta representa la frecuencia relativa del suce o A entre las n repeticione de e. Usan-
do la propiedad 7.2, tenemo E(X /n) = (11p)/ 11 = p. to, intuitivamente, es como debera
er, porque expresa que la rrecuencia relativa esperada del uce o A es p, donde p = P(A).
Representa la primera verificacin terica del hecho de que hay una relacin entre la fre-
cuencia relativa de un suceso y la probabilidad de ese suceso. En un captu lo posterior, ob
tendremo ms resultado que dan una relacin mucho m preci a entre la frecuencia re-
lativa y la probabilidad.

EJEMPLO 7.14. upnga e que la demanda D, por emana. de cierto producto


e una variable aleatoria con determinada distribucin de probabilidade ,
P(D = n) = p(n), 11 = O, 1, 2, ... Supnga e que el co to del fabricante e C 1
dlare por artculo, mientra que l vende el artculo por C 2 dlare . ualquier
artculo que no e venda al trmino de la semana debe almacenar e con un co to
de C 3 dlare por artculo. i el fabricante decide producir artculo al comienzo
de la emana, cul es su utilidad esperada por emana? Para qu valor de es
mxima la utilidad esperada? Si Tes la utilidad por emana, tenemo

T= 2 - C1 i D >

Ree cribiendo lo anterior obtenemo

si D >

Por tanto la utilidad esperada e obtiene como 1gue :

N
E(T) = N( 2 - C)P(D > ) + (C 2 + C3 ) L np(n)
rr = O
7.4 Propiedade del ralor "'IK'rado 1 7

1 - Ci) L: p(n) +( i + C3) L'. 11p(11)


rr ~ N + l " o
1'1
t + C3) L: p{11)
rr - O

= (C2 - 1) +( 2 + e 3) [ f. 11p(11l - L:N


n O
p(n) J
" o

N
( 2 - 1) + (C2 + C3) L: p(11)(11 - ).
n O

Supongamos que e abe que para D es apropiada la siguiente dis tribucin de


probabilidadc : P(D = n) = !. n = ], 2, 3. 4. 5. Por tanto

E(T) = N(C 2 - i) + (C 2 ; C3 ) [ (N + 1)/ 2 - 2] si ::;; 5,

= N(C 2- Cd + (C 2+ C3)k(l5 - 5) > 5.

Supongamo que C 2 = 9, 1 = 3, y .i = l. Por tanto

E(T) = 6N + 2[- (-
2
+ l) - 12]
i 1 ::;; 5.
= 6 + 2(15 - SI > 5.
2 ::;; 5,
= 7 si
= 30 - 4 > 5.

E(T)

FrG RA 7.5

Luego el mximo ocurre para 1 = 3.5. (Ver figura 7.5.) Para ' = 3 4, tenemos
E(T) = 12, el cual es el mximo obtenible pue to que N es un entero.
1 11 Olras car11ctersticas de las "ariabl aleatoria 75

7.5 a varianza de una variable aleatoria

Supongamos que para una ariable aleatoria X encontramos que E(X) e igua l
a 2. ,Cu l e la importancia de esto? s importante que no atribuyamo mits
significado a e ta informacin que la justificada. Significa, enci llamen te, que
i con ideram un gran nmero de alores de X, x., ... , Xn, y promediamo e os
va lore de X . e te promedio e aproximar{t a 2 i 11 es grande. Sin embargo. es
muy importante que no demos mucha importancia a un va lor esperado. Por
ejem plo supngase que X representa la duracin de una b mbilla que se recibe
de un fabricante, y que E(X) = 1000 hora . to podra significar una de va ria
po ibilidade . Podra ignifi ar que e e pera que la mayor pa rte de la bombillas
dure entre 900 y 1100 hora . Tambin podra ignificar que las bombilla q ue
e entregan estn formadas por dos tipo de bombilla muy diferentes: alrededor
de la mitad son de muy a lta calidad y con duracin de cerca de 1300 hora , mien-
tra que la otra mitad s n de muy ma la calidad y durarn ce rca de 700 horas.
Hay una nece dad ob ia de pre entar una medida cuantitati a que distinga
entre tale ituacione . Varias medidas se ugieren por s mi mas, pero la iguien-
te e la cantidad usada m comnmente.

Definicin. Sea X una variable aleatoria. efinimos la varianza de X. de-


notada por V(X) d . como igue:

V(X) = E[X - E(X)J2. (7. 12)

La raz cuadrada po itiva de V(X) e llama desviacin estndar de X y


e t denotada por ux.

Observaciones: (a) El 11mero 1 (X) est expresado en unidades cuadradas de X. sto es.
si X se mide en horas, entonces V(X) est cxpre ada en (hora )2 sta es una razn parn
considerar la desviacin estndar. Se expresa en las mismas unidades que X.
(b) tra medida po ible podra haber sido EIX - E(X)I. Por diferente razones, una de
las cuales es que X 2 es una funcin mejor comportada que IXI, se prefiere la varianza.
(c) i interpretamos a E(X) como el centro de una masa unitaria distribuida sobre una recta,
podemo interpretar V(X) como el momento de inercia de esta masa, respecto a un eje per-
pendicular a travs del centro de masa.
(d) V(X) como se defini en la ecuacin (7. 12) e un caso especial del concepto ms ge-
nera l siguiente. 1 k-~simn mnmenrn de la variable a leatoria X respecto a su e peranza se
define como t = E[X - E(X)]k. Evidentemente para k = 2, obtenemos la varianza.

El clculo de V(X) e implifica con la ayuda del resultado siguiente.

Teorema 7.5.
V(X) = E(X 2 ) - [E X) 2.

Demostracin: desarrollando E[X - E(X)] 2 y u ando la propiedades de la


e peranza establecida previamente. obtenemo
7.5 La varianu de una variuhle al~alorla IJ')

V(X) = E[X - E(X)] 2


= E{X 2 - 2XE(X) + [E(X) 2
}

= E(X 2
) - 2E(X)E(X) + [E(X)] 2 [Recurde e queE(X)esunaconstante.J
= E(X 2
) - [E(X)] 2
.

J MPL 7.15. La oficina meteorolgica cla ifica el tipo de cielo que es vi-
ib le en relacin con lo grados de nubo idad. Se usa una escala con 11 ca-
tegora : O. 1, 2.... , 10. en donde O repre enta un cielo perfectamente ciar . 10
representa un cielo compl tamenle cubierto, mientras que los otros val re re-
presentan diversas condicone intermedias. Supongamos que tal clasil'cacin
se hace en una estacin meteorolgica determinada en . un da y hora determina-
dos. ea X la variable aleatoria que toma uno de los 11 valores anteriores. Su-
pongamos que la distribucin de probabilidades de X es

Po= Pio = 0,05;


Pi = P2 = Ps = p9 = 0,15;
p3 = P4 = Ps = lh = P1 = 0,06.

Por tanto
E(X) = 1(O.15) + 2(0, 15) + 3(0,06) + 4(0,06) + 5(0,06)
+ 6(0,06) + 7(0.06) + 8(0, 15) + 9(0,15)
+ 10(0,05) = 5.0.
A fin de calcular V(X) nece itamo calcular E(X 2 ).

E(X 2 ) = 1(0, l 5) + 4(0,J 5) + 9(0.06) + l 6{0,06) + 25(0,06)


+ 36(0.06) + 49(0,06) + 64(0,15) + 81(O,15)
+ 100(0,05) = 35,6.
j{x)

~_._~~~~~~~.,.....--x

-1

FIGURA 7.6

Luego
V(X) = E X 2 ) - (E(X)) 2 = 35 6 - 25 = 10,6.

y la desviacin e tndar <T = 3,25.


140 Otu car11ct ri lltllll de las varl11bl 1leatorl11s 7.6

EJEMPLO 7.16. Supongamos que X es una variable aleatoria continua c n


fdp
f(x) = l + X, - 1 ::;; X $ O,
= l - X, O ::;; x$1.

(Ver figura 7.6.} Debido a la imetra de la fdp. E(X) = O. (Ver la ob er acin


abajo.} M an.

E(X 2 ) = J~ 1 X 2 (1 + x)dx
+ J x 2
(l - x)dx = i.
Por tanto V(X) = -t.
Observacin : upnga e que una variable aleatoria continua tiene una dp que e 1me-
trica respecto a x = O. s deci r, f( - x) = /(x) para tocio x. Luego, siempre que exista E(X).
E(X) = O, qu es una con ecuencia inmediata de la definicin de E(X). sto puede extenderse
a un punto arbitrario de simetra x = a, en tal ca o E(X) = a (Ver el problema 7.33).

7.6 Propiedades de la varianza de una variable aleatoria

Hay varia propiedade importantes, en parte an logas a la expue ta para


la e peranza de una variable aleatoria. que se mantienen para la varianza.

Propiedad 7. 7. Si C es una constante,

V(X + C) = V(X). (7.13)

Demostracin :

V(X + ) = E[(X + C) - E(X + )]2 = E[(X + C) - E(X) - CJ 2


= E[X - E(X)) 2
= V(X.

Observacin : e ta propiedad es intuitivamente evidente, porque al agregar una constan-


te a un re ultado X no cambia u variabilidad. que es lo que mide la varianza. Simpleme'!te
desplaza los valore de X a la derecha o a la izquierda, dependiendo del igno de C.

Propiedad 7.8. Si C e una constante.

V( X) = C 2 V(X). (7.14)
Demosrracn :
V(CX) = E(CX) 2 - (E(CX))2 =C 2
E(X 2 ) - C 2 (E(X)) 2
=C 2
[E(X 2
) - (E(X})2] =C 2
V(X).
1.b Propieilades d~ 111 nriann de una ~ariabl e 11le11torla 141

Propiedad 7.9. i (X. Y) e una variable aleatoria bidimen ional. y i X y


Y on independientes entonces

V(X + Y) = V(X) + V( Y). (7. 15)

Demostracin:

V(X + Y) = E(X + Y) 2 - (E(X + Y)) 2


= E(X 2 + 2X Y + Y 2 ) - (E(X)) 2 - 2E(X)E( Y) - (E(Y)) 2
= E(X 2
) - (E(X)}2 + E(Y 2
) - (E(Y)) 2 = V(X) + V( Y).

Observacin: es importante establecer que, en general, la varianza no es aditiva como


lo e el valor es~rado. 'on la hiptesi adiciona l de independencia, la propiedad 7.9 e v-
lida. La varianza no po ee la propiedad de linea lidad ue di~ para la esperanza, es decir,
V(aX + b) =F a V(X) + b. En su lugar tenemos V(aX + b) = a 2 V(X).

Propiedad 7.10. Sean X., . . . , X n n variables aleatoria independientes. En-


tonces
V(Xt + ... + Xn) = V(Xi) + ... + V(Xn) (7.16)

Demostracin : sta e deduce de la propiedad 7.9 con induccin matemtica.

Prnpiedad 7.11. Sea X una variable aleatoria con varianza finita . Luego
para cualquier nmero real ix,

V(X) = E [(X - ix)2] - [E(X) - ~] 2 . (7.17)

Demostracin : ver el problema 7.36.

Observaciones: (a) Esta e una extensin obvia del teorema 7.5, porque al hacer a = O
obtenemos el teorema 7.5
(b) i interpretamo V(X) como el momento de inercia y E( ) como el centro de una
ma a unitaria, entonces la propiedad anterior e una formu lacin del teorema muy conoci-
do en mecnica de los ejes paralelos: el momento de inercia respecto a un punto arbitrario
es igual al momento de inercia re pecto al centro de masa ms el cuadrado de la distancia
de .este punto arbitrario al centro de masa.
(c) E[X - a 1 es minimizado si a = E(X). sto e deduce de inmediato de la propiedad
anterior. As el momento de inercia (de una masa unitaria distribuida en una recta) respec-
to a un eje que pasa por un punto arbitrario e mi n imiza si este punto se escoge como el
centro de masa.

EJEMPLO 7.17. 'alculemos la varianza de una variable aleatoria distribuida


binomialmente con parmetro p.
Para calcular V(X) podemo proceder de dos manera . Puesto que ya cono-
cemos que E(X) = np, sencillamente dcbemo calcu lar E(X 2 ) y luego calcular
V(X) como E(X 2 ) - (E(X))2. Para ca lcu lar E(X 2 ) usamos el hecho de que
142 Ocras cau t rbcicas de 'las vuiablcs aleaCorias 7.(1

P(X = k) = (~)pk(J - p)" - ", k = O. l, ... , n. Por tanto E(X 2 ) = !:Z 0 ki(i:)p"(t -
pt - k. sta urna puede ca lcular e fci lmente, pero en vez de hacer e to. emplea-
remo un mtodo ms imple.
uevamen te usaremos la repre entacin de X pre entada en el ejempl 7. 13,
X = Y 1 + Y 2 + + Y . Observemo que la Y ; son variables aleator ias in-
dependient es puesto que el valor de Y; depende olo del resultado de la i-sima
repeticin, y e upone que las repeticione uce ivas on independiente . Por
tanto podemo aplicar la propiedad 7. 10 y obtener

V(X) = V(Y 1 + + Y.) = V(Y 1) + + V(Y,,).

Pe ro V(Y;) = E(Y;)2 - [ (Y;)] 2 . Ahora

E( Y;) = l(p) + 0(1 - p) = p, E(Y;) 2 = l 2(p) + o:(I - p) = p.

Por tanto

V( Y1) = p - p 2 = p(I - p) para todo i. As V(X) = np( 1 - p).

Observaci11 : con ideremo V(X) = 11p( 1 - p) como una funcin de p para un n dado.
Dibujemos un grlico como se muestra en la igura 7.7.
Resolviendo (d/ dp)np(I - p) = O encontramos que el valor mximo pa ra V(X) ocurre
cuando p = t. El va lor mnimo de V(X) ocurre evidentemente en lo extremo del interva lo
en p = O y p = 1. sto es intuitivamente como debera er. Recordando que la varianza e:;
una medida de la variacin de la variable aleatoria X definida como el nmero de veces que
ocurre el suceso A en 11 repelicione , encontramos que esta variacin es nula si p = O 1 (es
decir, si A ocurre con probabilidad O l) y es mxima cuando es t n ((sin certeza como po-
demos estar acerca di! la ocurrencia o no ocurrencia de A, es decir. cuando P(A) = t.

V(X)

--~~~-1-~~~--->.~---p

p=4
F IGURA 7.7

EJ MPLO 7.18. Supnga e que la variable aleatoria X est d istribuida uni-


formemente en [a, b]. Como lo calculamos previamente, E(X) = (a + b)/ 2.
Para calcu lar V(X) hallemo el valor de E(X 2 ) :

2 f.b 2 l b
3- a3

E(X ) = a X b - a dx = 3(b - a) .
7.7 E pr ione 1pro imad puu la e\peran1a ) 111 rarlan111 14]

P r tanto 2
V(X) = E(X 2) - [E(X)] 2 = (b - a)
12
despus de un clculo sencillo.
Observaciones: (a) E te re-;ultado es intuitivamente significativo. Indica que la varianza
de X no depende individualmente de a y b sino lo de (b - a)2, e decir, del cuadrado de su
diferencia. Por tanto dos ariable aleatorias distribuidas cada una uniformemente en un
intervalo (no necesariamente el mismo) tendrn iguales varianzas mientras las io1gi111des
de los intervalos sean iguales.
(b) E bien abido el hecho de que los momentos de inercia de una barra delgada de
masa M y longitud L respecto a un eje tran versal que pa a por el centro estn dados por
ML 2 / 12.

7.7 . Expresiones aproximadas para la espera.nza y la aria.nza


Ya hemo ob crvado que para evaluar E(Y) o V(Y), en donde Y= H(X).
no nece itamos conocer la di tribucin de probabilidade de Y, sino que pode-
mo trabajar directamente con la di tribucin de probabilidade de X . De un
modo emejante, i Z = H(X , Y), podemos calcular E(Z) y V(Z) sin obtener
primero la di tribucin de z.
i la funcin H es muy complicada, la evaluacin de la esperanza y varianza
anteriore puede conducir a integracione (o urnas) que on muy dificiles. De
aqu que ean muy tiles las aproximacione iguiente .

Teorema 7.6. Sea una variable aleatoria X con E(X) = , y V( ) = 0' 2 .


Supongamos que Y = H(X). Luego

E( Y) ~ H(tt) + H__
"( ) 2
a , (7.18)
2
V(Y) - [H'(11)] 2 0' 2 . (7.19)

(A fin de hacer tiles las aproximaciones anteriore necesitamo eviden-


temente que H ea a lo meno diferenciable dos vece para x = l).

Demostracin: ( lo un bo quejo): a fin de e tablecer la ecuacin (7.18), desarro-


llemo la funcin H en una serie de Taylor para x = con dos trminos. As

)2 H"( )
Y = H(1) +(X - )H'() + (X - + R .,
2
en donde R 1 e un resto. Si de cartamos el trmino resto Ri, entonce , toman-
do el valor e perado en ambo miembro , tenemo

E( Y) ~ H() + H"() a 2 ,
2
144 Otru~ 11r11c11~ ri~11ca., de 111' nrlbl , al atoria 7.7

puesto que E(X - 11) = O. A fin de establecer la ecuacin (7, 19), desarrollemos
JI en una erie de Taylor para x = con un trmino. Luego Y = H(1) + (X -
)H'() + R 2 i de cartamos el re to R 2 y tomamo la varianza en ambos lados,
tenemo

JEMPLO 7.19. Bajo ciertas condicione la ten in uperficia l de un lquido


(dina/ cm) est dada por la frmula S = 2(1 - 0,005T)1. 2 donde Te la tempe-
ratura del lquido (grado centgrados).
opongamos que T e una ariable aleatoria continua c n la iguiente fdp,

/(l) = 30001 - 4 , l ;:::: 10,


= O, para cualquier otro valor.
Luego
E(T) = J. 0
30001 - 3 dt = 15 (grado centgrados).
y
V(T) = E(T 2 ) - (15) 2
= J. 0 30001 - 2 dt - 225 = 75 (grados centgrados)2 .

Para calcula r E( ) y V(S) tenemos que calcular la integrale siguientes

J. 0
(1 - 0,0051) 1 2 t - 4 dt
y
f." (1 - 0.0051) 2 4 1 4
dt.

n vez de evaluar esa e presiones, obtendremo aproximacione para E(S) y


V{S) al usar las ecuaciones (7.18) y (7.19). A fin de u ar esas frmula tenemo
que calcular H'(IS) y H"(l5), en donde H(l) = 2(1 - 0,005t) 1 2 Tenemo

H'(r) = 2.4(1 - 0,0051)2 ( - 0,005) = - 0,012(1 - 0.005t)2 .

Luego
H( 15) = 1,82, H '( 15) = 0,01.
De un modo semejante,

0 8
H " (t) = - 0.0024(1 - 0.005t) - (- 0,005) = 0,000012(1 - 0,005t)- 0 8 .

Por lo tanto

H " (l 5) = 0,000012 = O+
(0.925)8
?.7 Expre~ione apro Imada!> para la c~pernnru y la ~aria nra 145

tcncmo

E(S) :::::: H( 15) + t 75H" ( 15) = 1,82 (dinas/ cm).


V( ) ~ 75[/-1'(15)]2 = 0.87 (dinas/ cm) 2 .

Si Z e una funcin de dos variables. Z = H(X. Y). e e tablccc un re ultado


an logo.

Teorema 7.7. Sea (X, Y) una variable aleatoria bidimensi nal. upongamo
que E(X) = X. E( Y) = 1>,; V(X) = 2 y V( Y) = u
ea Z = JJ(X. Y). a;.
[Supondremo que exi ten la diver a. derivada de H para 11;... y).]
Luego si X y Y on independiente . tenemos

+ [H]
2 2
2 2
oy r
en donde t da las derivada parciales se evalan en (1,., iy).

Demostracin : la demostracin implica el desarrollo de H en una . erie de


Taylor en el punto (,. J.iy) con uno y do trmino , de cariando el re lo, y luego
tomando la e peranza y la varianza en ambos miembros como se hizo en la de-
mo tracin del teorema 7.6. Dejaremo lo detalle al lector. (Si X y Y no on
independientes, se puede derivar una frmula ligeramente m complicada.)

Observacin : el re ultado anterior puede extenderse a una funcin de 11 variables alea-


torias independiente , Z = H(X 1, , X.). Si E(X, = , V(X ;) = <Tf, tenemos la siguien-
tes aproximaciones, suponiendo que todas la derivada existan.

l (12H l

2r
L -;;--2 CT
l vX

V(Z) ::=:: (H)u,.~


1
~
(IX

en donde las derivada parciale on evaluadas en el punto (1 1... .).

EJEMPLO 7.20. Supngase que tenemos un circuito imple para el cual el


voltaje. M, e expre a por la ley de Ohm como M = IR. en donde I y R son la
corriente y la resistencia del circuito re pectivamcnte. Si J y R on variable alea-
toria independiente , entonces M e una variable aleatoria y. usando el te rema
7.7, podemo escribir

E[M] ~ E(l)E(R),
146 Olrll\ cu11tlcrstk11'> de 111'> variables ale111orias 7.1!

7.8 Desigualdad de hebyshev

Hay una de igualdad muy conocida del matemtico ru o Chebyshcv que de-
sempea un papel importante en lo que resta de nue tra obra. Adem , no dar
un medio para comprender cabalmente como la arianza mide la variabilidad
respecto al valor esperado de una variable aleatoria .
Si conocemo la di tribucin de probabilidades de una ariable a leatoria X
(la fdp en el caso continuo o la probabilidad puntual en el caso discreto), podc-
mo calcu lar E(X) y V(X). si existen. Sin em argo. lo recproco no es verdadero.
sto e . conociendo E(X) y V(X) no p dcmo recon truir la distribucin de pro-
babilidade de X y por tanto no podemo calcular cantidades tales como P[IX
- E(X) j :;:; CJ. Sin embargo, resulta que aunque no podemo evaluar tale pro-
babilidades [a partir de un conocimiento de E(X) y V(X)] , podemo dar una cota
_ upe rior (o inferior)....!!1UY tile para tale probabilidades. te re ultado e t
contenido en lo que e conoce como la de iguladad de Cheby hev.

Desigualdad de Chebyshev. ea X una variable aleatoria con E(X) = y ea


e un nmero real cua lquiera. ntonce . i E(X - c) 2 e finita y E e cualquier
nmero po itivo. tenemo

1
P[IX - el ~ E] :;;; 2 E(X - c)2. (7.20)
E

La formas iguiente . equivalen te. a (7.20). son inmediata


(a) Al c n idcrar el uccso complc:mentario obten mo

1
P[IX - el < EJ ~ 1 - , E(X - c) 2.
E" .
(7.20a)

(b) Al elegir e = 11 obtenemo


Var X
P(I X - JI ~ E J :;:; - ,E"- (7.20b)

(c) Eligiendo e = 11 E = ka. en donde a 2 = Var > O. obtenemos

(7.21)

sta ltima forma (7.21) indica es pecialmente cmo Ja varianza mide e l grado
de concentracin de la probabilidad prxima a E{X) = .
Demostracin (Oemostraremo lo 7.20 puesto que la otra e deducen como
e indic. Tratarem s lo el ca o continuo. En e l caso discreto, el arg umento
e muy parecido a l de las integral..::, subst ituida por urna . Sin embarg . ha}
que tener cuidado con lo punto~ ex tremos de los intervalo ):

on ideremo
P[IX - el ~E] = Jx:lx-I ;:., f(x)dx .
7.8 Desigu1ldad d heb sh v 147

(Los lmites de la integral dicen que estamos integrando entre - y e- Ey


entre e + E y + oo .)
Ahora lx - el ; : :. E es equivalente a (x - c) 2/ E 2 ~ J. Puesto que la integral
anterior es

.$ f,
R
(x -2 c)2 f(x) dx,
E
en donde
R = {x: lx - el ~ E}.

E ta integral, a u vez, e

f:: ~~ c)
2
.$ f(x)dx
lo que es igual
12 E[X - c]2,
E

como se peda demo trar.

Observaciones : (a) s importante darse cuenta de que el resultado anterior es notable


precisamente debido a lo poc-0 que se presupone acerca de la conducta probabilstica de la
variable aleatoria X .
(b) orno podramos suponer, una informacin adicional re pecto a la distribucin de
la variable aleatoria X nos permitir mejorar la desigualdad que deducimos. Por ejemplo,
si e = t tenemos, d la desigualdad de hebyshev,

P[IX - I ;;da] ~ t= 0,44.

Supongamos que tambin sabemos que X est1 distribuida uniformemente en (1 - l/ f t


1 + 1/-./3). Por lo tanto E(X) = 1, V(X) = ~ y as

P[IX - I ::do] = P[IX - 11 ;;.d] =


1 - P[IX - ti < tJ
3
= l - P(t < X < ~) = 1 - 2 = O, 134.

Ntese que aunque la relacin obtenida de la desigualdad de Cheby hev es consecuen te


con este resultado, la ltima es una relacin ms precisa. Sin embargo, en muchos problema
ninguna supo cin reerente a la distribucin especfica de la variable aleatoria est justi-
ficada, y en tales ca o la de igualdad de hebyshev puede darno una informacin impor-
tante acerca del comportamiento de la variable aleatoria.

Como lo observamos en la ecuacin (7.21), i V(X) es pequea, la mayor parle


de la distribucin de probabilidades de X e t~<concentrada prxima E(X). a
sto e puede expresar m detalladamente en el teorema iguiente.

Teorema 7.8. Supongamos que V(X) =O. Luego P[X = ) = 1, en donde


= E(X). (Informalmente, X = . con probabilidad l.)
148 Otras caractersticas de las variables aleatorias 7.>

Demostracin : de la ecuacin (7.20b) encon tramo que

P[IX - I ~ E] = O para cualquier E > O.


Luego
P[IX - I < E] = 1 para cua lquier E > O.
Pue to que puede elegir e E arbitrariamente pequeo, el teorema queda demo -
trado.
Observaciones: (a) ste teorema demuest ra q ue la varianza cero no implica que toda la
probabi lidad est concentrada en un olo punto, a aber E(X).
(b) Si E(X) = O, luego V(X) = E(X 2), y por tanto en este caso, E(X 2) = O implica la
misma conclusin.
(e) En el entido anterior decimo que una variable aleatoria X es degen erada : toma slo
un valor con probabilidad J.

7.9 El coeficiente de correlacin


Hasta ahora no hemos interesado en los parmetr s asociados con la di -
tribucin de variables a leatorias un idimensionales tale como E(X) y V(X). Estos
parmetros miden, en el sentido ya descrito previamente, cierta caracter tca
de la d tribucin. Si tenemo una variable aleatoria bidimensional (X , Y), se en-
cuentra un problema anlogo. Naturalmente, podemos pre entar nuevamente las
variables aleatorias unidimensionale X y Y a ociadas con (X, Y). Sin embargo,
urge la pregunta de hay un parmetro significativo que mida de alguna manera
el grado de asociacin entre X y Y. Esta es una nocin m s vaga que er pre-
ci ada en breve. Demos la siguiente definicin formal.

Definicin. Sea (X, Y) una variable aleatoria bdimen ional. Definimo Pxy
el i2efici ente de correlacin , entre X y Y , como sigue:

E X - E(X) [Y - E(Y)] }.
Px,= ~-- (7.22)
V(X)V(Y)

Observacio11es : (a) Suponemo que todas la esperanza existen y que amba V(X) y V( Y)
son distintas de cero. uando no hay duda de cua les variables a leatorias estn implicadas
escribiremos simplemente p en vez de Pxr
(b) El numerador de p, E{[ X - E(X)](Y - E(Y)]} , e llama la covaria11za de X y Y, y
se denota algunas veces como <1xy
(e) 1 cocfeicnte de correlacin es una cantidad adimen ional.
(d) Antes de q ue la definicin anterior pueda ser signilicativa, debemos establecer exac-
tamen te lo que mide p. Esto lo haremos al considerar un nmero de propiedades de p.

Teorema 7.9.

E(XY) - E(X)E(Y)
p = j V(X)V( Y) .
7.1) El co ficicnlc de orre lacln 14\1

Demos1racin : consideremos

E{ [X - E(X)][Y - E(Y)] } = E[XY - XE(Y) - YE(X) + E(X)E(Y)


= E(XY) - E(X)E(Y) - E(Y)E(X) + E(X)E(Y)
= E(X Y) - E(X)E( Y).

Teorema 7.10. Si X y Y son independientes. entonces p = O.


Demostracin: se deduce inmediatamente del teorema 7.9. pue to que

E(XY) = E(X)E(Y)
y Y son independiente .
Observacin : el recproco del teorema 7.10 no es verdadero en general. (Ver el proble-
ma 7.39.) Esto es. podemos tener p = O. y an a i X y Y no necesitan ser independientes.
Si p = O decimo que X y Y son ;;;; correlacionados. As, sit:ndo no correlacionados e in-
dependiente no son. en general. equivalente . El ejemplo siguiente ilu tra e te punto.*
ean X y Y variables aleatoria cualesquiera que tienen la misma distribucin. ea U =
X - Yy V = X + Y . LuegoE(U) = Oycov(U, V) = E((X - Y)(X + Y)] = E(X 2 - Y2) = O.
Luego U y V 011 no correlacionados. An i X y Y son independientes. U y V pue"den ser
dependientes como lo indica la eleccin iguiente de X y Y. Sean X y Y lo nmeros que
aparecen re pectivamente en el primero y segundo dados, cuando e han lanzado un par de
dados regulares. Ahora, por ejemplo, hallamo que P V = 4 I U = 3) = O (puesto que i
X - Y = 3, X + Y no puede ser igual a 4). mientras que P( V = 4) = 3/36. A i U y V son
dependiente .

Teorema 7.11. - l :S: p ~ 1. (E to es, p toma lo valore entre - 1 y +1


inclu ive.)
q(t) q(t)

V
(a) (b)
IOURA 7.8

Demostracin : con ideremo la iguiente funcin de la va riable real t:

q(c) = E[V + tW]2,

El ejemplo en este prrafo est tomado de una exposicin de un articulo titulado 1.u-
tually Exclu ive Events, lndep ndence and Zero Correlat ion. por J. D. Gibbon . que apa-
reci en Tl1e American Stati tician. 22. nm. 5, diciembre 1968. pgs. 31-32.
150 Otras caracler1 lica d las ariables aleatorias 1.1}

en donde V = X - E(X) y W = Y - E( Y). Puesto que [V + tW] 2 ~ O. tenemos


que q(t) ::::: O para todo l. Desarrollando obtenemos

As q(r) e una expresin cuadrtica en t. En general, i una expr n cuadr-


tica q(r) = at 2 + bt + e tiene la propedad de que q(l) ;::::; O para todo t. ignifica
que u grfico corta el eje t en lo un punto o en ninguno, como se indic en
la figura 7.8. E to. a u vez. ndica que el discrminante b2 - 4ac debe ser :::;; O.
puesto que b2 - 4ac > O significara que q(!) tiene do race reale di tinta .
Aplicando esta conclusin a la funcin q(t) que con ideramo anteriormente.
obtenemos
4[E(VW)] 2 - 4E(V 2)E(W 2 ) s; O.

Esto implica que

[E(VW)J2' < 1 y por tanto


E(V 2 )E(W 2) -
{E[X - E(X}][Y - E(Y)]} 2 = 2 <
1
V(X)V( Y) p - .
As - 1 ~ p :::;; l.

Teorema 7.12. Supongamo que p 2 = l. Luego (con probabilidad l en el


sentido del teorema 7.8). Y = AX + B, en donde A y B on con tante .
n palabra : el e eficiente de c rrelacn p e 1. entonces Y e una
funcn lineal de X (con probabldad 1).

Demostracin : consideremo nuevamente la funcn q(1) descrita en la demos-


tracin del teorema 7.11. Es sencillo observar en la demo tracin de e e teorema
que si q(I} > O para lodo l . entonces p2 < l. Luego la hiptesis del presente teo-
rema, a aber p 2 =
1, implica que debe existir al menos un valor de 1, sea 10 tal
que q(t 0 ) = E(V + t 0 W) 2 = O. Puesto que V + t 0 W = [X - E(X)] + 10 [Y -
E( Y)] , tenemos que E( V + 10 W) = O y por tanto la arianza (V + t 0 W) = E( V +
r0 W) 2 . A encontramo que la hipte is del teorema 7.12 conduce a la e nclu-
sin de que la varianza de (V+ c0 W) = O. Por tanto , del teorema 7.8 podemo
concluir que la variable aleatoria (V + r0 W) =O (con probabilidad l) . Por tanto
[X - E(X) + t 0 [Y - E(Y)] =O. Rcescribendo encontramo que Y = AX + B
(con probabildad 1), como se iba a demostrar.

Observaciones : el recproco del teorema 7.12 tambin se mantiene como e demostr en


el teorema 7.13.

Teorema 7.13. Supongamos que X y Y son dos ariables aleatorias para


las cuales Y = AX + B. en donde A y B son constantes. Entonces p 2 = 1.
Si A > O, p = + 1; si A < O, p = - l.
7.1) El cocnciente d con lacin 1S1

Dn11ostracin : puesto que Y = AX+ B. tenemos que E(Y) = AE(X) + By


V(Y) = A 2 V(X).
ambin
E(X Y)= E X(AX + 8)] = AE(X 2 ) + BE(X).
Luego
2 _ E(X Y) - E(X)E(Y)] 2
p - V(X)V(Y)

_ {AE(X 2 ) + BE(X) - E(X) AE(X) +B }2


- V(X)A 2 V(X)
[AE(X 2 ) + BE(X) - A(E(X)}2 - BE(X)] 2
A 2(V(X)) 2
_ A2 {E(X 2 ) - [E(X)]2 f 2 _
- A 2( V(X)) 2 - l.

(La segund a a fi rmacin del teorema se deduce al observar que A 2 = IAI.)


Observacin: lo teoremas 7.12 y 7. 13 establecen las siguiente caracter ti ca impor-
tantes del coeficiente de correlacin: el coeficiente de correlacin es una medida del
grado de linealidad entre X y Y. Los valores de p prximos a + 1 - 1 indican un alto
grado de linealidad mientras que los valores de p prximo a O indican una au encia de tal
lineaJidad. Los valore positvos de p muestran que Y tiende a aumentar con valores
crecientes de X, mientra que los valores negativos de p muestran que Y tiende a
disminuir con valores crecientes de X. Existe una idea considerablemente errnea acerca
de la interpretacin del coeficiente de correlaci n. Un valor de p prximo a cero lo
indica la ausencia de una relacin lineal entre X y Y. No impide la posibilidad de alguna
relacin 110 lineal.
JBMPLO 7.21. Sup ngamos que la variable aleatoria bidimensiona l (X. Y)
est distribuida uniformemente en la regin triangular

R = {(x, y) 1 O< x <y< 1}. y

(Ver la figura 7.9.) Luego la fdp e t dada como


f(x. y) = 2, (x. y) e R.
= O, para cualquier otr valor.
R
Luego las fdp marginales de X y Y son

y(x) = J! (2) dy = 2(1 - x). O ::;; x ::;; !;


h(y) = J~(2)dx = 2y, O ::;; y::;; l.
!GURA 7.9
Por tanto

E(X) = J~ x2(1 - x) dx = !. E( Y) = J~ y2.1 ciy = 3;


E(X 2
) = J~ x 2 2(1 - x) dx = k. E(Y 2
) = J~ y 2ydy
2
= !;
152. Otras caractcrlsticas de las variabl Mleacoria 7.10

V(X) = E(X 2 ) - [E(X) 2


= i'i;, V(Y) = E(Y 2 ) - [E(Y)] 2 = n:
E(XY) = J~ f~ xy2dxdy = .!:.
Luego
E{XY) - E(X)E(Y) 1
p= jV(X)V(Y) =1
Tal como hemos indicado, el coeficiente de correlacin es una cantidad sin
dimen in. Su valor no se afecta por un cambio de escala. Se puede d mostrar
el siguiente teorema fcilmente. (Ver probler.ia 7.4 1.)
Teorema 7.14. Si Pxr e el coeficiente de correlacin entre X y Y. y si
V = AX + B y W = CY + D, en donde A, B. C y D on con tante . en-
tonces p,.. ., =(A /IACI) Pxv (Sup nemos que A i= O. C i= O.)

7.10 Esperanza condicional


al como definimos el valor esperad de una variable aleatoria X (en funcin
de su distribucin de probabilidades) como J ~"" xf(x) dx o L ., 1 x;p(x;), as po-
demos definir la e peranza condicional de una variable aleatoria (en funcin de
su distribucin condicional de probabilidades) como sigue.
Definicin. (a) Si (X, Y) es una variable aleatoria continua bidimensional.
definimos la esperanza condicional de X para Y = y dado como

E(X 1y)= J ~"' g(x 1y)dx. (7.23)

(b) i (X. Y) es una variable aleatoria discreta bidimen ional, definimo


la e peranza condicional de X para Y = Y; dado como

E(X 1 YJ) = L X p(X 1YJ) (7.24)


,. .

La esperanza condicional de Y para X dado se define anlogamente.


Obser1JGcio11es : (a) La interpretacin de la e peranza condicional e como sigue. Puesto
que g(x 1y) representa la fdp condicional de X para Y = y dado, E(X 1y) es la esperanza de
X condicionada al suceso f Y = y} . Por ejemplo, si (X, Y) representa la re istencia a la tensin
y la dureza de una mue tra de acero, entonce E(X 1 y = 52,7) es la resistencia esperada a la
ten sin de una muestra de acero elegida al azar del universo de 'mue tras cuya dureza (me-
dida en la escala Rockwell) es 52,7.
(b) s importante darse cuenta de que en general E(X 1 y) es una funcin de y y por lo tanto
es una variable aleatoria . An<logam ole E( Y 1x) es una funcin de x y tambin e una varia-
ble aleatoria. [Estrictamente hablando, E(X 1y) es el valor de la variable aleatoria E(X 1 Y).]
(c) Puesto que E( Y 1 X) y E(X 1 Y) son variables aleatorias., ser preciso hablar de sus
esperanzas. As podemos considerar E[E(X 1 Y)] , por ejemplo. s importante establecer que
la esperanza interna e toma respecto a la di tribucin condicional de X dado que Y es igual
a y, mientras que la esperanza exterior se toma respecto a la di tribucin de probabilidades
de Y.
7.10 Esperanza condicional 15

Teorema 7.15.
E[E(X 1 Y)] = E(X), (7.25)
E[E(Y 1X)] = E(Y). (7.26)

Demostracin: (ca o continuo ola mente): por definicin.

E(X ly) = f + xg(x l y)dx = f +"' xf(,x.y))dx.


-w 1(y - oo

en d nde fe la dp conjunta de (X, Y) y Ir es la dp margina l de Y.


Por tanto

E[ E(X 1 Y)] = f+
- et>
E(X 1y)li(y) dy = f+ -
[J -
+ x f(lix . y) dx] h(y) dy.
(y)

Si toda las e peranza exi ten , e po ible e cribir la integra l iterada anterior
con el orden de integracin invertido. As

E[E(X 1 Y)] = J ~ x [J- f(x,y)dy] dx = J~ xg( )dx = E(X).

[Se puede u ar un argumento emejante para establecer la ecuacin (7.26)]. te


teorema e muy til como lo ilu tra el iguiente ejemplo.

EJEMPLO 7.22. Supnga e que vario cargamento que traen diver o n-


mero de repuestos llegan diariamente. Si N e el nmero de artculo s en el car-
gamento. la di tribucin de probabilidades de la variable aleatoria e t dada
como sigue:

n: 10 J1 12 13 14 15
P( = n): 0.05 0,10 O.JO 0,20 0,35 0.20

La probabilidad de que cualquier repue to particular ea dee<:tuo o e la mi ma


para todo lo repuestos y es igual a O, 10. i X e el nmero de repuesto deec-
tuo os que llegan cada da, cu l e el valor e perado de X? Para dado igual
n, X tiene una distribucin binomial. Pue to que el mi mo N es una variable
aleatoria, procedemos como igue.
Tenemos que E(X) = E[E(X 1 )]. Sin embargo, E(X 1 ) = O.JO N puesto
que para un N dado, X tiene una di tribucin binomial. Luego

E(X) = E(O,JON) = O, lOE(N)


= 0, 10(10(0,05) + 11(0,10) + 12(0.10) + 13(020) + 14(0,35) + 15(0.20)]
= 1,33.
Teorema 7.16. Supngase que X y Y on variable aleatorias independ ien-
te. Entonce
154 Otras caracteristkas de las variables aleatorias 7.11

E(X I }') = E(X) y E( YIX) = E( Y)

D mostracin: ver prob lema 7.43.

JEMPLO 7.23 Supngase que el uminstro de p tencia (kilowatt ' ) de una


compaa hidroelctrica durante un perodo de tiempo especlico es una var iable
aleatoria X, la que supondremos que t iene una distribucin uniforme en [10 30].
La demanda de potencia (kilowatts), Y, tambin es una variable aleatoria que
supondremos que est distribuida uniformemente en (!O, 20]. (Luego. en promed io.
se suministra ms potencia que la que e pide puesto que E(X) = 20, mi entras
que E(Y) = 15.) Por cada kilowatt suministrado la compaa obtiene una utilidad
de $0,03. Si la demanda excede el suministro, la compaa obtiene una potencia
adicional de otra Fuente y obtiene una utilidad con esta potencia de $0,0 1 p r
kilowatt sumin i trado. 'ul es la utilidad e perada durante el tiemp espcclico
que e considera?
Sea Te ta utilidad. T enemos

T = O03 Y si Y < X,
= 0,03X + O,Ol(Y - X) si Y > X.

Para evaluar E(7) escribmosla como E[E(TIX)]. Tenem s

+ r;o (0,) y + 0,024(o dy


J~ o 0,03.vto dy

l
Si 10 < X < 20,
E(T 1 x} = g~ 0,03y,.\ dy i 20 < < 30,
i'ti[O015x 2 - 1.5 + 2 + 0,4x - 0,005x 2 - 0.02x 2 ]
= si JO < x < 20,
1/o- S 20 < X < 30,
_ { 0,05 + 0,04x - 0,00 1x 2 JO< X< 20,
- 0,45 20 < X < 30.

Por tanto

E[E(T 1 X)] =.fo f;~ (0,05 + 0,04x - 0,001 x 2 ) dx + ~ gg 0,45 dx = 0,43.

7. l l Regresin del promedio

Como lo sealamo en la eccin anterior, E(X 1y) es el valor de la variable


aleatora E(X 1 Y) y es una funcin de y. El grlico de esta fu ncin de y se conoce
la curva de regresin (del promedio) de X sobre Y. Anlogamente, el grico de
la funcin de x, E( Y 1 x} se llam a la cur va de regre in (del promedio) de Y sobre
X. Para cada uno de los y fijos. E(X l y) es el valor esperado de la variable alea-
toria (unidimensional) cuya distribucin de probabi lidade est definida por la
ecuacin (6.5) (6.7). (Ver la figura 7.10). n general, el valor e perado depen-
der de y. [Se pueden hacer interpretaciones anlogas para E( Y 1x).]
7.11 Regresin del promedio 155

E( Y Jx) E(X Jy)

(a) (b)
FIGURA 7.10

x - 1 x- 1

FlG RA 7. 11

JEMPLO 7.24. Supongamo que (X. Y) est di tribuida uniformemente en


la emicircunferencia indicada en la figura 7.11. Luego f(x. y) = 2/n. (x. y) E se-
micircunferencia. A

Jl="Xl 2 2
y(x) =
f
o
- dy =-
Tt 1t
- 1 ::;;; x:::; I ;

li(y) = f
.fl=rr 2 dx =
- 1 - y Tt
~
Tt
o :::; y:::; J.

Por tanto
1
g(X 1 y) = J
2 1 -y 2 -Jl=Y2:::,; X~ Jl'=Y2;
h(y 1 x) = J 1 1- x2
,. O ::::;; y ~ 1 - x 2

Luego
r~
E( Y 1 x) = Jo yh(y 1 x) dy
156 Otra, caracter tica d la variabl aleatoria 7.11

-Jo.Jt=Xljl---'-~, .'ly -J
1- r
- 1
1-
y2
x2 2
I'
0
1- x' -
- .),.. - x 2.

De modo semejante
+JT=Yl
E(X 1 y) =
f
-Jr=-;l
+ 1 -2
xg(x 1 y) dx

1
-
J
-~
X
2
= o.
Puede suceder que una o ambas cur as de regre in ean en rea lidad lneas
rectas (figura 7.12). E decir. E( Y 1 x) puede ser una funcin lin l'al de x y/o E(X 1y)
puede se r funcin lineal de y. n e te caso decimo que la regresin del prome-
dio de Y sobre X (p r ejemplo) e lineal.
y

IGRA7. \ 2
EJEMPLO7.25. Supongamos ~ue (X , Y) est distribuida uniformemente en
el tringulo indicado en la figur; 7.13. Por tanto f (x, y) = J, (x. y) e T . Las ex-
presiones siguientes para las fdp margina l y condicional se verifican fcilmente:

2 - y
g(x) = 2x, O $ x $'. 1; h(y) = - 2- , o :$'. y $'. 2.

2 1
g(X y)
1 = - - , y/ 2 ,s; X .S: 1: h(y 1x) = x , O s; y ,s; 2x.
2- y 2

As E(Y 1x) = J~x yh(y 1x)dy = J~x y( l / 2x)dy = x. De modo semejante.

E(X 1 y) =
il

y{2
xg(x 1 y) dx = il
112
x -2- dx = l
2- y 4
+ -1
2

As ambas regresiones de Y sobre X y de X sobre Y son lineales (figura 7.14).


Re ulta que si la regre in del promedio de Y obre X e lineal, por ejemplo
E( Y 1x) = '.XX + /J, podemos . ex pre ar fcilmente lo coeficiente '.X y // en fun-
cin de ciertos parmetros de la di tribucin conjunta de (X, Y}. Tenemos el
te rema iguiente.
7.11 Rc~rc~ilm del promedio 157

y y

(1, 2) (1, 2)

E(X Jy)

!GURA 7.13 ;IG RA 7. 14

Teorema 7.17. ca (X. Y) una ariable a leatoria bidimensional y . upon-


gamos que

E(X) = , V(X) = u_~, y V( Y) = o}.


ca p el e eficiente de correla in entre X y Y . i la regresin de Y so bre
X e lineal, tenemos

E( Y 1x) = 11,. + p Y (x - JL.. ). (7.27)


a,,

Si la regresin de X sobre Y es linea l, tenemos

(7.28)

Demostracin: la demostracin de e. te teorema e l bosquejada en el proble-


ma 7.44.

Obse,.vacio11es : (a) Como se . ugiri en la exposicin anterior. e posible que una de las
regre iones del promedio sea lineal mientra que la otra no lo ea.
(b) tcsc el importante papel desempeado por el coeficiente de correlacin en la ex-
presiones interiore . Si la regre in de X obre Y, por ejemplo, e lineal. y si p ='o. enton
ce (nuevamente) encontramos que E(X 1y) no depende de y. tese tambin que el "igno
algebraico de p determina el signo de la pendiente de regresin.
(c) Si amba funcione de regresin son lineales. encontramos. al re olver las e.c uaciones
(7.27) y (7.28) imultncamente. que las rectas de regre in se cortan en el centro de la dis-
tribucin, (,,, 11,.).
158 01111 c:araclerislca~ de las variables alealorias

omo lo hemo ob ervado (ejemplo 7.23 por ejemplo), las funciones de re-
gresin no nece itan er lineales. Sin embargo an no podra interesar el tratar
de aproximar la curva de regresin con una funcin lineal. orrientemente e hace
recurriendo al principio de los mnimos cuadrados, lo que en el contexto presente
es como igue: e e cogen las con tan tes a y b de modo que E[E(Y 1 X) - (aX + b)] 2
ea minimizada. Anlogamente e e cogen las constante c y d de modo qu
E[E(X 1 Y) - (cY + d)] 2 ea minimizada.
Las rectas y = ax + b y x = cy + d se llaman las aproximaciones mnimas
cuadrticas a la correspondientes curva de regresin E(Y l x) y E(X 1y) re pec-
tivamente. 1 teorema siguiente relaciona e a recta de regresin con la ex-
puestas anteriormente.

Teorema 7.18. Si y= ax + b es la aproximac1on mnima cuadrtica a


E( Y 1 x) y i E( Y 1 x) e en realidad una funcin lineal de x, e decir

E(Y jx) = a'x + b',

entonce a = a' y b = b'. Para la regre n de X obre Y, e mantiene


una proposicin anloga.

Demostracin: ver el problema 7.45.

PROBLEMAS

7.1. ncontrar el valor e perado de las 1gmente varable aleatoria .


(a) La variable aleaioria definida en el problema 4.1.
(b) La variable aleatoria X definida en el problema 4.2.
(e) La variable aleatoria T definida en el problema 4.6.
(d) La variable a leatoria X definida en el problema 4.18.
7.2. Demostrar que E(X) no exi te para la variable aleatoria X definida en el proble-
ma 4.25.
7.3. Lo siguiente representa la di tribucin de probabilidades de D, la demanda diaria
de cierto producto. alcular E(D).
d : l. 2, 3, 4, 5,
P(D = d): 0,1, 0,1, 0,3, 0,3, 0,2.
7.4. En la fabricacin del petrleo, la temperatura de destilacin T (grados centgrado ).
e crucial para determinar la calidad del producto final. Supongamos que T se considera,
como una variable a leatoria di tribuida uniformemente en (150,300).
Supongamos que cuesta C 1 pe os producir un galn de petrleo. Si el aceite destila a
una temperatura menor que 200 C, el producto se vende como nafta y e vende a C 2 pesos
por galn. i se destila a una temperatura ma. or que 200 C. se conoce c-0mo aceite de ti
lado refinado y se vende en C 3 pesos por galn. Encontrar la util!dad neta esperada (por
galn).
Problemas 159

7.5. erta aleacin e forma al combinar la mezcla fundida de do metales. La alea-


cin que resu lta contiene cierto porcentaje de plomo. X . que puede considerarse como una
variable aleatoria. upongamos que X tiene la siguiente fdp:
f(x) = ~ 10 - 5 x(IOO - x). O 5: x 5: 100.
upongamo que P. la utilidad neta obtenida al vender esta aleacin (por libra). es la siguien-
te funcin del porcentaje del contenido de plomo: P = C, + 2 X. alcular la uti lidad e -
perada (por libra).
7.6. Supnga e que un in trumento electrnico tiene una duracin X (en unidade de
1000 horas) que se con idera como una variable alea toria continua con la iguiente fdp :
f(x) = I!-". X > 0.
uponicndo que el co to de fabricaci n de tal art culo e 2Jl0. 1 fabricante vende el ar-
tcu lo por $5.00. pero garantiza un reembol o total si X 5: 0.9. , 'ul es la uti lidad e perada
del fabrican te por artcufo?
7.7, La 5 primeras repeticione de un experimento cuestan 10,00 cada una. Todas
la repeticones que siguen cuestan $5,00 cada una. Suponiendo que el experimento e repite
hasta obtener el primer resul tado exitoso. Si la probabilidad de un resultado exitoso e siem-
pre igual a 0,9 y si las repeticiones son independiente._ cul es el co to e perado de la ope-
racin completa?
7.8. Se sabe que un lote contiene 2 artculo defe tuo os y 8 no defectuoso.. Si e tos
artculos se in peccionan al azar, uno despus de otro, cul e el nmero esperado de ar-
tcu los que e deben escoger para i11specc11 a fin de sacar todos los defectuosos?
7.9. n lote de 10 motores elctricos debe ser rechazado totalmente o bien vendido.
segn el resultado del guiente proce o: se escogen a l azar dos motore y e inspeccionan.
Si uno o m son defectuosos, el lote es rechazado: de otro modo e aceptad . upngase
que cada uno de lo motores cuesta $75 y se vende por $100 ; si el lote contiene 1 motor de-
fectuoso, cul es la utilidad e perada del fabricante?
7. 10. uponiendo que D. la demanda diaria de un artculo. e una variable aleatoria con
la iguente di tribucin de probabilidades:
P(D = d) = C2'/d!. d = 1.2. 3. 4.
(a) valuar la constante
(b) Calcular la demanda esperada.
(c) Suponer que un art ulo e vende por 5,00. n fabricante produce diariamente K
artculo . 'ualquier artculo que no e venda al trmino del da. debe de cariarse con una
prdida de 3,00. (i) ncontrar la distribucin de probabilidades de la utilidad diaria, como
una funcin de K. () Cuanto artculos deberan fabricarse para maximizar la ut ilidad diaria
e perada?
7. 11. (a) 'on = 50, p = 0.3. efectuar algunos clculo para encontrar cul es el valor
de k que minimiza E(X) en el ejemplo 7.12.
(b) U ando lo valores anteriore de N y p y usando k = 5. 10, 25, determinar para cada
uno de lo valore de k si es preferible el examen del grupo.
7.12. uponiendo que X y Y son variables a leatorias independiente con la siguientes
fdp:
f(x) = 8/x 3 x > 2: g(y) = 2y. O <y< l.
160 Otr cara teri tlca d lb warl1bles 11 atorlas

(a) Encontrar la fdp de Z = XY.


(b) Obtener E(Z) de dos manera : (i) usando la fdp de Z como se obtuvo en (a) ; (ii) di-
rectamente, in usar la fdp de z.
7.13. Suponiendo que X tiene fdp
f(x) = 8/x 3, x > 2.
Sea w= j-X.
(a) Calcular E(W), usando la fdp de W .
(b) Calcular E(W), sin usar la fdp de W.
7.14. e lanza un dado regular 72 vece . Pue to que X es el nmero de veces que apare-
ce el seis, evaluar E(X 2).
7.15. ncontrar el valor esperado y la varianza de la variable aleatoria Y y Z del pro-
blema 5.2.
7.16. ncontrar el valor esperado y ta varianza de la variable aleatoria Y del proble-
ma 5.3.
7.17. ncontrar el valor esperado y la varianza de las variables aleatorias Y y Z del
problema 5.5.
7.18. Encontrar el valor esperado y la varianza de las variables aleatorias Y, Z y W
del problema 5.6.
7.19. Encontrar el valor e perado y la varianza de las variables aleatorias V y S del
problema 5.7.
7.20. Encontrar el valor esperado y la varianza de la variable aleatoria Y del proble-
ma 5.10 para cada uno de los tre casos.
7.21. Encontrar el valor esperado y la varianza de la variable aleatoria A del proble-
ma 6.7.
7.22 ncontrar el valor esperado y la varianza de la variable aleatoria H del proble.
ma 6.11.
7.23. Encontrar el valor esperado y la varianza de la variable aleatoria W del proble-
ma 6.13.
7.24. Supnga e que X es una variable aleatoria para la cual E(X) = 10 y V(X) = 25.
Para qu valores positivos de a y b tiene Y = aX - b esperanza O y varianza I?
7.25. Supngase que S, un voltaje aleatorio, vara entre O y l volt y est distribuido uni-
formemente en ese intervalo. Suponiendo que la seal S es perturbada por un ruido alea-
torio independiente aditivo N , que est distribuido uniformemente entre O y 2 volts.
(a) Encontrar el voltaje esperado de la seal, tomando en cuenta el ruido.
(b) ncontrar la potencia esperada cuando la seal perturbada se aplica a una resisten-
cia de 2 obms.
7.26. Supngase que X est distribuida uniformemente en [- a, 3a]. Encontrar la va-
rianza de X.
7.27. Un blanco est formado por tres crculos concntricos de radios l/.jJ, 1 y ,J'J
pies. Los disparos dentro del crculo interior valen 4 punto , dentro del anillo siguiente 3 puntos,
y dentro del tercer anillo 2 puntos. Los disparos fuera del blanco valen cero. Sea R la varia-
Problema~ 161

ble aleatoria que representa la di tanca del impacto al centro. Suponiendo que la fdp de
R sea f (r) = 2/n( 1 + r 2 ), r > O. a lcular el valor esperado del puntaje despu de 5 dis-
paros.
7.28. Supngase que la variable aleatoria continua X tiene la fdp

f(x) = 2xe- "2. X :;:::: 0.

Sea Y = X 2 a lcular E(Y):


(a) directamente in obtener primero la fdp de Y,
(b) obteniendo primero la fdp de Y.
7.29. Suponiendo que la variable aleatoria bidimensional (X, Y) est distribuida unior-
memente en el tringulo de la figura 7.15. Evaluar V(X) y V(Y).
7.30. Suponiendo que (X , Y) est distri buida uniformemente en el tringulo de la fi-
gura 7.16.
(a) btener la fdp marginal de X y de Y.
(b) Evaluar V(X) y V( n
y

(2,4)

(2, 0)

!GURA 7. 15 FIGURA 7. 16

7.31. u pngase que X y Y son variable aleatorias para las cuale E(X) = ~. E( Y) = ti,..
V(X) = ai y V(Y) = 11;. sando el teorema 7.7 obtenga una aproximacin para E(Z) y V(Z),
en donde Z = X/ Y.
7.32. Supnga e que X y Y on variables aleatoria independientes, distribuida cada una
uniformemente en (1 , 2). ea Z = X/ Y.
(a) U ando el teorema 7.7 obtener expre iones aproximada para E(Z) y V(Z).
(b) U ando el teorema 6.5 obtener la fdp de Z y luego encontrar el valor exacto de E(Z) y
V(Z). omparar con (a).
7.33. Demo trar que si X es una variable aleatoria continua con fdpf que tiene la propiedad
de que el grfico de fes simtrico re pecto a x = a, luego E{X) = a. dado que existe E(X).
(Ver el ejemplo 7.16.)
7.34. (a) Supnga e que la variable aleatoria X toma lo valore - 1 y 1 cada uno con
probabilidad 1/ 2. Considerando P(IX - E(X)I ~ k-Jii(X}] como una funcin de k, k > O.
162 Otral> car11ct ri tica de las variables 1Jeatorias

Dibuje esta funcin de k y. en el mi mo i tema de coordenadas. dibuje la cota . uperior de la


probabilidad anterior como est dada por la de igualdad de Cheby. hev.
(b) Lo mismo que en (a) excepto que P(X = - 1) = 1/ 3, P(X = 1) = 2/ 3.
7.35. omparar la cota superior de la probabilidad P[IX E(X)I ~ 2JV(Xi] obtenida
de la de igualdad de hebyshev con la probabilidad exacta de X. si X est distribuida uni-
formemente en {- 1, 3).
7.36. Verificar la ecuacin (7.17).
7.37. Supngase que la variable aleatoria bidimensional (X,}) est distribuida uniforme
mente en R, donde R cst< definida por {(x,y)lx 2 + y2 ~ l.y ~ O}. (Ver la Fig. 7.17.) valuar
1_., el coeficiente de correlacin.

-l
FIGURA 7.17 FIGURA 7. 18

7.38. Supnga e que la variable aleatoria bid imcn iona l (X, Y) tiene la fdp dada por

f(x, y) = ke - 1 , O< x < y < 1


= O para cualquier otro valor.
(ver la figura 7.18). ncontrar el coelcente de correlacin PxY'
7.39. El ejemplo iguiente ilustra que 1 = O no implica independencia. uponiendo que
{X, Y) tiene una distribucin conjunta de probabilidadc dada por la tabla 7.1.
(a) Demostrar que E(XY) = E(X)E(Y) y luego p = O.
(b) Indicar por qu X y Y no on independientes.
(e) Demostrar que este ejemplo puede generaliz.arse como sigue. La eleccin del nmero 1
no es crucial. Lo importante es que todos los valore dentro de un crculo on los mismo ,

TABLA 7.1

IX - 1 o 1

-1
CD [}] CD
o [[] o [}]
1
CD w (])
Problema' 163

7.40. Supnga e que A y 8 s n dos suce~os asociad s con un cxpcrimcmo ~. upngase


que P(A) > O y P(B) >O. Se definen la variable. aleatoria X y Y como igue

X = 1 i A ocurre y Oen otro ca o.


Y = 1 si B ocurre y Oen otro caso.

Demo trar que p,Y = O implica que X y Y son independientes.

7.41. Demo trar el teorema 7.14.


7.42. Para la variable aleatoria (X, Y} definida en el problema 6.5, ca lc1.1:u E(X 1y),
E(Ylx} y verificar que E(X) = E[E(X 1 Y)] y E(Y) = E(E(Y I X)].
7.41. Demostrar el teorema 7.14.
7.42. Para la variable aleatoria (X , Y) definida en el problema 6.5, calcular E(X 1 y),
E( Y 1x), y verificar que E(X) = E[E(X 1 Y)] y E( Y) =
E[ECYI X)].
7.43. Demostrar el teorema 7.16.
7.44. Demostrar el teorema 7.17. lndicacn : en el caso continuo. multiplique la ecuacin
E( Ylxl = Ax+ B por g(x), la fdp de X , e integre de - a . Haga lo mi mo, u ando xg(x) y
luego re uelva la do ecuaciones resultantes para A y para B].
7.45. Demo trar el teorema 7.18.
7.46. i X , Y, y Z on variable a leatorias no correlacionada con de ' viaciones estirndar
5, 12 y 9. re pcctivamente y si U = X + Y y V = Y + Z. evaluar el coeficiente de correlacin
entre U y V.
7.47. Supngase que amba curva de rcgre in de los promedio on realmente lineales.
Especificamente, suponiendo que E( Ylxl = -ix -
2 y E( IYl = -~y - 3.
(a) Determinar el coeficiente de correlacin p.
(b) Determinar E(X) y EfY)
7.48. 'onsidrese el pron tico del tiempo en do alternativas: lluvia o <n.o llu ia en
las prximas 24 hora . uponiendo que > = Prob(lluvia en las prximas 24 horas) > ~.
prono ticador anota 1 punto si acierta y O i no. Al hacer 11 pron tico . un prono ticador sin
destreza elige al azar r das cualesquiera (O :;;; r :;;; 11) para decir llueve y lo 11 - r das restantes
para decir no llueve. Su puntaje total anotado es Sn. ompute E(S.) y Var(Sn) y encuentre el
valor de r para el cual E(Sn) e el mayor. [Indicacin : sea 1 = 1 O dependiendo si el i-simo
pronstico e correcto o no. Luego s. = r.7 1 X 1 te e que los X 1 no son independiente J.
8
La variable aleatoria de Poisson y otras variables aleatorias

8.1 La distribucin de Pois.wn

Tal como en lo modelos determinstic-0s, en los cuales cierta relacione


funcionales de empean un papel importante (tales como lineale , cuadrticas,
exponenciale , trigonomtrica , etc.) tambin, al elaborar modelo no determi-
nsticos para fenmeno observable , encontramos que ciertas di tribucione de
probabilidade aparecen ms a menudo que otra . Una razn de esto e que,
como en el caso determinstico, cierto modelo matemticos relativamente im-
ple parecen er capaces de de cribir un gran nmero de fenmenos.
n e te captulo exp ndremos con mucho detalle diversa variables aleatorias
discretas. n el captulo siguiente baremo lo mismo con variables aleatorias
continuas.
Pre entemos formalmente la siguiente variable aleatoria. Po teriormente in-
dicaremo bajo qu condicione esta variable aleatoria podra representar al
resultado de un experimento aleatorio.

Definicin. Sea X una var.iable aleatoria que toma los valores posibles:
O, 1, .. . , n, ... Si
e- "rxk
P(X = k) = ~, k = O, 1, ... , n, ... , (8.1)

decimos que X tiene una distribucin de Pois on con parmetro o: > O.


Para verificar que la anterior representa a una legtima distribucin de proba-
bilidades, sencillamente ob ervemos que Lf; 0 P(X = k) = i:r~ o(e - o:k/k!) = e-"
e = l.
Observacin : puesto que estamo definiendo directamente la variable aleatoria en funcin
de su recorrido y distribucin de probabilidades, sin referencia a ningn espacio muestra!
original S, podemos suponer que el espacio muestra! S ha sido identificado con Rx y que
X(s) = s. Es decir, lo re ultados del experimento son sencillamente los nmeros O, 1, 2, ...
y la probab~idadesasocada con cada uno dee 'os resultados estn dados por la ecuacin (8. 1).

Teorerna 8.1. Si X tiene una di tribucin de Poisson con parmetro ix, en-
tonce E(X) = rx y V(x) = o:.
164
8.2 La diJ.lribuci(111 de Poi..-.on 165

Demostracin: E(X) = L ~ - ~el = ~ e-",.


k; O k. J< ; 1(k - J).
Haciendo s = k - 1, encontramos que se tran orma

De modo semejante.

Haciendo nuevamente s = k - 1, obtenemo

[pue to que la primera urna repre enta E(X) mientras que la segunda urna es
igual a uno]. Luego

V(X) = E(X 2 ) - (E(X)) 2 = a 2 + a - a2 = a.


Obsermdti11 : ntese la interesante propiedad que posee la variable aleatoria de Poisson:
~ peranza es igual a su varianza.

8.2 La distribucin de Poisson como una aproximacin a la distribucin binomial


a distribucin de Poi on de empea un papel importante por derecho pro-
pio como un modelo probabilstico apropiado para un gran nmero de fenmenos
aleatorio . Este punto se expondr en la eccin iguiente. Aqu no intere a la
importancia de e ta distribucin para aproximar ta probabilidades binomiales.
EMPLO 8. l. Suponiendo que tai-. llamada telefnicas llegan a una gran
central telefnica y que en un perodo especial de tres hora (180 minuto ) e han
recibido un total de 270 llamadas, o ea 1.5 llamadas por minuto. Supngase
que, con ba e en la evidencia anterior, queremos calcular la probabilidad de re-
cibir O, 1, 2, etc. llamadas durante lo prximos lre minutos.
Al con iderar el fenmeno de llamadas recibidas, podriamo llegar a la con-
clusin de que en cualquier instante es tan probable que ocurra una llamada
telefnica como en cualquier otro instante. s decir, la probabilidad permanece
constante en un intervalo de tiempo. La dificultad es que an en un intervalo
de tiempo muy corto, el nmero de punto no lo es infinito ino que no puede
er enumerado. sto no lleva a una erie de aproximacione que de cribiremos
ahora.
Para empezar, podramo con iderar la ubdivisin del intervalo de tres mi-
nuto en nueve subintervalos de 20 egundo cada uno. Podramo considerar
entonces cada uno de e os nueve intervalo como un experimento de Bernoulli
durante el cual observamos una llamada (xito) o ninguna llamada (fracaso) con
P(xito) = (1 ,5) 20/ 60 = 0,5. A podramOS'eiar inclinado a decir que la pro-
166 L1 Hrlabl alcatorla dt' 1''-" n otra variables aleatorl1 . 8.2

babilidad de dos llamadas durante el intervalo de tres minuto (es decir, 2 xito
en 9 experimentos con P(xito) = (0,5) es igual a (~)(1 /2)9 = 9/ 128.
a dificultad con esta aproximacin es que ignoramo las posibilidade de,
digamos, dos o tres, etc., llamadas durante uno de nue tros en ayo con perodo
de 20 segundo . Si e ta posibilidad e tomase en con ideracin, el u o anterior
de la di tribucin binomial no era legtimo ya que e a distribucin es aplicable
s lo cuando exi te una dicotoma, una llamada o nin una llamada.
Para evitar e ta dificultad hacemos la aproximacin siguiente y, realmente,
nos lleva a una suoe in completa de aproximacione . Una manera de e tar ms
o menos seguro de que al menos se recibe una llamada en la central durante un
pequeo intervalo de tiem~o , es hacer que ese intervalo ea muy corto. A , en
vez de con iderar nueve intervalo de 20 egundo de duracin, consideremos
los 18 intervalos iguientes, cada uno de 10 segundo de largo. Podemos repre-
sentar ahora nue tro experimento como 18 experimentos de Bernoulli con P(xi-
to) = P(recibir una llamada durante un ubintervalo) = (1,5)10/60 = 0,25. Por
tanto P(dos llamadas durante el intervalo de tres minutos) = (1 8 )(0,25) 2 (0,75) 16
Ntese que aunque ahora tratamo una distribucin binomial diferente a la de
ante (es decir, que tiene parmetros n = 18, p = 0,25 en vez de n = 9, p = 0,5),
el valor esperado es el mismo, a aber np = 18(0,25) = 9(0,5) = 4,5.
Si continuamo de e ta manera, aumentando el nmero de ubintervalos
(es decir, n), di minuiremos al mismo tiempo la probabilidad de recibir una lla-
mada (e decir, p) de tal manera que np permanece constante.
As el ejemplo precedente nos conduce a formular la pregunta siguiente :
qu u cede a la probabilidades binomiales (~)p11 (1 - p)" - k si n --+ oo y p --+O , de
tal manera que np permanezca constante, es decir, np = a.?
Los clculo siguientes dan la respuesta a e ta pregunta muy importante.
Consideremos la expre in genera l para la probabi lidad binomial,

P(X = k) = (n)
k
pk(l - p} - = n!
k!(n - k)!
pk(l _ p) - k

_ n(n - l)(n - 2) (n - k + 1) . k - k
- k! p (1 - p)" .

Hagamos np = ex. Por tanto p = a./n y 1 - p = 1 - a/n = (n - a.)/n. Sustitu-


yendo todos los trminos que contienen p por sus expresiones equivalentes en
funcin de a., obtenemos

P(X = k) = n(n - 1) ~~n - k + 1) (~Je: y-


= :I(l)(1 _~) (1 _~) ... (1_k: 1)J[1 _~J-
= ~(1) ( 1 - ~) ( 1 - ~) ... ( 1 - k:
1
) J
X (1 -;)"(1-;r.
11.2 La dlslrlbuc:l6n de Poi wn a le dii.tribud6n binomial 167

Ahora hagamos 11-+ de ta l manera que np =a permanezca con tante. Esto


gnilica obviamente que p -+ O cuando n -+ oo porque de otra manera np no
podra permanecer constante. (Anlogamente, podramos necesitar que n -+ e.o y
p --+ O de tal manera que np-+ a.)
n la expresin anterior los trminos de la forma (l - l/ n), ( l - 2/n), .. .
tienden a uno cuando n tiende a infinito, tal como lo hace (1 - a/n) - ~. s bien
sabido (de la definicin del nmero e) que (l - a/ n'f -+ e- cuando n-+ oo.
As, limn P(X = k) = e- a"/ k! Es decir, en el lmite obtenemos la distri-
bucin de Poisson con parmetro a. Resumamos este importante resultado en
el siguiente teorema.

Teorema 8.2. Sea X una variable a leatoria distribuida binomia lmente con
parmetro p (con ba e en n repeticiones del experimento). Esto es,

Supngase que cuando n-+ , np = a (con tante), o equivalente, cuando


n -+ , p -+ O tal que np ..... a. Bajo estas condicione tenemo
e - "'a:k
lim P(X = k) = - - ,
n k!

la distribucin de Poisson con parmetro a.

Observaciones : (a) El teorema anterior, esencialmente, dice que podemo aproximar las
probabilidades binomiales con las probabilidades de la distribucin de Poisson siempre que
ri sea grande y p pequeo.
(b) Ya hemos verificado que si X tiene una distribucin binomial, E(X) = 11p, mientras
que si X tiene una distribucin de Poisson (con parmetro ex), E(X) = ex.
(c) La distribucin binomial est caracterizada por dos parmetros, 11 y p. mientras que
la distribucin de Poisson est caracterizada por un solo parmetro, ex = 11p, que representa
al nmero esperado de xitos por unidad de tiempo (o por unidad de espacio en algn otro
caso). Este parmetro tambin se designa como la intensidad de la distribucin. E importan-
te distinguir entre el nmero esperado de ocurrencia por unidad de tiempo y el nmero es-
perado de ocurrencia en el tiempo especificado. As, en el ejemplo 8.1 la intensidad es l ,5 lla-
madas por minuto y por lo tanto el nmero esperado de llamadas es un periodo de 10 mi-
nutos, por ejemplo, seria 15.
(d) Tambin podemo con iderar el siguiente argumento para evaluar la varianza de una
variable aleatoria X de Poisson con parmetro a: X se puede oonsidernr un caso limite de una
variable aleatoria Y distribuida binomialmente con parmetro n y p, en donde 11-+ oo y p-+ O
de tal manera que 11p-+ o:. Pue to que E(Y) = np y Var(Y) = np(l - p), observemos que en
el limite Var(Y)-+ rx.

Hay extensas tablas disponibles para la distribucin de Poi son. (E. C. Moli-
na, Poisson's Exponential Binoma/ Lmit, D. Van Nostrand Company, lnc., New
York, 1942). Una breve tabulacin de esta distribucin se da en el apndice.
168 La ~ariable aleatoria de Polsson y otra variables aleatorias 11.2

Consideremo otros tres ejemplo adicionalc que ilu tran las aplica ione de
la di tribucin de Poisson mencionada previamente.

EJEMPLO 8.2. n una concurrida inter eccin de trfico la probabilidad p de


que un automvil tenga un accidente e muy e casa, digamo p = 0.0001. in
embargo, durante cierta parte del da, entre las 4 p.m., y las 6 pm., un gran n-
mero de automvile pa a por la inter eccin, digamo 1000. Bajo dichas condi-
ciones, cul es la probabilidad de que do o ms accidente ocurran durante
ese periodo?
Formulemo algunas hiptesi . Supongamo , en primer lugar, que el valor
anterior de p es el mismo para cada uno de lo automviles. En segundo lugar,
supongamo que si un automvil tiene o n accidente , no depende de lo que u-
ceda a cualquier otro automvil. ( sta upo icin, obviamente, no e reali ta
pero in embargo la formularemo ). Podemo uponer a que i X e el nmero
de accidente entre lo 1000 automvile que llegan, entonce X tiene una di tri-
bucin binomial con p = 0,0001. (Otra hiptesis, no indicada explcitamente, e
que n, el nmero de automvile que pa a por la inter eccin entre 4p.m. y 6p.m.,
est predeterminada en 1000. videntemente, un enfoque m reali ta era con-
siderar n misma como una variable aleatoria cuyo valor depende de un meca-
nismo aleatorio. Sin embargo, no haremo e to aqu , ino que con ideraremo n
como fija) . Por tanto podemos obtener el valor exacto de la probabilidad bu cada:
P(X ~ 2) = l - P(X = O) - P(X = l)
= 1 - (0,9999) 1000 - l000(0,0001)(0,9999)999 .
La evaluacin de los valore anteriores da origen a una dificultad con ide-
rable. Puesto que n es grande y p es pequeo, aplicamo el teorema 8.2 y obtene-
mo la aproximacin iguiente:
e- '(O 1 t
P(X = k) ; ;: ;: k! '
Por tanto.
P(X ~ 2) ~ 1 - e 1 ( 1 + 0,1) = 0,0045.
EJEMPLO 8.3. Supnga e que un pr ce o de fabricacin produce artculo de
tal manera que cierta proporcin (con tanle) de artculos, digamos p, on defec-
tuosos. Si e obtiene un lote n de Lale artculos, la probabilidad de obtener exac-
tamente k defectuoso puede er calculada de la distribucin binomial como
P(X = k) = (i:)pk(l - pt - k, en donde X es el nmero de defectuo o en el lote.
Si n es grande y p e pequea (como a menudo e el ca o), debemo aproximar
la probabilidad anterior por
P(X = k) ~ e- np(np)k
k!
upngase, por ejemplo, que un fabricante produce artculo de lo cuales alre-
dedor de ] en 1000 on defectuo os. Esto e , p = 0,001. Por tanto, u ando la dis-
11.2 L.1 distrlbudlla de Polsson 11 11 di ttlbuc (111 blnom 1 l'.I

tribucin binomial, encontramo que en un lote de 500 artculo la pr babilidad


de que ninguno ea defectuoso es (0,999) 500 = O 609. Si aplicamos la aproxima-
cin de Poisson, esta probabilidad puede escribirse como e-o.s = 0,61. La pro-
babilidad de encontrar 2 o ms artculos defectuosos es, de acuerdo con la apro-
ximacin de Poisson 1 - e - o,s(I + 0,5) = 0085.
EJEMPLO .4. [Sugerido por una exrosicin en /culo de Probabilidades de
A. Renyi (en alemn), VEB Deutscher Verlag der Wissenschaft, Berln, 1962].
En la fabricacin de botella de vidrio, se encuentran partcula duras y pe-
queas en el vidrio fundido del cual se hacen las botellas. Si aparece una ola
partcula en una botella, la botella no pu..:de ser usada y debe ser de ca~tada. Puede
suponerse que las partculas estn esparcidas al azar en el vidrio fundido. Supon-
dremos que el vidrio fundido se produce de tal manera que el nmero de partculas
es (en promedio) el mismo para una cantidad constante de vidrio fundido. Su-
pnga e en particular que en 100 kilos de vidrio fundido, se encuentran x de tale
partculas y que es necesario l kilo de vidrio fundido para hacer una de e tas
botellas.
Pref}unw: qu porcentaje de botellas tendr que ser descartado debido a que
son defectuo as? A primera vista la solucin de este problema podra ser como
sigue. Pue to que el material para 100 botellas contiene x partculas, aproxima-
damente el x por ciento de las botellas deber er descartado. Una pequea refle-
xin ndicar, sin embargo, que la solucin anterior no es correcta, ya que una
botella defectuosa puede tener ms de l partcula, bajando as el porcentaje de
botellas defectuosas obtenidas del materia l que sobra.
A fin de obtener una solucin correcta, hagamos las siguientes hiptesis
implificantes: (a) cada una de las partculas puede aparecer en el material de
cada una de la botella con igual probabilidad y (b) la distrbucin de cualquier
partcula es independiente de cualquier otra partcula. Con estas hiptesis, podemo
reducir nuestro problema al iguiente modelo de urna. Entre N urna , e dis-
tribuyen al azar n esferas. Cul es la probabilidad de que en una urna elegida
aleatoriamente, se encuentren exactamente k esfera ? (Las urnas evidentemente
corresponden a las partculas.)
Siendo Z el nmero de esferas encontradas en una urna escogida aleatoria-
mente, se deduce,. de la hiptesis anterior, que Z est distribuida binomialmente
con parmetro l/N. Luego,

P(Z = k) =G)e y(t _~y-k.


Supngase ahora que el vidrio fundido se prepara en cantidades muy grandes.
En realidad, supongamos que se prepara en unidades de LOO kilos, y que se han
su ministrado M de tales unidades. Luego N = JOOM y n = xM. Sea o: = x/100,
lo que iguala la proporcin de partculas por botella. As N = n/o: y la proba-
bilidad anterior puede escribirse como

P(Z = k) = (kti) ()J;


; ( 1 - O:)n
~
- k.
170 11 vnri11bl lcaturla dll Pulsson y otras wari1bles aleatorias IU

A , cuando el proce o de produccin contina (esto e , M --. y luego n


obtenemos
X
en donde ex= .
100
Calculemos la probabilidad de que deba descartar e una botella. E ta es igual a
1 - P(Z = O). Luego P(botella defectuosa) ~ 1 - e - x11oo. Si el nmero de bote-
llas producidas e muy grande, debemo identificar oblgadamente la probabili-
dad de una botella defectuosa con la frecuencia relativa de botella defectuosas.
Por tanto el porcentaje de botellas defectuo as es aproximadamente 100(1 -
e- "' 1 ). Si desarrollamos 100(1 - e- x1100) en una erie de Maclaurin, obtenemos
J ( x
1l_ 1 - . l - 100 x2
+ 2(100) 2 -
x3
3!(100)3 + ...
)]

x2 x3
= X - 2(1()()) + 6(100) 2 -

As, si x es pequea, la proporcin de botellas de cartadas es aproximadamente x


como e sugiri primero. Sin embargo, para un x mayor e to no e vlido. n
caso que x = 100, el porcentaje de botella descartada no es 100. ino que 100
(1 - e- 1 ) = 63,21 por ciento. Este, naturalmente, es un caso extremo y no e en-
contrara en un proceso controlado razonablemente. Supongamos que x = 30 (un
nmero m realista). Por tanto en vez de descartar el 30 por ciento (nuestra solu-
cin inicial nuevamente), descartaramos slo 100(1 - e- 0 3 ) = 25,92 por ciento.
Podramos observar que si x es razonablemente grande, es ms econmico pro-
ducir botella ms pequeas. Por ejemplo, si necesitamo solo 0,25 kilo de vidrio
fundido por botella en vez de l kilo, y si x = 30, entonces el porcentaje de cariado
e reduce de 25 92 por ciento a 7,22 por ciento.

8.3 El proceso de Poisson

n la eccin anterior se us la di tribucin de Poi son como un medio para


aproximar una distribucin conocida, a saber, binomial. Sin embargo, la di tri-
bucin de Poisson de empea un papel muy importante por derecho propio,
puesto que representa un modelo probabil tico apropiado para un gran nme-
ro de fenmeno ob ervable .
Aunque no vamo a dar una deduccin completamente rigurosa de algunos
resultados que vamos a exponer, el enfoque general es de tal importancia que se
deber tomar en cuenta para comprenderlos, an cuando no podamos ju tificar
cada uno de los pasos.
Para referirnos a un ejemplo especfico mientras concluimos los detalles ma-
temticos, consideremos una fuente de material radiactivo que emite partculas ex.
Sea definido X, como el nmero de partculas emitida durante un perodo e pe-
cificado de tiempo [O, t). Vamos a enunciar algunas hiptesis acerca de la va-
riable aleatoria (discreta) X,, que nos permitirn determinar la di tribucin de
11. J<.I proct'l4 dr l'ol'>!>On 171

probabilidade de X,. a posibilidad de e ta hipte i (recordand lo que X,


representa) est comprobada por el hecho de que la evidencia emprica sostiene
una cantidad muy con iderable de re ultado terico que vamos a derivar.
Puede ser ti l sealar que en la deduccin de cualquier re ultado matemtico,
debemos aceptar algunos postulado o axioma fundamentale . En la b queda
de axiomas para describir fenmenos observable , alguno axiomas pueden er
m apropiados (y meno arbitrarios) que otros. Por ejemplo, al de cribir el mo-
vimiento de un objeto impul ado hacia arriba con cierta velocidad inicial, podra-
mos suponer que la distancia sobre el suelo, llammosla s, es una funcin cuadr-
tica del tiempo t; e decir, s = at 2 + bt + c. sta seria, diliclmente, una hip-
te i intuitiva, de acuerdo con nue tra experiencia. En lugar, podramos suponer
que la aceleracin es una con tante y luego deducir de esto que debe er una
funcin cuadrtica de t. Lo importante, naturalmente, e que si debemo suponer
algo con el objeto de elaborar nue tro modelo matemtico, preferiramos suponer
lo que es apropiado, en vez de lo que no lo e .
1 mismo objetivo nos gua a elaborar un modelo probabil tico para la emi-
in de partcula et de una fuente radiactiva. La variable aleatoria X, definida
anteriormente puede tomar lo valores O, 1, 2, ... Sea Pn(l) = P[X, = n], n =O
1, 2, ...
Vamo a enunciar ahora la cinco hiptesis iguiente .

A 1 : El nmero de partculas emitida durante intervalo de tiemp2...J!Q.


sobrepuestos on variables aleatoria independiente .
A2 : iX, se define como antes y si Y, es igual al nmero de partculas
emitida durante [t., t 1 + t), para cualquier t 1 > O, la variable alea-
toria X, y Y, tienen la mi ma di tribucin de probabilidade . ( n
otra palabra , la distribucin del nmero de partculas emitida du-
rante cualquier intervalo depende lo de la longitud del intervalo y
no de lo puntos extremos.)
A 3 : p 1( t) es igual aproximadament e a ..tAt, si ..11 es ulicientemente pe-
quea, donde A. e una constante positiva. Esto lo e cribimo como
p 1(At) - A.At. n esta seccin a(!) ,.._, b( l) significa que a(At )fh(t) 1
cuando t O. Tambin supondremos que AL > O. ( ta hiptesis
expre a que i el intervalo es suficientemente pequeo, la probabili-
dad de obtener exactamente una emisin durante ese intervalo es di-
rectamente proporcional a la longitud del intervalo).
A4 : l:k .. 2 Pk(At) - - 0. (Esto implica que Pk( t) --t O, k ;:::: 2.) to nos dice
que la probabilidad de obtener dos o m emisiones en un intervalo
suficientemente pequeo e de prec1a'bie. -
A s : X 0 = O o equivaentemente, p0 (0) = l. Esto equivale a una condicin
inicial para el modelo que estamos de crbiendo.

Como lo demostraremos en breve, la cinco hipte i anotada anteriormente


harn posible que deduzcamos una expresin para p,,(t) = P[X, = t1]. Saquemo
ahora ciertas conclu iones de la hiptesis anteriores.
172 L variable leatori de Poissoo y otra v11i11bles 1lutorias IU

(a) a hip te i A 1 y A1 juntas impli-


can que la variable aleatoria Xt., y X1+ti.1
- X 1] on variables aleatorias indepen- o r + AI
dientes con la misma distribucin de pro-
babilidades. (Ver figura 8.1.) FIGURA 8.1
(b) De las hiptesis A3 y A4 podemos concluir que

(8.2)
lc = 2
(c) Podemos escribir
Po(l +Al)= P[Xr+t.t =O]
= P'[X, =O y (X1+ 6 1 - X,) = O]
= p0 (l)po(At). [Ver conclusin (a).]
"'p 0 (t)[l - A.M]. [Ver ecuacin (8.2).]
(d) Luego tenemo
Po(l + Al) - Po(t)
_ _ _A _ t_ _ _ .... -A.po(t).

Haciendo At -+ O. y ob ervando que el lado izquierdo representa al cociente


de Ja diferencia de la funcin p0 y por tanto tiende a p0(1) (ms precisamente. a
la derivada por la derecha. pue to que t > 0). tenemos

Po(l) = - lpo(l) o, equivalentemente, Po(r) = - A.,


Po(t)
Integrando en ambos miembros con re pecto a 1, obtenemo In Po(t) = - At + C,
en donde C e una con tante de integracin. De la hiptesis A 5 encontramos,
al hacer t = O, que C = O. Luego
(8.3)
As, nuema hiptesi nos han conducido a una expresin para P[X, =O]. Uti-
lizando esencialmente el mi mo enfoque. obtendremo ahora p.(r) para n ~ l.
(e) Considerando p.(t + At) = P[X,+11, = n].
Ahora X,+t., = n si y slo si X,= x y [Xr+Ar - X,] = n - x, x =O, 1, 2, ... ,
n. Utilizando las hiptesis A 1 y A2 , tenemos

p.(1 + At) = px(t)p"_x(6.t)

n- 2

"' "'
Utilizando las hiptesi A3 y A4 y tambin la ecuacin (8.2), obtenemos
Pn(l + Al) ,..., Pn - 1(t)..lAt + Pn(t)[ l - ). Al].
K. El proceso de Pobwn 17J

Luego
Pn(l + l) - Pn(l)
t - ~.Pn - 1{l) - APn(l).

uevamente haciendo At -+ O, y observando nuevamente que el lado izquierdo


representa el cociente diferencial de la funcin Pn. obtenemos
n = 1, 2, ...
Esta representa a un i tema lineal infinito de ecuacione difcrenciale de dife-
rencias. El lector interesado puede verificar que i definimos la funcin q. por la
relacin qn(t) = 'pn(t), el si tema anterior se tran forma en q~(t) = ..lqn - 1(1), n = l,
2, ... Puesto que p0 (t) = e- ;.,, encontramos que q0 (t) = l. [Ntese tambin que
q,,(0) = O para n >O.] As obtenemo , recur ivamente,
q'.(t) = ..l, y por tanto q(t) = A.t;
(A.t)2
q~(t) = A.q1(t) = .Pt, y por tanto qi(l) = - 2-

En general, q~(t) = A.q,, _ 1(t) y por tanto qn(t) = (A.t}"/n ! Recordando la definicin
de qn, finalmente obtenemos
Pn(l) = e-l1(A.t)"/ n!, n = O, l , 2,. .. (8.4)
Hemo demo trado as que el nmero de partcula emitidas durante el in-
terva lo de tiempo [O, t) de una fuente radiactiva, bajo las upo iciones hechas an-
teriormente, es una variable aleatoria, con una di tribucin de Poi on con pa-
rmetro (A. t).
Observaciones : (a) s importante darse cuenLa de que la di tribucin de Poi on apare-
ci como una consecuencia de cierta suposicione que hicimos. Esto significa que cada vez
que dichas uposiciones sean vlidas (o al meno lo sean aproximadamente) la distribucin
de Poi son debe usarse como un modelo apropiado. Resulta que hay una gran cantidad de
fenme no para lo cuales es apropiado el modelo de Poi son.
(i) Repre entemos por X, el nmero de llamada telenicas que llegan a una central
telenica gurante un perodo de tiempo de longitud c. La supo icione anteriores se
satisfacen aproximadamente, en especial durante el periodo congestionado del d.a.
Luego X, tiene una distribucin de Poisson.
(ii) Representemos por X, aJ nmero de electrones que salen del ctodo de un tubo
al vaco. Nuevamente las suposiciones son apropiadas y por tanto, X, tiene una di tri-
bucin de Poisson.
(iii) El ejemplo iguiente (de astronoma) indica que el razonamiento anterior puede
aplicarse no slo al nmero de ocurrencia de un suceso durante un perodo de tiempo fijo,
ino tambin al nmero de ocurrencias de un uce o dentro de los lmites fijados de tt
rea o un volumen. Supngase que un astrnomo iove liga una parte de la Va Lctea
y supngase que en la parte c-0nsiderada la densidad de e trellas. llammosla A. es cons-
tante. (Esto significa que en un volumen de V (unidades cbica ), e encontraran, en
promedio, A. V estrella ). Sea X v igual al nmero de estrellas encontradas en una parte
de la Va Lctea, que tiene un volumen V. Si se satisfacen las suposiciones anteriores (sus-
tituyendo volumen por tiempo), entonces P[Xv = 11] = (A.vre - H'/nl (Las upos-
ciones, interpretadas en el ejemplo presente, estableceran esencialmente que el nmero
174 La variable alealoria de Poi>!;<>n y olras ~11ri11bl.es ale111orias IU

de estrellas que aparecen en parte no sobrepuestas del firmamento, representa variables


aleatorias independientes y que la probabilidad de que aparezca ms de una estrella en
una porcin pequea del cielo es cero.)
(iv) Se nos ocurre otra aplicacin en el campo biolgico, i hacemo que X A ea el
nmero de clulas sanguneas vi ible bajo el microscopio, en donde el rea de la superficie
visible bajo el microsopio es dada por A unidades cuadrada .
(b) La constante A. apareci originalmente como una constante de proporcionalidad en
la hiptesis Al. Vale la pena mencionar las siguientes interpretaciones de A.: si X, representa
el nmero de ocurrencias de un suceso durante un intervalo de tiempo de longitud 1, entonces,
E(X,) = J.t, y por tanto A. = [E(X,)]/t representa la razn esperada con la cual se emiten las
partculas. Si X v representa al nmero de ocurrencias de algn suceso dentro de un volumen
especificado V, entonces E(X v) = J.V, y por lo tanto A. = [E(X v)/V representa la densidad
esperada con la cual aparecen las estrellas.
- (c) importante seialar que nuestra expo icin en la seccin 8.3 no se refiri slo a una
variable aleatoria X que posee una distribucin de Pois.son, sino que para cada t > O, encon
tramos que X, tena una distribucin de Poisson con un parmetro dependiente de 1. Tal
coleccin (infinita) de variables aleatorias tambin se conoce como un proceso de Poisson.
(Recprocamente, e genera un proceso de Pois on cada vez que ocurre un suceso en algn
intervalo de tiempo de modo que se satisfagan las hiptesis A 1 hasta A5.) De manera anloga
podemos definir un proceso de Bernou//i: si X 1, X 2 , . . . , X .. . son los nmeros de ocurren-
cias de sucesos en 1, 2, ... n, experimentos de Bernoulli. entonces la coleccin de variables
aleatorias X 1, _ .. X~, ... se llaman un proceso de Bernoulli.

EJEMPLO 8.5. Una complicada maquinaria, cuando funciona perfectamente,


puede producir una utilidad de C pe o por hora (C > 2) a una compaa. Sin
embargo, e ta mquina tiene una tendencia a fallar a horas ine peradas e impre-
decibles. Supngase que el nmero de fallas durante cualquier perodo de longi-
tud t horas es una variable aleatoria con una di tribucin de Poi on de perodo t.
Si la mquina falla x veces durante t hora , la prdida ocasionada (la improducti-
vidad de la mquina ms la reparacin) es igual a (x.1. + x) ;e o . Luego la utiH-
dad total P durante cualquier perodo de t hora es igual a P = Ct - (X 2 + X),
en donde X e la variable aleatoria que indica el nmero de fallas de la mquina.
Por tanto P es una variable aleatoria, y podra er de inters elegir t (lo que e t
a nuestra voluntad) de manera tal que la utilidad esperada ea maximizada. Tenemos
E(P) = Ct - E(X 2 + X).
Segn el teorema 8.1 encontramos que E(X) = e y E(X 2 ) = 1 + (t) 2 Luego
e deduce que E(P) = Ct - 2t - t 2 Para encontrar el valor de t para la cual
E(P) es maximizada, diferenciamos E(P) e igualamo la expresin re ultante a cero.
Obtenemos C - 2 - 2t =O, obteniendo t = ~(C - 2) horas.
JEMPLO 8.6. Sea X, igual al nmero de partculas emitida por una fuente
radiactiva durante un intervalo de tiempo de longitud t. Supngase que X, tiene
una distribucin de Poisson con parmetro at. Se in tala un in trumento para
anotar el nmero de partculas emitida . Supnga e que hay una probabilidad
constante p de que cualquier partcula emitida no sea contada. Si Rr es igual al
nmero de partculas contadas durante el intervalo especfico, cul es la distri-
bucin de probabilidades de R 1?
1'1.4 La distribu~ln 11con1 1rl a 17S

Para X,~ x, dado la variable aleatoria R, tiene una distribucin binomial


con base en x repeticiones con parmetro (1 -=-. p). sto e,

P(R, = k 1 X, = x) = (~) (1 - p)k,r - ".

ando la frmula de la probabilidad total, (ecuacin 3.4), tenemos

P(R, = k) = E P(R, = k 1 X, = x)P(X, = x)


x=

Sea i = x - k. ntonce

t- p)"
e_,,, "" (pa.tY+k
P(R, = k) = ( -p - -k!- l:oLQ 1..1

As encontramos que R, tiene una distribucin de Poi son con parmetro (1 - p)a.t.

8.4 La distribucin geomtrica


Supnga e que efectuamo un experimento e y estamos intere ado slo en
la ocurrencia o no ocurrencia de algn suce o A. Supngase como en la presen-
tacin de la distribucin binomial, que repetidamente efectuamos s, que las re-
peticiones son independientes, y que en cada una de tas repeticiones P(A) = p
y P(A) = 1 - p = q permanecen constante . Supngase que repetimos el experi-
mento hasta que A ocurre por primera vez. (Aqu! nos separamos de las hiptesis
que conducen a la distribucin binomial. All el nmero de repeticiones era pre-
determinado, mientra que aqu e una variable aleatoria.) -
efinamo la variable aleatoria X como el nmero de repeticiones necesa-
rias hasta incluir la primera ocurrencia de A. A , X toma los valore po ible
J, 2, ... Puesto que X = k i y slo si la primera (k - 1) repeticione de e re-
sultan en A mientra que la k- ima re ulta en A tenemos

P(X = k) = qk - 1p, k = 1,2 ... (8.5)

Se dice que una variable aleatoria con una di tribucin de probabilidades ecua-
cin (8.5), tiene una distribucin geomtrica .
176 Le variable alea1oria de Poi otra arlables aleatoria

Un clculo sencillo indica que la ecuacin (8.5) define una di tribucin d


probabilidade legtima. Obviamente tenemo P(X = k) ~O. Y

~ P(X = k) =
= p(l + q + q2 + ) = p[- 1
- ] = l.
1- q
Podemo obtener el valor e perado d~ X como igue.

E(X) = L kpqk - 1 = p L -d qk
k=1 k "' dq
1
= p.!!_ I: qk = p.!!_ q = -
dq k= 1 dq 1- q p

(El intercambio de diferenciales y umatoria e ju tfica aqu pue to que la erie


converge para Jql < 1). Un clculo imitar ensea que V(X) = q/ p2 . ( uevamente
obtendremos lo do re ultado en el captulo 10, usando un enfoque distinto.)
Para re umir lo anterior tenemo el teorema siguiente.

Teorema 8.3. Si X tiene una d tribucin geomtrica como e da en la ecua-


cin (8.5).
E(X) = l /p V(X) = q/ p2
Observacin: el hecho de que E(X) ea el recproco de p es interesante intuitivamente,
puesto que dice que con valores pequeo de p = P(A) e necesitan muchas repeticiones
a fin de que ocurra A.

EJEMPLO 8.7. Supnga e que el costo de efectuar un experimento es 1000.


Si el experimento falla, se incurre en un co to adicional de 300 debido a ciertos
cambio que deben efectuar e ante de que e intente un nuevo en ayo. Si la pro-
babilidad de xito en cualquiera de lo ensayo es 0,2, i lo en ayo aislados on
independientes y si los experimentos continan ha ta que se obtiene el primer
resultado exito o cul e el costo esperado del procedimiento completo?
Si e el costo y X el nmero de en ayo nece ario para obtener xito. tenemo
que C = IOOOX + 300(X - 1) = 1300X - 300. Luego

E(C) = 1300E(X) - 300 = 1300


0~2 - 300 = 6200.

EJEMPLO 8.8. En cierta regin la probabilidad de que una tormenta con


truenos ocurra en un da cualquiera durante el verano (digamo enero y febrero)
e igual a 0,1. Suponiendo la independencia de un da con otro, cul e la pro-
ba biJidad de que 1.a primera tormenta con truenos del verano ocurra el 3 de
febrero?
Sea X el nmero de da (empezando el l de enero) ha ta la primera tor-
menta y bu camo P(X = 34) la cual e igual (0,9) 33 (0,1) = 0,003.

E.J MPLO 8.9. Si la probabilidad de que cierto examen d una reaccin po-
sitiva igual a OA ,cul e la probabilidad de que ocurran meno de 5 reacciones
H.4 L1& di~lribu 1611 geom lrlcu 177

negativas antes de la primera positiva? Haciend que Y ea el nm ro de reac-


cio nes negativas ante de la primera positiva. tenemos
P(Y = k) = (0.6)k(0,4). k = o. l. 2....
Luego
4
P(Y < 5) = L (0,6)k(0,4) = 0,92.
Observacin : Si X tiene una distribucin geomtrica como se describi en la ecuacin (8.5)
y i hacemos Z = X - 1, podemos interpretar a Z como el nmero de falla que preceden
al primer xito. enemo que P(Z = k) = qkp, k = O, 1, 2 .. . , en donde p = P(xito )y q =
P(falla).

La distribucin geomtrica tiene una propiedad intere ante que est re Ul\)i-
da en el teorema iguiente.

Teorema 8.4. Supngase que X tiene una di tribucin geomtrica dada por
la ecuacin (8.5). Entonces para do entero po itiv ualesquiera s y t ,

P(X ;;::: + e1 X > s) = P(X ~ t). (8.6)

Demo cracin : ver el problema 8.18.


Observaciones : (a) I teorema anterior indica que la distribucin geomtrica no (iene
memoria en el sentido siguiente. Supongamos que el uceso A no ha ocurrido durante las
primeras s repeticiones de e. ntonces la probabilidad de que no ocurra durante la prxi-
mas e repeticione es la misma que la probablidad de que no ocurra durante la primeras t
repetieione . n otra palabra , la informacin de ningn xito e olvidada en lo que se
refiere a clculos ub ecuentes.
(b) 1 recproco del teorema anterior, es tambin cierto: si la ecuacin (8.6) es vlida para
una variable aleatoria que loma s lo valores po itivo . entonce la variable a leat ria debe
tener una distribucin geomtrica. ( o demostraremo esto aqu. Se puede encontra r tal
exposicin en A11 illtroduclion io Probabi/ity 111eory ai1d /t s Ap1>licatio11s, de Feller. John
Wiley and Son , lnc., 2." edicin, ew York, 1957, pg. 304.)
(c) b ervaremos en el captu lo siguiente que exi te una variable aleatoria continua con
una distribucin que posee una propiedad anloga a la ecuacin (8.6), e decir la distr ibucin
exponencial.

EJEMPLO 8.10. upongamo que un mecanismo e in peccionado al finalizar


cada da para ver i an funciona regularmente. Sea p = P [falla durante cual-
quier da dado]. Por tanto si X e el nmero de in pecciones nece arias para
obtener la primera falla, X tiene una di tribucin de probabilidade geomtrica
y tenemo P(X = tt) = (1 - p)" - 1 p. Anlogamente, (1 - p)" - 1p = P[el artculo
se encontrar que ha fallado en la n- ima in peccin y no en la (tt - l) ima
inspeccin.]
El valor mximo de e ta probabilidad se obtiene resolviendo

d
dp P(X = n) = O.
178 La nriahle uleatoria de Poi son otra variabl al atorias !l..

E to da
p(n - t)(t - p)" - 2 ( - J) + ti - Pr- = o.
lo que equivale a
(l - pn- 2 (1 - p) - (n - l)p] = O,

de la cual obtenemos p = 1/11.

8.5 a distribucin de Pascal


Una generalizacin obvia de la distribucin geomtrica aparece s hacemos
la guiente pregunta. Supongamos que un experimento e contina ha ta que un
uce o particular A ocurre por r-sima vez. i
P(A) = p, P(A = q = 1- p

en cada una de las repeticione , definimos la variable aleatoria Y como igue.

f e el nmero de repeticione nece arias a fin que A ocurra exactamente r veces.


Nece itamos la d tribucin de probabilidades de Y. Debe er evidente que si
r = 1 Y tiene la distribucin geomtrica dada por la ecuacin (8.5).
Ahora Y = k i y slo i A ocurre en la k-sima repeticin y precisamente A
ocurri (r - l) veces en las (k - 1) repeticiones previa . La probabilidad de este
suceso es simplemente p{~ : :)p' - qk - , pue to que lo que sucede en la primeras
(k - 1) repeticiones es independiente de lo que ucede en la k- ima repeticin.
Luego

P(Y = k) = (kr -- 11)pqk-, k= r, r + 1, .. . (8.7)

Se ve muy sencillamente que parar = 1, lo anterior se reduce a la ecuacin ( .5).


Una variable aleatoria que tenga una distribucin de probabilidades dada por
la ecuacin (8.7) tiene una distribucin de Pascal.

Observacin : la distribucin de Pa cal es t;,imbin conocida comnmen te como la distri-


bucin bi1wmial negativa. La razn para e! to es que al verificar la condicin

L P(Y = k) = 1
k ,

obtenerno

~ =
(rk-- 1') tfq - = p' L
t r
(k - ') qk - = p'( l -
r - 1
q) - '

lo cual obviamente es igual a l. La lt ima igualdad result, del desarrollo en cric de

( ! _ q) - r = ( - ') ( - q)n,
=O n
K.6 Relaci6n entr la~ dlstribuclon s binomial y de P;i~cul 17\1

es igual
k - ') -,
t (r - l q

despus de algunas simplilicacione algebraica y recordando la definicin del coeficiente


binomial (generalizado) (ver la observacin antes del ejemplo 2.7). ebido al exponente ne-
gativo (-r) en la expresin anterior esta distribucin e llama distribucin binomial negativa.
Para calcular E(Y) y V(Y) podemos proceder directamente, tratando d calcular la diver-
sas sumas, o bien podemo proceder de la siguiente manera.

ea
Z1 = nmero de repeticiones necesarias hasta incluir la primera ocurren-
cia de A.
2 2 = nmero de repeticiones nece arias entre la primera ocurrencia de
A ha ta incluir la segunda ocurrencia de A.

Z, = nmero de repeticione nece arias entre la (r - 1) ocurrencia ha ta


incluir la r- ima ocurrencia de A.
A vemos que toda la Z 1 son variable aleatoria independientes, que tiene
cada una, una di tribucin geomtrica. Tambin, Y = Z 1 + + Z,. Por tant
usando el teorema 8.3, tenemo el iguiente teorema.

Teorema 8.5. i Y tiene una di tribucin de Pascal dada por la ecuacin (8.7).
luego
E(Y) = r/ p, V( Y) = rq/ p2 ( .8)
J MPLO 8.11. La probabilidad de que un experimento sea exilo o e 0,8.
Si el experimento e repite ha ta que curran cuatro re ultado exitoso , cul
e el nmero esperado de repeticione necesaria ? De lo anterior, tenemos E(n-
mero de repeticione ) = 4/0,8 = 5.

8.6 Relacin entre las distribuciones binomial y de Pascal

Sea X una di tribucn binomial con parmetro n y p. ( decir, X = nme-


ro de xito en n en ayo de Bernoulli con P(xito) = p). Sea Y una di trbucin
de Pa cal con parmetro r y p. ( decir, Y = nmero de en ayo de Bernoulli
nece ario para obtener r xitos con P(xito) = p.) Por tanto e establece la i-
guiente relacin
(a) P( Y 5; n) = P(X 2: r),
(b) P(Y > n) = P(X < r).
Demostracin: (a) Si hay r o m xito en los primeros n ensayo , entonce
e necesario n o menos ensayo para obtener lo primeros r xitos.
(b) Si hay menos que r xito en lo primero n en ayos entonce e nece itan
m de n ensayos para obtener r xito .
180 L1111riablc11l 11toria de Poi''")' otra\ uriable~ al!!aloria!> 8.7

Obseriadones : (a) Las propiedades anteriores hacen posible el 1:mpleo de 13 distribucin


binomial tabulada para evaluar probabilidades asociadas con la distribucin de Pascal. Por
ejemplo, supngase que deseamos calcular la probabilidad de que m de 10 repeticiones
can necesarias para obtener el tercer xito cuando p = P(xito) = 0,2. Tenemo , u ando la
notacin anterior para X y Y.

P(Y > IO) = P(X < 3) =


k
L:l
o
(').
k
(0.2)"(0.8) 1 k = 0.678

(de la tabla del apndice).


(b) Comparemos brevemente las distribucionc binomial y de Pa cal. En cada uno de
los ca o , no interesan los en ayos repetidos de Bernoulli. La di tribucn binomial aparece
cuando consideramo un nmero lijo (digamo 11) de tales en ayos y estamos interesados en
el nmero de xitos que ocurren. La distribucin de Pascal se encuentra cuando prefijamos
el nmero de xitos que debemos obtener y luego anotamos el nmero de en ayo~de Ber-
noulli necesarios. to es particularmente til para un problema e tadstico que pre cota-
remos con ms detalles ms tarde (ver ejemplo 14.l).

8.7 La distribucin hipergeomtrica


Supnga e que tenemos un lote de artculos, de los cuales r on dcfectuo os
y ( - r) no n defectuo os. upnga e que e cogemos, a l azar. n artculos del
lote (11 ~ ), sin su titucin. ea X el nmero de artculo defectuoso encontra-
do . Pue to que X = k si y lo si btenemo exactamente k artculos defectuo o
(de los r defectuoso del lote) y exactamente (n - k) no defectuosos [de los ( - r)
no defectuo os del lote]. tenemo

P(X = k) = (~)(,.': k) k = O, 1, 2... (8.9)


(n)
Se dice que una var iable aleatoria discreta qu1,; tiene la di tribuc1n de probabi-
lidades de la ecuacin (8.9) tiene una di. tribucin hipergeomtrica.
Observacin : pue to que (i:j = Ocada vez que b > a. si a y /1 son enteros negativos. podemos
definir las probabilidades anteriore. para tod k = O, l. 2. . . . Obviamente no podemos
obtener ms que r defectuosos, pero la probabilidad cero ser asignada a e e suceso segn
ecuacin (8.9).

EJEMPLO 8J 2. Se embarcan motore elctrico pequeos en lotes de 50.


ntes de que tal cargamento sea aceptado, un inspector elige 5 motore y lo
inspecciona. Si ninguno de los motores probados es defectuoso, el lote es aceptado.
Si se encuentra que uno o ms on defectuo o , se in pecciona el cargamento
completo. upongamo que, en realidad, hay tres motore defectuosos en el lote.
Cul e la probabilidad de que sea necesaria una inspeccin de 100 por ciento?
i hacemo que X sea el nmero de motore defectuo o encontrado , se ne-
ce itar una in peccin de 100 por ciento i y lo i X ? l. Luego.

~ (~l!:;) = 0.28.
P(X l) =I- P(X = O) = I -
5
11.11 l distribuci6n multinomlal 181

Teorema 8.6. Sea X una distribucin hipergeomtrica dada por la ecua-


cin (8.9). Sea p = r/N, q = 1 - p. Luego tenemo
(a) E(X) = np;
N - n
(b) V(X) = npq ----=l ;

(c) P(X = /<) ~ (:) pk(l - p)" - k,

para grande.
Demostracin: dejaremos lo detalles de la demo tracin al lector. (Ver proble-
ma 8.19.)
Observacin : la propiedad (c) del teorema 8.6 e tablcce que i el tamao del lote es
sulicienlcmente grande, la distribucin de X puede ser aproximada por la distribucin bino-
mial. sto es razonablemente intuitivo. La di tribucin binomial se aplica cuando mues-
treamos con u titucin (puesto que en ese ca o la probabilidad de obtener un artculo defec-
~ permanececon tante), mientras que la distribucin hipergeomtrica e aplica cuando
~treamos in sustitucin. i el tamao del lote es grancfe. no sera mucha la dli'erCnela si
~teulo en particular es devuelto o no al lote antes de escoger el siguiente. La propiedad
(e) del teorema .6 e simplemente una expresin matemtica de e ~ hecho. te e tambin
que el valor esperado de una variable aleatoria hipcrgeomtrica X es el mismo que el de
la variable aleatoria correspond iente distribuida binomialmente, mientras que la varian-
za de X e un poco m pequea que la correspondiente en el ca o binomial. 1 trmino
de correccin (N - n)/( - 1) e aproximadamente igual a 1, para un grande.

Podemos ilustrar el ignificado de (e) con el guiente ejemplo encillo. Su-


pngase que queremos evaluar P(X = 0).
Para 11 = 1. obtenemos de la djstribucn hipergeomtrica, P(X = O) = (N - r)/
N = 1 - r/ = q. De la distribucin binomial obtenemo directamente P(X =
O) = q. Por tanto e tas respuestas son las misma , como deberan ser, adem ,
para n = l.
Para 11 = 2. obtenemo de la di tribucin hipergcomtrica

P(X = 0) = --
N
- r
- -r-1 1 = ( l - -r) (l - r )
N - 1.

De la di tribucin binomial obtenemo P X = O) = q2 Debe ob ervar e que


(1 - r/ ) = q, mientras que [l - r/(N - l)] e casi igual a q.
En general. la aproximacin de la di tribucin hipergeomtrica mediante la
di tribucin binomial ~muy buena i ni ~ 0, 1.

8.8 La di tribucin muJtinomial

Finalmente, con ideremos una variable aleatoria di creta importante de mayor


dimensin, que puede er con iderada como una generalizacin de la di tribu-
cin binomial. on ideremo un experimento e, u e pacio mue tral S, y una
182 La nrlable I 11orl1 d Pols!ioo y otra varlabl al atorlas

particin de S en k suce os mutuamente excluyentes A" . . . , Ak ( decir, cuando


se efecta e uno y slo uno de los suce os A; ocurre). Considrese n repeticione
independiente de e. Sea p1 = P(A 1) y supngase que p1 permanece constante
durante todas las repeticiones. Evidentemente tenemo 1:~ = 1 p1 = 1. Definamo
las variable aleatorias X 1 , .. , X k como sigue.
X 1 es el nmero de vece que A 1 ocurre entre la n repeticiones de e, i = 1, . . . , k.
La X 1 no son variables aleatorias inde~ndientes puesto que .Ef. 1 X; = n. Enton-
ces tan pronto como el valor de cualquiera de las (k - 1) variables aleatorias es
conocido, e determina el valor de la otra. Tenemos el resultado iguiente.
Teorema 8.7. Si X 1, i = 1, 2, . . . k. estn definidas como ante , tenemos

(8.10)

en donde 1:~. 1 n1 = n.
Demostracin : el argumento es idntico al utilizado para establecer las proba-
bilidades binomiales. Simplemente debemo observar que el nmero de maneras
de agrupar n objetos, n1 de lo cuales son de una clase n 2 de los cuales on de se-
gunda da e, ... , nk de los cuales son de una k-sima clase e t dado por
n!
n 1 ! nk !

Observaciones : (a) Si k = 2 lo anterior se reduce a la distribucin binomial. En este caso


designarnos los dos sucesos p0sibles (<xito y fracaso.
(b) La di tribucin anterior se conoce como la distribucin mulLinomial de probabilidades.
Recordemos que los trminos de la distribucin binomial e obtuvieron del desarrollo de
la expresin binomial [p + (1 - p)] = 'Et =o (:)p~l - p) - k. De una manera anloga, las
probabilidades anteriores pueden obtenerse de un desarrollo de la ex.presin multinomal
(p1 + P2 + ... + Pt'f

Teorema 8.8. Suponiendo que (X 1 . . . X k) tiene una distribucin binomial


dada por la ecuacin (8.10). Entonces
E(X;) = np1 y V(X ;) = np1(1 - p;), i = 1, 2, ... , k.

Demostracin : ta es una consecuencia inmediata de la observacin que


cada X 1 como se defini anteriormente tiene una distribucin binomial con pro-
babiljdad de xito (es decir, la ocurrencia de A1) igual a p;.

EJEMPLO 8.13. Se fabrica una barra de un largo especfico. Suponiendo que


el largo verdadero X (pulgadas) es una variable aleatoria distribuida uniforme-
mente en [10, 12]. Supngase que slo es de inters saber si ha ocurrido uno de
los tres sucesos siguientes:

A 1 = {X < 105}, A z = {105 :::;; X~ 118}, y Al = {X > 11 ,8}.


Problemas 183

Tenemos

p1 = P(Ai} = 025, P2 = P(A2) = 065, y p3=P(A3) = 0L

As si se fabrican 10 de tales barra , la probabilidad de obtener exactamente 5 barras


de longitud menor que 10,5 pulgada y exactamente 2 de longitud mayor que
11 8 pulgadas e t dada por

10! 5 3 2
5!3!2!(0,25) (065) (0,1).

PROBLEMAS

8.1. Si X tiene una distribucin de Poi son con parmetro p, y i P(X = 0) = 0,2 calcu-
lar P(X > 2).
8.2. Sea X una distribucin de Poisson con parmetro l. ncontrar el valor de k para
el cual P(X ""'k) e la mayor. [Indicacin : comparar P(X = k) con P(X = k - I).]
8.3. ( ste problema e tomado de P1obabilily a11d Statistical llljerence for E11gi11eers
por Derman y Klein, xford University Pres . LonJr~ !959.) 1 nmero de buques tanques.
digamo N, que llegan cada dia a cierta re meria ttene una di tribucin de Poisson con par-
metro ). = 2. La actua le instalaciones portuaria ~ pueden de pachar tres buques a l da. Si
ms de tre buque tanques llegan en un da, los que estn en exce o deben enviarse a otro
puerto.
(a) En un dia determinado, cul e la probabilidad de tener que hacer salir buques tanques?
(b) n cunto deben aumentarse las instalaciones actuales para permitir la atencin a
todos lo buques tanques aproximadamente el 90 por ciento de los das?
(c) ul es el nmero esperado de buque tanques que llegan al dia?
(d) ul es el nmero ms probable de buques tanques que llegan diariamente?
(e) i.Cul es el nmero esperado de buques tanques atendidos diariamente'?
(f) , 'ul es el nmero e perado de buques tanques devueltos diriamente?
8.4. Supngase que la probabilidad de que un artculo producido por una mquina es-
pecial ea defectuoso es igual a 0,2. Si JO artculos producido , e seleccionan al azar, cul
es la probabilidad de que no se encuentre m de un articulo defectuo o? Use las distribu-
cione binomial y de Poisson y compare las re puesta .
8.5. Una compaia de eguros ha descubierto que slo alrededor del 0.1 por ciento de la
poblacin tiene cierto tipo de acciden te cada ao. Si los 10.000 asegurados fueran seleccio-
nados aleatoriamente en la poblacin cul ser la probabilidad de que no m de 5 de estos
clientes tengan un accidente de ese tipo el prximo ao?
8.6. Supngase que X tiene una di tribucin de Poisson. Si

P(X = 2) = tP(X = 1).,

calcular P(X = O) y P(X = 3).


184 La variable aleatoria de Poi son y otras variables aleatorias

8.7. Un productor de pelculas produce 10 rollo de una pelcula especialmente sensible


cada ao. Si la pelcula no se vende dentro del ao, debe descartarse. Experiencias pasada
indican que D, la demanda (pequea) para la pelicula e una variable aleatoria di tribuida
de Poi on con parmetro 8. Si se obtiene una utilidad de $ 7 en cada rollo vendido, mientras
que ocurre una prdida de $ 3 en cada rollo que debe ser descartado, calcular la utilidad es-
perada que el fabricante puede obtener con los 10 rollos que produce.
8.8 Supngase que una fuente radiactiva emite partculas y que el nmero de tales par-
tculas emitidas durante el perodo de una hora tiene una distribucin de Poisson con parme-
tro .l. e emplea un instrumento para contar y para anotar el nmero de la partculas emi-
tida . Si ms de 30 partculas llegan durante cualquier perodo de una hora, el instrumento
para anotar es incapaz de controlar el exceso y simplemente anota 30. Si Y es la variable aleato-
ria definida como el nmero de partculas anotadas por el instrumento que cuenta, obtenga
la distribucin de probablidade de Y.
8.9. Supnga e que una fuente radiactiva emite partcula y que el nmero de la mismas
emitidas durante un perodo de una hora tiene una distribucin de Poisson con parmetro .t
Consideremos que el instrumento para contar esa emisiones falla ocasionalmente en anotar
una partcula emitida. Supngase, especificamente, que cualquier partcula emitida tiene una
probabilidad p de ser anotada.
(a) Si Y est definida como el nmero de partculas anotadas, cul es una expresin
para la distribucin de probabilidades de Y?
(b) Calcule P( Y = 0) si A. = 4 y p = 0,9.
8.10. Supngase que un depsito contiene 10.000 partculas. La probabldad de que
una de esas partcula salga del depsito es igual a 0,0004. Cul es la probabilidad de que
ocurran ms de 5 salidas? (Puede suponer e que las dver as salidas son independientes unas
de otras.)
8.11. Supngase que un libro de 585 pginas contiene 43 errores tipogrficos. Si e o
errore e tn dstribudos aleatoriamente en el libro, cul e la probabilidad de que 10 pgi-
nas, seleccionadas al azar, estn libre de errores? [Indicaci6n : uponga que X = nmero
de errores por pgina tiene una distribucin de Poisson.J
8.12. Se observa una fuente radiactiva durante 7 intervalos de 10 segundo de duracin
cada uno y se cuenta el nmero de particulas emitidas durante cada perodo. Suponiendo
que el nmero de partculas emitidas, digamos X , durante cada perodo observado tiene una
distribucin de Po on con parmetro 5,0. (Es decir, las partculas on emitidas a razn
de 0,5 partculas por segundo.)
(a) Cu l es la probabilidad de que en cada uno de los 7 intervalos de tiempo, sean emi-
tidas 4 o m partculas?
(b) ul es la probabilidad de que al menos en uno de los 7 intervalos de tiempo, sean
emitidas 4 o ms partculas?
8.13. Se ha encontrado que el nmero de fallas de transistores en un computador elec-
trnico en cualquier perodo de una hora puede considerarse como una variable aleatoria
que tiene una distribucin de Poisson con parmetro 0,1. (Es decir, en promedio hay una falla
de un transistor cada 10 horas). Se inicia cierto proceso que nece ita 20 horas de tiempo de
cmputo.
(a) Encuentre la probabilidad de que ei proceso anterior pueda ser completado exitosa-
mente sin una falla . (Se supone que la mquina llega a ser inoperante slo si fallan 3 o ms
tran istores).
Problema~ 1KS

(b) Lo mi mo que en (a) excepto que la mquina llega a ser inoperante si fallan 2 o ms
transistores.
8.14. Al formar nmeros binario con ,. dgito , la probabilidad de que aparezca un
dgito incorrecto es, digamo , 0,002. Si los errorc son independientes, ,cul es la probabilidad
de encontrar cero, uno o ms de un dgito incorrecto en un nmero binario de 25 dlgitos?
Si el computador orma 106 de tales nmeros de 25 dgitos por segundo, cul es la proba
bilidad de que se forme un nmero incorrecto durante cualquier perodo de un segundo?
8.15. e emplean do procedimientos independientes en la operacin de lanramiento
de cohetes. Supngase que cada uno de los procedimiento se contina hasta que se produce
un lanzamiento exitoso. Se supone que al usar el procedimiento 1, P(S), la probabilidad de
un lanzamiento exitoso es igual a p., mientras que para el procedimiento 11, P(S) = p 2 Se
upone adems, que cada semana se hace un intento con cada uno de los dos mtodos. Repre-
entemos con X 1 y X 2 al nmero de semanas necesaria para obtener un lanzamiento exitoso
por medio de 1 y [I respectivamente. (Luego X, y X 2 son variables alea1orias independientes,
que tiene cada una una di tribucin geomtrica). Sea W el mnimo (X., X 2 ) y sea Z el m-
ximo (X 1, X 2) . Por tanto W repre enta al nmero de semana necesarias para obtener un
lanzamiento exitoso mientras que Z repre enta el nmero de semanas necesarias para obtener
lanzamientos exitosos con ambos procedimiento . (Luego si el procedimiento 1 resulta en S S,
mientras que el procedimiento 11 re ulta en SSS, tenemos W = 3, Z = 4).
(a) Obtener una expresin para la distribucin de probabilidades de W. [Indicacin :
ex pre e en runcin de X 1 y X 2 , el suceso { W = k }.]
(b) Obtener una expresin para la distribucin de probabilidade de Z.
(c) E cribir nuevamente la ex.presiones anteriore si P = p 2
8.16. Se arman cuatro componentes en un solo aparato. La componentes originan
uente independientes y p 1 = P(i- irna componente es deectuosa), i = 1, 2, 3, 4.
(a) Obtener una expresin de la probabilidad para que el aparato completo funcione.
(b) Obtener una ex.presin de la probabilidad' para que al meno tres componentes un-
cionen.
(c) Si p 1 = p2 = 0,1 y p3 = p4 = 0,2, calcule la probabilidad de que funcionen exacta-
mente dos componentes.
8.17. Un mecnico mantiene un gran nmero de arandelas en un depsito. El 50 por
ciento de esas arandelas son de! pulgada de dimetro, el 30 por ciento on de t pulgada de
dimetro, y el 20 por ciento restante con i pulgada de dimetro. Se upone que se eligen
10 arandelas.
(a) Cul es la probabilidad de que haya exactamente cinco arandelas de! pulgada, cuatro
de t de pulgada, y una de i de pulgada?
(b) ul es la probabilidad de que lo haya dos clase de arandelas entre las elegidas?
(e) Cul es la probabilidad de que las tres clases de arandelas estn entre las elegidas?
(d) Cul es la probabilidad de que haya tre de una clase, 1re de otra cla e, y cuatro de
la tercera clase en una muestra de IO?
8.18. Demo trar el teorema 8.4.
8.19. Demo trar el teorema 8.6.
8.20. 1 nmero de partculas emitida por una fuente radiactl\'a duran!..: un perodo
especfico es una variable aleatoria con una di tribucin de Poisson. Si la probabilidad de
ninguna emisin es igual a t, cul es la probabilidad de que ocurran 2 o ms emisiones?
1116 l .a varfahle 11lea1oriA de Pol~n y otra~ variabl s aleatorias

l!.2 L Supngase que X,. el nmero de panculas emitidas en 1 horas por una fuente
radiactiva. tiene una distribucin de Pois:.on con parmetro 20 l. ;, ul es la prohahilidad
de que exactamente 5 partculas sean emitida. durante un perodo de 15 minuto ?
8.22. La probabilidad de un lanzamiento exito o e igual a 0,8. Supongamos que se hacen
en ayos de lanzamientos ha ta que han ocurrido 3 lanzamientos exitoso . , ul es la pro-
babilidad que ean necesarios 6 in tento ? ,Cul es la probabilidad de que sea n necesarios
menos de 6 intento ?
8.23. n la ituacin de crita en el problema 8.22, supongamo que los ensayos de lan-
zamiento se hacen ha ta que ocurren tres lanzamientos conseclllivos exitoso . Responda las
preguntas formulada en el problema previo en este caso.
8.24. Con idere nuevamente la ituacin de crita en el problema 8.22. Supngase que
cada uno de lo ensayo de lanzamiento cuesta 5.000. Adcm , un lanzamiento que fracase
produce un costo adicional de 500. alcular el co to esperado para la situacin de crita.
8.25. on X y Y definidas como en la seccin 8.6. probar o refutar lo iguiente:
P(Y < n) = P(X > r).
9
Algunas variables aleatorias continuas importantes

9.1 Introduccin

En e le captulo proseguiremos la tarea que nos i1mpu irnos en el captulo 8


y e ludiaremos con mucho detalle varias variables aleatorias continuas impor-
tantes y su caracter ticas. 'omo lo sealamo ante , muchos problemas llegan
a ser matemticamente ms sencillos al considerar un recorrido idealizado
para una variable aleatoria X, en el cual todos los nmeros reales posib les (en
algn intervalo especfico o conjuntos de intervalos) pueden considerar e como
resultado po ible . De e ta manera llegamos a las variable aleatoria continua .
Mucha de la variable aleatorias que presentaremo ahora tiei;ien aplicaciones
importante y pospondremo ha ta un captulo po terior la exposicin de algunas
de sus aplicacione .

9.2 La distribucin normal

na de la variables aleatorias continuas ms importantes es la siguiente.

Definicin. La variable aleatoria .\ . que toma todos lo valores reales


<x < . tiene una distribucin normal {o Gaussiana) i u dp es
de la forma

Ji (J 2
[X -
f(x) = -l - exp ( --l - -
(J
] 2) , <x< (9.1)

os parmetros y <1 deben sa tisfacer la s c-0ndiciones < <


u > O. Puesto que tendremos muchas ocasiones de reerimos a la distri-
bucin anterior utilizaremos la notacin siguiente: X tiene la distribu-
cin (, rr 2 ) si y s lo si su distribucin de probabilidades est dada por
la ecuacin (9.1). [ recuentemente usamos la notacin exp(t) para repre-
sentar l.]
Esperaremos hasta el captulo 12 para exponer la razn de la gran importan
cia de esta distribucin. Indiquemos encillamente ahora que la distribucin
1R7
11111 l~una~ ~orloble., ak torio' CtHlllnuo<; importante~

normal sirve como una aproximacin excelente a una gran ccmtidad de distribuciones
que tienen mucha importancia prctica. An m , e ta di tribucin tiene varia
propiedades matemticas apreciable que hacen posible deducir importante re-
sultado tericos.

9.3 Propiedade de Ja distribucin normal

(a) Digamo que f e una fdp leg.tima. videntemente f(x) ~O. Adems
debemos verificar que J"!: 00 f(x) dx = l. Notemos que al hacer t = (x - )/ q, po-
demo e cribir J!:: J(x)dx como (1 /Ji) J ~ e- 12' 2 dt = J.
El true utilizado para evaluar esta integral (y esto es un truco) e considerar
en vez de / ,el cuadrado de e ta integral, llamada 12 As

=
1
21t ff
_+ _+
e - <1 + ,2112 dsdt.

Introduzcamos coordenadas potare para evaluar la integral doble:

s = r co ex, t = r sen ex.

Luego el elemento de rea ds di e transforma en r dr da.. Cuando s y t varan


entre - y + oo, mientras que r vara entre O y ro, mientras que ex vara entre
O y 2n. Luego
f(x)

12 = -
21t o
12" looo re - . drdcx.
2
12

J f 2n
= 2tr o dcx = 1.

Por lo tanto ' / = 1 como e iba a demostrar. FIG .RA 9.1

(b) 'onsideremo la forma del grfico de f. Tiene la muy conocida forma de


campana indicada en la figura 9.1. Pue to que f depende slo de x mediante la
expre in (x - } 2 , es evidente que el grfico d f er simtrico respecto a .
Por ejemplo, i x = t + 2, (x - ) 2 = ( + 2 - ) 2 = 4, mientra que para
x = - 2, (x - ) 2 = ( - 2 - ) 2 = 4 tambin.
9 . Propiedadt>s de la di'>lribucin normal 1!19

1 parmetro u puede interpretar e geomtricamente. Ob ervemos que para


= el grfico de f es cncavo hacia abajo. Cuando x -+ ex:>, f(x) -+ O, asin-
tti ca mente. Puesto que f(x) ;;:::: O para todo x , esto significa que para grande
valores de x (po itivos o negativos). el grfico de .f e cncavo hacia arriba. El
punto en el cual cambia la concavidad e llama punto de inflexin, y se determina
a l resolver la ecuacin f "(x) = O. Cuando hacemo e to, encontramo que los
puntos de inflexin ocurren en x = <J. Esto e , u unidade a la derecha y a
la izquierda de el grfico de f cambia de concavidad. A , i u es relativamente
grande, el grfico de f , tiende a ser achatado, mientras que i <J es pequeo
el grfico de f tiende a er muy aguzado.
(c) Adems de la interpretacin geomtrica de lo parmetro y u la si-
guiente interpretacin probabil tica puede asociarse con e a cantidades. Con-
idrese

E(X) = - 1- f+ x exp (' - -j [X


-- ] 2) dx .
.j'Iu _.., . 2 u

Haciendo z = (x - t)/ a y ob ervando que dx = u dz, obtenemos


E(X) =- 1 -f
fi -
+ (uz + ) e-=' 2 dz

l u f+
= --
fl -
ze - l/ 2 d z + -1-
.Jii -
f
+

La primera de la integrale anteriore e igual a cero pue to que el integrando.


ll~mmo lo g(z), tiene la propiedad de que y(z) = - g( - z), y, por lo tanto, g e
una funcin impar. La segunda integral (sin el factor t) repre enta el rea total
bajo la fdp normal y, por 1 tanto, e igual a la unidad. Luego E(X) = .
A continuacin consideremo

E(X 2 ) = - -f
J2
1
(J -
+
2
1
x 2 exp ( - - x -
(J
2
) dx .

Haciendo nuevamente z = (x - 1)/u , obtenemos

E( X 2 ) = -1- f +
fi -

+ 2 1
pr:;
... .t.1t
f
-
+ e- zl/ 2 d z.
14JO li:una' uriablc~ al aloria~ continua~ importan! s 9.3

La egunda integral nuevamente e igual a cero por el argumento u ado anterior-


mente. La ltima integral ( in el factor 2 ) e igual a la unidad. Para calcular
(l /j21t) J ~ z2 e-' 2 ' 2 dz, integramo por partes haciendo ze-"' 2 = dv y z = u.
2
Luego 11 = -e -' ' 2 mientras que dz = du . Se obtiene

+ = -ze -: /21+
2
f
--
1
fo - f z2 e- =212 dz
fo -oo
+ --.
fa
+oo

- oo
e- 12 dz =O+ l = l.

Luego, E(X 2 ) = a 2 + 2 , y por tanto V(X) = E(X 2 ) - (E(X)) 2 = a 2 . As encon-


tramos que los dos parmetro y a 2 que caracterizan la distribucin normal son
la e peranza y la varianza de X, respectivamente. Para ponerlo en forma di tinta,
i abemo que X est distribuido normalmente, slo sabemos que u distribu-
cin de probabilidades es de cierto tipo (o pertenece a cierta familia). Si adems
conocemo E(X) y V(X), la di tribucin de X e t e pecificada completamente.
orno anteriormente lo mencionamos, el grfico de la fdp de una variable alea-
toria distribuida normalmente e imtrca re pecto a . 1 achatamiento del
grfico e determina por <J 2 en el entido de que si X tiene una di tribucin
N(, <Jn y Y tiene distribucin N(i, an,
en donde ai > <J~ , entonces sus fdp
tendran la forma relativa que e muestran en la figura 9.2.

FIGURA 9.2

(d) Si X tiene una distribucin N(O, 1) decimo que X tiene una distribucin
normal e iandarizada. Esto es, la fdp de X puede escribirse como

( )
<pX = -1- e - ,,212. (9.2)
J2
(U aremo la letra <p slo para la fdp de la variable aleatoria X anterior). La im-
portancia de la distribucin normal estandarizada se debe a que e t tabulada.
Cada vez que X tiene una distribucin N(, q 2) siempre podemo obtener la forma
estandarizada, tomando simplemente una funcin lineal de X como lo indica
el teorema siguiente.

Teorema 9.1. S X tiene la di tribucin N( , a 2 ) y si Y = aX + b, entonces


Y tiene la distribucin N(a + b. a 2 q 2 ).
'J.4 Tabulacin de la di~trihucilm normol 1'J I

Demostracin: el hecho de que E( Y) = a + b y que V( Y) = a 2 u 2 se deduce


inmediatamente de las propiedade de la esperanza y la varianza expue ta en
el captulo 7. Para demostrar que de hecho Y e t distribuida normalmente,
podemo aplicar el teorema 5.l , pue to que aX +be una funcin de X decre-
ciente o creciente, egn d 1 igno de a. Luego, i g es la fdp de Y, tenemos

g(y) =
fo
-1
u 2u a
[y -
exp ( - - 12 - -b -11 ]
2
) 1-11
a

= ~ I I exp( - 2a
2n a a
+ , [y -
a
(at + b)J 2) ,

que representa la fdp de una variable aleatoria e n di tribucin (at + b, a 2 u 2 ).

Corolario : i X tiene distribucin (, u 2 ) y si Y = (X - 1)/ u, entonce Y


tiene di tribucin (0, 1).

Demostracin : es evidente que Ye una funcin lineal de X. y por tanto se aplica


el teorema 9.1.

Obserracin : la importancia de e te corolario e que al cambiar las 1111idades en las cuales


e mide la variable podcmo obtener la distribucin estandarizada (ver d). Al hacer esto. o~
tenemos una di tribucin donde ningn parmet ro e no especificado, lo cual es una situacin
muy propicia bajo el punto de vista de la tabulacin de la distribucin (ver la prxima seccin).

9;4 Tabulacin de la distribucin normal

Supngase que X tiene di tribucin N(O, l). Luego

P(a ~X ~ b) = }:i= b e-x>1i dx.


v 2n Ja

Esta integral no pue.de evaluarse por mtodos ordnario . (La dificultad proviene
del hecho que no podemo aplicar el Teorema undamental del lcu lo puesto
que no podemo encontrar una funcn cuya derivada ea igual a e-x 212 ). in em-
bargo, lo mtodo de integracin numrica pueden u ar e para evaluar inte-
grales de la forma anterior, y de hecho ha ido tabulado P(X ~ s).
La fda de la distribucin normal e tandarizada se denotar permanentemente
como <D. to e ,

<D(s) = vFJ:::
12n f'
_
e- " 212 dx . (9.3)
192 Algunas variables alealorias rontinulis importantes 9.4

(Ver figura 9.3). La funcin <l> ha ido tabulada ampliamente, y en el Apndice


e da un extracto de tal tabla. Podemos u ar ahora la tabulacin de la funcin <l>
con el objeto de evaluar P(a ~ X ~ b). en donde X tiene la distribucin estan-
darizada N(O, 1) pue to que

P(a ~ X s:; b) = <l>Cb) - <l>(a) .

.p(x)

FIGURA 9.3

La importancia particular que tiene la tabulacin anterior se debe al hecho de que


i X tiene cualquier distribucin normal N( u 2 ) la funcin tabulada <1> puede
usarse para evaluar probabilidades asociadas con X.
Simplemente u amos el teorema 9.1 para ob ervar que si X tiene distribucin
N(, a 2 ) , entonces Y = (X - )Ju tiene di tribucin N(O, 1). Por tanto

P(a ;s; X ~ b) = P (a-


- a- ~ Y
b- )
~ - O'-

(9.4)

Es tambin evidente de la definicin de <1> (ver figura 9.3) que

<t>( - x) =1- <1> (x). (9.5)

sta relacin e muy til puesto que en la mayora de la tablas la funcin <1> se
tabula slo para valore positivos de x.
Calculemos finalmente P( - ka s:; X s:; + kq), en donde X tiene distri-
bucin N( , q 2 ) . La probabilidad anterior puede expresarse en funcin de <l>
escribiendo

P( - kq ;s; X s:; + kq) X-


= P ( -k ~ -a- ~ k
)

= <ll(k) - $( - k).
Usando la ecuacin (9.5), para k > O tenemos,

P( - ku ~ X ~ + ka) = 2<ll(k) - l. (9.6)


9.4 Tabulacin de ht dlslrlhuclim mmnal llf.\

Ntese que la probabilidad_ anterior e independiente de t' y a. En palabras: la


probabilidad de que una variable aleatoria con distribucin N(, 11 2 ) tome valore
dentro de k de viacione estndar del valor e perado depende s lo de k y est
dado por la ecuacin (9.6).

Observacin: tendremos muchas oportunidades para reerimos a unciones tabuladas.


En un sentido dado, cuando una expresin puede e cribirse en trminos de runcione tabuladas,
el problema est resuello. (Con la di ponbilidad de medios modernos de computacin,
muchas funcione que no on tabuladas pueden evaluar e fcilmente. Aunque no esperamos
que todos tengan fcil acceso a un computador, no parece ilgico suponer que ciertas tablas
comunes estn disponible). A , no deberamo entir tan cmodo con la uncin ct>(x) =
(1/Jh'J!. .., e-l/2 ds como con la uncin f(x) = .jX. Ambas funciones e tn tabulada.
y en algunos casos podramo tener alguna dificultad para calcular directamente la funcin
para x = 0,43, por ejemplo. Varias tablas de algunas de las funciones ms importantes que
encontraremos en nue tro trabajo aparecen en el Apndice. O asionalmente se harn ree-
rencia a otra tablas que n aparecen en este texto.

EJEMPW 9.L Supnga e que X tiene distribucin (3, 4). De eamo encon-
trar un nmero e tal que

P( >e)= 2P(X ~e).

Observemo que (X - 3)/2 tiene di tribucin (0. 1). Por tanto

P(X >e) = P ( -X 2
-- 3> -e -2-3) = 1 - (e- -2-3) .c1>

Tambin,

P~X :;:; e) = P - (X-2- 3:;:; -e -2-3) = ID (e- -2-3)


La condicin anterior pue.de e cribir e por tanto, como l - <l>[(c - 3)/ 2] =
2Cl>[(c - 3)/ 2). Esto se reduce a <l>[(c - 3)/2] = l Por tant (de la tabla de la dis-
tribucin normal), encontramos que (e - 3)/ 2 = - 0.43, dando e = 2, 14.

EJEMPLO 9.2. Supnga e que la resistencia a romper e de un gnero de al-


godn (en libras), llammosle X, est distribuida normalmente con E(X) = 165
y V(X) = 9. Suponiendo adem que una mue tra de este gnero e considera
defectuosa si X < 162, cul es la probabilidad de que un gnero elegido al azar
sea defectuoso?
Debemos calcular P(X < 162). Sin embargo,

P(X < 162) = p(X -3 165 < 162; 165)


= <l>( - 1) =1- <1>(1) = 0,159.
Obs(rraci11 : una Objecin inmediata al uso de la distribucin normal puede encontrarse
aqu. E obvio que X. la resistencia del gnero de algodn. no puede tomar valores negativo~.
mientras que una variable aleatoria distribuida normalmente puede tomar todo los alorcs
positivos y negativos. Sin embargo. el modelo antcri.o r (aparentemente invalidado en vista
de las objeciones encontradas) asigna una probabilidad de precia ble al suce. o {X < Ol .
E to es.

P(X < O) = P
X - J 165 < O
- - 16) = (l>( - 55) - O.
( 3

La situacin que aparece aqu ocurrir con frecuencia: se upo ne que cierta variable aleatoria X
que sabemos que no puede tomar valore negativos tiene una distribucin normal. tomando
asi (tericamente. a lo meno') ambos. valore positivo y negativos. Mientras que e escojan
los parmetros y a 2 de modo que P X < 0} sea prcticamentc cero. tal representacin e
perfectamente vlida.

El problema de encontrar la fdp de una funcin de una variable aleatoria.


llammosla Y = H(X ). como e expu o en el captulo 5. aparece en el conte to
presente en el cual la variable aleatoria X e t distribuida normalmente.

EJEMPLO 9.3. Supnga e que el radio R de un cojinete de e fera e t dis-


tribuido normalmente con val r esperado 1 y varianza 0.04. Encuentre la fdp
del volumen del cojinete.
La fdp de la variable aleatoria R est dada por

2
1 ( 1[,. - 1]
f(r) = J 2n (0.2) exp - 2 .2
)

Pue to que V e una funcin de R montonamente creciente. podemo aplicar


directamente el teorema 5.1 para la fdp de V = 4/ 3nR 3 , y obtener g(v) = f(r)(dr/dv),
en donde en todas partes re t expresado en funcin de v. De la relacin anterior.
obtenemo r = ;}3v/4n. Luego dr/dv = (l /4n)(3i'/41t) - 213 Al u tituir esa ex-
presiones en la ecuacin anterior, obtenemos la fdp de eada de V.

EJEMPLO 9.4. Supnga e que X, el dimetro interior (milmetro ) de una


tobera. es una variable aleatoria di tribuida normalmente con e peranza y
varianza J. Si X no satisface cierta especificacione . le produce una prdida al
fabricante. Ms exactamente, upnga e que la utilidad T (por tobera) es la si-
guiente funcin de X:

T = C 1 (pesos) si 10 ~ X :::;; 12.

SI X< 10,

X > 12.
9. La d~lribucin e ponL'ftcial 195

or tant , la utilidad e perada (por tobera) puede e cribir e como

E(T) = C 1 [<1>(12 - ) - ct>(IO - )


- C2[<1>(10 - tt)] - 3[l - <1>(12 - )
= (C1 + C3)<l>(l2 - ) - (C1 + 2)<1>(10 - ) - J

upnga e que el proce o de fabricacin puede alterarse de modo que e puedan


obtener diferentes valore de .Para qu valor de es mxima la utilidad espe-
rada? Debemos calcular dE(T)/(d) e igualarla a cero. Denotando, como e co-
rriente, la fdp de la di tribucin N(O, 1) por <p, tenemos

Luego

- ( 1 +C3) ~exp( - t(l2 - ti) 2 )


...;21f.

+( 1 + 2) ~ exp ( - ( l O - ) 2) = O.
v 2x
o

A
= 11

[E fcil para el lector verificar que lo anterior da. un valor mximo para E(T)].

Observaciones: (a) Si C 2 = C 3 , e decir, si el dimetro X es muy grande o muy pequeo,


igualmente son defecto importantes. entonces el valor para el cual e obtiene el valor mximo
de E(T) es = 11. Si C 2 > 3, el valor de es > l l, mientras que si C 2 < 3 , el valor de
e < 11. Cuando--++ oo, E(T) - C3 , mientras que si --+ - oo, E(T)--+ -C 2 .
(b) onsidrense lo valores de los costos siguientes: 1 = $10, C 2 = 3, y C 3 = $2.
Entonces el valor-<le para el cual E(T) se maximiza es igual a = 11 - 1 In [HJ = SI l,04.
Luego el valor mximo obtenido por E(T) es igual a $6,04 por tobera.

9.S La distribucin exponeociaJ

Definicin. Se dice que una variable aleatoria continua X que toma todos
los valore no negativos tiene una distribucin exponencial con parmetro
a positivo si su fdp e t dada por
/(x) = ae-"", x > O
= O, para cualquier otro valor. (9.7)
1% Ali:una~ \'ariabl s al 11torl11i. ontinuns importantes 9.6

(Ver la figura 9.4) [Una integracin inmediata indica que

e f(x)dx = 1

y por tanto. la ecuacin (9.7) repre enta una fdp.]

f(x)

FrGU:RA 9.4

La distribucin exponencial desempea un papel importante en la descripcin


de una gran clase de fenmenos, especialmente en el rea de la teora de la confia-
bilidad. Dedicaremos el captulo- 1 f a algunas de estas aplicaciones. Por el mo-
mento, investiguemo encillamente algunas de la propiedade de la distribucin
exponencial.

9.6 Propiedade de la di tribucin exponencial

(a) La fda F de la di tribucin exponencial est dada por;

F(x) = P(X ;S; x) = }~ r:1.e- Q' de = J - e- u, x ~ O (9.8)


= O. para cualquier otro valor.
[Por tanto P(X > x) = e-uJ.

(b) El valor esperado de X e obtiene como sigue:

E(X) = J'o x cxe-"" dx.


Integrando por partes y haciendo r.xe-~ dx = dv x = 11, obtenemos v = - e- Qx,
du = dx. Luego,

(9.9)
9.6 Propiedad d la di~trlbucin oponencl11l 197

As el valor e perado es igual al recproco del parmetro e<. [Simplemente redeno-


minando el parmetro lj = l /P. podramos haber e crito la fdp de X como .f(x) =
( l//J)e -x1/i . De esta manera. el parmetro /J es igual al valor e perado de X. Sin
embargo, continuaremo u ando la forma de la ecuacin (9.7).]

(c) La varianza de X puede obtenerse con una integracin emejante. En-


contramos que E(X 2 ) = 2/'X 2 y por tanto

V(X) = E(X 2 ) - [E(X)] 2 = ~


lj
(9.10)

(d) La distribucin exponencial tiene la important propiedad iguiente.


anloga a la ecuacin (8.6) de crita para la distribucin geomtrica. Con ide-
rando para cualquier s. t > O, P(X > s + r ! X > s). Tenemo
P(X + l) -a(s+I)
P(X > .~ + e1 X > s) = > '- - = _e _ _ = e - ~.
P(X > s) e- as
Por tanto
P(X > s + t 1X > $1 = P(X > t). (9.11)

As hemo demo trado que la di tribucin exponencial tambin tiene la propiedad


de no tener memoria como ia distribuci~>n geomtrica. (Va e la obser acin
que sigue al teorema 8.4). Hacemos uso con,id~rable de e ta pr piedad al aplicar
la di tribucin exponencial a lo modelo de fa tiga en el captulo 11.

Observacin: como en el caso de la distribucin geomtrica. la inversa de la propiedad (d)


tambin es cierta. La nica variable aleatoria continua X que toma valore no nega1ivos
para los cuale P(X > s + 1 1X > s) = P(X > 1) para s. r > O. es una variable alealoria
distribuida exponencialmente. (Aunque no demostraremos esto aqu. podra ealar e que
la ba e del argumento implica el hecho de que la nica funcin continua G que tiene la pro-
piedad que G(x +y) = (x)G(y) para todo x.)' > O. es G(x) = e- t . Se ve fcilmente que si
defnimo G(x) = 1 - F(x). en donde Fe la fda de .Y. luego G satisfaril esta condicin.]

EJEMPLO 9.5. upngase que un fu ible tiene una duracin X que puede
considerar e como una variable aleatoria continua con una di tribucin expo-
nencial. Hay do proce os mediante los cuale se puede fabricar el fu ible. 1
proce o 1 da una duracin e perada de 100 hora (e to e , el parmetro e igual
a 100 - 1). mientra que el proce o Il da una duracin esperada de 150 hora (esto
e . el parmetro es igual a 150 - t). Suponiendo que el proceso 11 es dos vece m
costo o (por fu ible) que el proce o l, el cual cuesta C por fu ible. upnga e.
adems, que i un fu ible dura menos de 200 horas. e carga una prdida de K pe o
en contra del fabricante. Qu proce o e deber usar? alcu lemo el costo espe-
rado para cada uno de lo proce o . Para el proce o l. tenemo

1 = co to (por fu ible) =C si X > 200


=C+K X :s; 200.
1'111 l:una' \uriabl"' ull111orl11' continua~ important ;.. ~.6

Por tanto.
E( 1) = CP(X > 200) + ( + K}P(X ~ 200)
= ce - 0 1100) 200 + (C + K)(J _ e - 0 11001200)

= ce- 2 + ( + K)(t - e- 2 ) = K(I - e- 2 ) +


on un clculo emejante encontramos que

E( 11) = K(t - e- 413 ) + 2C.


Luego
E( 11) - E(C 1) = + K(e - 2 - e- 4 13) = C - 0,13K.

Por tanto, preferimo el proceso 1 dado que > 0, 13 K.

EJEMP o 9.6. Supngase que X tiene una distribucin exponencial con pa-
rmetro ex. ntonce E(X) = 1/a.. Calculemos la probabildad de que X sobrepase
u valor e pcrado (figura 9.5). Tenemo

P (x > ~) = e - (1 1">
f(x)

= e- 1
<i.

x .. 1/a

FIGURA 9.5

EJEMPLO 9.7. Supnga e que T, el tiempo para que falle un componente.


e t distribuido exponencialmente. Luego f(t) = ae - "' . i e instalan 11 de tales
partes, cu l e la probabilidad de que la mitad o m de esas parte funcionen
an a l trmino de t horas? La probabilidad pedida es

j: ( 11) (1 _ e - "')" - k(e - 'k) s1 ne par;


k"' n/2 k

EJEMPLO 9.8. Supngase que la duracin en horas, llammo la T, de cierto


tubo electrnico e una variable aleatoria con una di tribucin exponencial con
parmetro {J. Esto es, la fdp est dada por f(I) = Je-P, t >O. Una mquina que
9.7 La dislribh iln g11m11 199

usa e te tubo cuesta C 1 pesos/hora para funcionar. Mientra la maquina est


funcionando, se obtiene una utilidad de C 2 pe os/hora. Debe contratar e un
operador para un nmero prefijado de horas, digamos H, y obtiene un pago de C 3
pe o /hora. Para qu valor de H es mayor la utilidad esperada?
Obtengamos primero una expresin para la utilidad, llammo la R. Tenemo

T ::,; H .

Ntese que R e una variable aleatoria pue to que es una funcin de T. Luego

E(R) = H(C 2 - C1 - 3)P(T > H) - C3HP(T ::,; H)


H
+ (C2 - 1) J cpe - 11' dt
0
= H(C2 - 1 - C3)e - PH - C 3 H(l - e- 1111 )
+ (C2 - i)[p- l - e-llH((J- i + H))
= (C2 - C i)[He - 1111 + {r 1 - e- 118 (/1- 1
+ H)] - 3 H.

Para obtener el valor mximo de E(R) lo diferenciamos con respecto a H y


hacemos la derivada igual a cero. Tenemo

dE(R) = (C2 - Ci)[H( - /J)e -llH + e-1111 - e- 1111 + (p-1 + H)(/J)e - PH] - C3
dH
= (C2 - Ci)e - llH - C3.

Luego dE(R)/dH = O implica que

[A fin de que la olucin anterior sea significativa, debemo tener H > O lo que
ocurre i y slo si O < C 3 /(C 2 - C 1) < 1, lo que a su vez es equivalente a C2 - i > O
y C 2 - C 1 - C 3 >O. Sin embargo, la ltima condicin requiere sencillamente
que las cifras del costo sean de una magnitud tal que pueda obtenerse una uti-
lidad.]
Suponiendo en particular que fJ = 0,01 , e, = 3, C 2 = 10, y C 3 = 4.
Luego H = - 100 In[~] = 55,9 horas ~ 56 horas. Luego el operador debe ser
contratado por 56 horas a fin de obtener la utilidad mxima. (Para una modifi-
cacin ligera del ejemplo anterior, ver el problema 9.18.)

9.7 La distribucin gama

Pre entemos primero una funcin que es muy importante no slo en la teora
de probabilidad, sino en muchas reas de la matemtica .
9.7

Definicion. La funcin Gama denotada por . se define com sigue:

f(p) = ( xr e - .. dx, definida para p > O. (9.12)


o

[Puede demostrar e que existe la integral impropia anterior (converge) si


= dv y xP - = u. obtenemo
p > O]. Si intcgramo por partes, haciendo ,, - " dx

= O+ (p - 1) (' e - ~xP 2 dx
o

= (p - J)f(p - 1). (9. 13)

As hcmo demo trado que la funcin Gama sigue una importante relacin re-
cur iva. uponiendo que p es un entero positivo. hagarno p = 11. "ntonces apli-
cando la e uacin (9.13) repetidamente, obtenernos

(n) = (11 - 1) (n - 1)
= (n - l)(n - 2)f(n - 2) =
= (11 - l)(n - 2) f(I).

in embargo. (1) = Jo e-'dx = l. por tanto tenemos

r(n) = (n - I)! (9. 14)

(si n e un entero p itivo). (Lueg podemos considerar que la funcin Gama es


una genera lizacin de la funcin fac.!._ral). Tambin es fcil verificar que

(9. 15)

(Ver problema 9.19).


Con la ayuda de la uncin Ga.ma pod.:mo pre entar ahora la di tribucin
Gama de probabi lidades.

Definicin. Sea X una variable aleatoria continua que torna slo va lores
no negativos. Decimos que X tiene una di.stribucin de probabldades Gama
si su dp est dada por

f(x) = ~r) (~.x)' - 1 e -"'. x > O

= O. para cualquier otro valor (9. 16)


9.R Propicd11de~ de la dMribucl m gamu 201

E ta distribucin depende de los du:> 1orrmetros, r y '.X. de los cuale pedimos


r > O, r.x > O. [Debido a la definicin de la funcin Gama. e fcil ver que
J!. 00 / (x)dx = l.] La figura 9.6 muestra el grfico de la fdp de la ecuacin (9.16)
para diver os valores de r y r.x = l.

f(x)

IOURA 9.6

9.8 Propiedades de la distribucin Gama

(a) i r = 1, la ecuacin (9.16) e tran forma en f (x) = 'Y.e - u. Luego la di -


tribucin exponencial es un ~special de la distribucin Gama. (Si re un entero
pt> iti vo > l. la di tribucin gama e t relacionada tambin con la di tribucin
exponencial. pero de ttn modo ligeramente diferente. Nos referiremo a e to en
el captulo 10).

(b) n la mayora de nue tra aplicaciones el parmetro r ser un entero


positivo. ne te ca o, una relacin intere ante exi te entre la fda de la di tribucin
gaftia y la di tribucin de Poi son, que de arrollaremos ahora.
Con iderand la integral 1 = J:> (e -~y' 1 r!)dy, en donde re un entero positi-
vo y a > O. Luego r!J = f:> e- 1 y dy. Integrando por partes, haciendo 11 = y y
dv = e->'dy, obtendremo,s du = ry' - 1 dy y v = -e - r. Luego r!/ = e - "a' +
rJ::' e- 1 y'- 1 dy. La integral en e ta expre in es exactamente de la mi ma forma
que la integral original con la su titucin de r por (r - 1). A , al continuar inte-
grando por partes, pusto que r e un entero po itivo, obtenemo

r!I = e-"[a' + ra' - 1


+ r(r - l)a - 2 + + r!].
Por tanto
I = e- "[1 + a+ a 2 /2! + + a'/r!]
r
= L P(Y = k).
k=O

en donde Y tiene una di tribucin de Poi on con parmetro a .


..
'
202 l~una~ ~ariabk~ 11lc11turh&\ continua.~ imporhmtc-s 9.11

Consideremo ahora la da de la variab le aleatoria cuya dp e t dada por


la ecuacin (9. 16). Puesto que r es un entero positivo. la ecuacin (9.16) puede
e cribir e como

y por consiguiente la fda de X e transforma en

F(x) = 1 - P(X > x)

Haciendo (as) = u, encontramo que esto e lran forma en

l
oo llr - le - u
F(x) = 1- -
,._.(r - 1) !
- du, X> 0.

E la integral es precisamente de la forma considerada anteriormente, llamn-


dola l (con a = ax). luego

r- 1
F(x) = 1 - e-"-'"(-x )k/k!. x >O. (9.17)
k O

Por tanto, la fda de la distribucin Gama puede expresarse mediante la fda ta-
bulada de la di tribucin de Poisson. (Recordamo que e to es vlido i el par-
metro r es un entero po itivo.)

Oh.w,n(1cilm : el resultado indicado en la ecuacin (9.17). que relaciona la fda de la distri-


bucin de Pois on con la da de la distribucin Gama. no e tan sorprendente como podra
aparecer a l principio, tal como lo indicar la siguiente exposicin.
Primero que todo, recordemos la relacin entre la distribuciones de Pascal y binomial
(ver observacin (b) seccin 8.6). Una relacin sim ilar existe entre la distribucin de PoiSl on
y Gama considerando que la ltima es una distribucin continua. uando tratamo una dis-
tribucin de Poisson estamos interesados especia lmente en el nmero de ocurrencias de algn
suceso durante un perodo lijo de tiempo. Y. como e indican. la distribucin Gama aparece
cuando pedimos la distribucin del tiempo necesario para obtener un nmero especilicado
de ocurrencias del suceso.
E pedlicamente, upngase que X = nmero de ocurrencias del suceso A durante (0, 1).
Entonces bajo condiciones emejantes (es decir, satisfaciendo la hiptesis A 1 hasta As en la
eccin 8.3) X tiene una distribucin de Poi on con parmetro al. en donde rx es el nmero
9.9 La d~lribucin t. m1drado 21 3

e pcrado de ocurrencias de A durante un intervalo de tiempo unilario. Sea T = tiempo ne.


ce ario para observar r ocurrencias de A. Tenemos

H(t = P(T ~ 1) = 1 - P(T > 1)


= 1 - P(menos que r ocurrencias de A acontecen en (0. r])
=I - P(X < r)

Comparando esto con la ecuacin (9.17) se estatilece la relacin deseada.

(c) i X tiene una di tribucin Gama dada por la ecuacin (9.16). tenemos

E(X) = r/:J.. V(X) = r/:J. 2 . (9.18)

Demoscracin: ver el problema 9.20.

9.9 La distribucin x-cuadrado

Un caso especial, muy importante: de la distribucin Gama ecuacin (9.16)


se obtiene si hacem a = 1 y r = 11/ 2, en donde n es un entero po ilivo. Obtene-
mos una familia de distribucione de un parmetro con fdp

z > O. (9.19)

Una variable aleatoria Z que tiene fdp dada por la ecuaci n (9.19) e dice que
tiene una distribucin x-cuadrado C0/1 n grados de libertad (den tada por x;). En
la igura 9.7, la fdp paran = I, 2 y rr > 2. Una con ecucncia inmediata de la ecua-
cin (9.18) es que si Z tiene dp de la ecuacin (9.19), tenemos

E(Z) = n. V(Z) = 2n . (9.20J

f(z) /(z) /(z)

(a) (e)

FIGURA 9.7

..
'
204 Alguru1i. ~ariables alealorias conlinuas importantes 11.8

La di tribucin x-cuadrado tiene mucha aplicaciones importantes en infe-


rencia estadstica, 'a lguna de las cuale citaremo po teriormente. ebido a su
importancia, la distribucin de x-cuadrado est tabulada para diversos valores
del parmetro n. (Ver el Apndice). Por tanto, podemo encontrar en la tabla qu
valor, denotado por x,;,
satisface P(Z ::;; :.d) = a, O < a < J (figura 9.8). El ejem-
plo 9.9 trata un caso especial de una caracterizacin general de la di tribucin
de x-cuadrado que estudiaremos en un captulo posterior.

/(z)

IGURA 9.8

EJEMPLO 9.9. Supnga e que la velocidad V de un objeto tiene distribucin


N(O, 1). Sea K = m V2 /2 la energa cintica del objeto. Para encontrar la fdp de K,
busquemos primero Ja fdp de S = V2 Aplicando el teorema 5.2 directamente
tenemo

= s- 1/ 2
-1- e -s/2 .
fi
Si comparamos esto con la ecuacin (9.19) y recordamos que r(t) = ft, obser-
vamos que S tiene una distribucin xi. Luego encontramos que el cuadrado de
una variable aleatoria con distribucin N(O, 1) tiene una distribudn ;d. (Este es
el resultado que generalizaremos posteriormente). --
Ahora podemos obtener la fdp h de la energa cintica K. Puesto que K es una
funcin montona de V2 cuya fdp est dada por la g anterior, tenemos directa-
mente

h(k) = l
m
g (l k) = l-b (l
m m..2n m
k) -
112
e - k/m, k > O.
A fin de evaluar P(K ::;; 5) por ejemplo, no necesitamos u ar la fdp de K sino que
podemos usar sencillamente la distribucin tabulada de x-cuadrado como sigue:

P(K ::;; 5) = P((m/2)V 2 .s; 5) = P(V 2 5: 10/m}.


9.IO ('omparncn entre rnrhl\ tli,trihudonc' 2llS

Esta ltima probabilidad puede obtenerse directamente de las tablas de la dis-


tribucin de x-cuadrado (si me conocido) pue lo que V2 tiene una distribucin xr
Puesto que E(V 2 ) = 1 y la varianza (V 2 ) = 2 [ver la ecuacin (9.20)], encontra-
mos directamente
E(K) = m/2 y V(K = m2 /2.

Observai;in: la tabulacin de la distribucin de 1.-cuadrado que se da en el Apndice,


lo da los valore para los cuales 11, el nmero de grado de libertad, es menor que o igual
a 4 . La razn de esto que i /1 e grande. podemo aproximar la di tribucin de x-cuadrado
con la distribucin normal, como se indica en el teorema sigl!iente. ---

Teorema 9.2. upngase que la variable aleatoria Y tiene una distribucin x~.
ntonce para 11 uficientemente grande la variable aleat ria 2 Y apro-
ximadamente tiene la di tritucin (~[ 1). (La demo tracin no
. e da aqu).

sle teorema puede utilizar e como igue. Sup niendo que nece itamos
P( Y ~ 1). en donde Y tiene la di tribucin x.7 y ne tan grande que la probabilidad
anterior no puede obtenerse directamente de Ja tabla de la di tribucin de x-
cuadrado. U ando el teorema 9.2 podemo escribir

P(Y s; t) ~ P( 21)
= P( 2n - 1 ~ ,(ii - 211 - 1)
::::: <1>( 2n - 1).

El alor de <I> puede obtenerse de la tabla de la distribucin normal.

9.10 Comparacin entre varias distr.ibuciones

Ha ta ahora hemos pre entado diver-;a di tribuciones de probabilidade


importantes, tanto di cretas como continua : la binomial, Pascal y Poi on entre
las discretas y la exp nencial, geomtrica y Gama entre la continuas. o volve-
remos a dar las diver a hiptesis que conducen a esa. di tribuciones. ue tro
inter principal aqu es ealar cierta analogas {y diferencias) entre las variable
aleatoria que poseen esas distribucione .
1. Supngase que e efectan experimentos de Bernoulli independientes.
(a) variable aleatoria: nmero de ocurrencia del uce o A en un nmero
fijo de experimentos.
distribucin: binomial
(b) variable aleatoria: nmero nece ario de experimentos de Bernoulli para
obtener la primera ocurrencia de A
di tribucin: geomtrica
.
20(1 \lg1m11' 'aria ble aleitlorias ontinuas importanlt! 9.11

variable aleatoria: nmero necesario de experimentos de Bernoulli para


btener la r-sima ocurrencia de A
di tribucin : Pascal
2. up nga e un proce o de Poi on (ver la nota (c) de l jemplo .5 precedente).
(d) variable aleatoria: nmero de ocurrencia de un suce o A en un intervalo
de tiempo determinado
di . tribucin: Poi on
(e) variable a leatoria: tiempo transcurrido hasta la primera ocurrencia de A
di tribucin: exponencial
( f) aria ble aleatoria: tiempo tran currido hasta la r-sima ocurrencia de A
di tribucin: Gama.

Obseriacin : nte e la imilitud entre (a)) Id). (b) y (e). y finalmente entre (e) y (1).

9.11 La distribucin normal bi variada

Toda s las varia ble aleatoria que hemo presentado han ido variable alea-
toria unidimen iona les. 'orno lo mencionamos en el captulo 6. la variables
aleatoria de mayor dimen in de empean un papel importante para de cribir
re ultados e perimentale . Una de las ms importante variable aleatorias bidi-
men ionale continuas, una generalizacin directa de la distribucin normal
unidimen ional, e define como igue.

Definicin. ea (X , Y) una variable aleatoria continua. bidimen ional que


toma todo lo valores en el plano euclidiano. Decimos que (X . Y) tiene
una distribucin normal bivmiada i u fdp conjunta e t dada p r la ex-
presin siguiente:

f(x. y) = - - -'- ===


21t<1;oc<1}~

X exp { - 1 2
2( l - P )
[(x -<1 x
... )2- 2p (x - x)(Y -
U ;oc <11
,.) (y J'")z }
-<1
,

< .\" < -oo <y< (9.21)

a fdp anterior depende de 5 parmetros. Para que f defina una fdp le-
gtima [o sea, f(x.y);::: O. I ~' J ~ f(x.y)dxdy = 1]. debemo poner la
iguiente restriccione a lo parmetro : - < ,. < oo; - < ,. < oo;
<1x > O; u,> O - 1 < p < l. La iguiente propiedade de la di tribucin
normal bivariada pueden verificar e fcilmente.
9.11 La di tribucilln nonn1I bl~1rlad1 207

Teorema 9.3. Suponiendo que (X. Y) tiene la fdp como e da en la ecua-


cin (9.21). Entonce
(a) las distribuciones marginales de X y de Y son N(,,,a;) y N(y,a;),
re pectivamente;
(b) el parmetro p que aparece anteriorm~nte e el coeficiente de correla-
cin entre X y Y;
(c) las distribucione condicionales de X (dado que Y = y) y de Y (dado
que X = x) on re pectivamente

[
.. + O"x 2 2
p - (y - y). a.. (1 - p)
a,. [ 1
u., (x
+ p a,, J
- ,,), u.,2 ( 1 - p 2 ) .

Demostracin : ver el problema 9.21.

Observaciones : (a) El recproco de (a) del teorema 9.3 no e verdadero. po ible tener
una fdp conjunta que no es normal bivariada aunque la fdp de X y de Y on normales uni-
dimen ionales.
(b) Ob ervemos de la ecuacin (9.21) que si p == O. la fdp conjunta de (X. Y) puede facto-
rizarse y, por tanto, X y Y on independientes. Luego en el caso de la distribucin normal bi-
variada, encontramos que la correlacin cero y la independencia son equivalentes.
(c) La parte (c) del teorema anterior demuestra que ambas funcione de regresin del
promedio on lineales. Tambin demue tra que la varianza de la distribucin condicional
e reduce en la misma proporcin que (1 - p 2). sto es, si p est prxima a cero, la varian?.a
condicional es esencialmente la misma que la varianza incondicional, mientras que si p est
prximo a l. la varianza condicional est prxima a cero.

La fdp normal bivariada tiene varia propiedade interesantes. stableceremo


alguna en un teorema, dejando la demostracin al lector.

Teorema 9.4. on idre e la superficie z = f (x, y), en donde f es la fdp


normal bivariada dada en la ecuacin (9.3).

(a) z = e (con tante) corta la superficie en una elipse. (E ta e llaman.


alguna veces, contorno de una densidad de probabilidade constante).
(b) Si p = O y ax = <11 , la elip e anterior se tran forma en una circunfe-
rencia. (Qu sucede a la elipse anterior cuando p J?).

Demostracin : ver el problema 9.22.

Observacn : debido a Ja importancia de la distribucin normal bivariada, se han tabulado


diver a probabilidades asociada a ella. (Ver D. B. Owen, Hm1dbook of Siatistical Tables,
Addison-We ley Publishing Company. lnc.. Reading. Mass .. 1962.)

..
'
2011 lgWJa~ ~ariablc alcalurla~ continua~ imporlanl\.>s 9. 12

9.12 Distribuciones truncada

EJ MPLO 9.10. upnga e que e fabrica cierto tipo de perno y su longitud.


llamemosla Y. e una varable aleatoria con distribucin (2.2.0.01). De un gran
lote de tale perno e aca un nuevo lote. de cartando todos aquello perno para
los cuale Y > 2.
Por tanto. si X es la variable aleatoria que repre enta el largo
de los pernos en el nuevo lote, y si F es su fda tenemos

F(x) = P(X s; x)
= P( Y s; x Y 1 :s; 2) = 1 si x > 2.
= P(Y s; x)/ P(Y :s; 2) si x s; 2.
(Ver la figura 9.9). Luego/.la fdp de X. est dada por

/(x) = F'(x) = u i X > 2.

- 2.2]
_ ~exp( - ~[ 0.1
2
)

- $( - 2)

o 2

FIGURA 9.9
pue to que

<t>, como es 1 usual. es la fda de la di tribucin N(O. 1)].


La anterior e una ilu tracin de una distribtlcin normal truncada (truncada
a la derecha de X = 2, e pecficamente). Este ejemplo puede generalizar e como
igue.

Definicin. Decimos que la variable aleatoria X tiene una distribucin


normal truncada a la derecha de X = r si su fdp .f e de la forma
f(x) = O si x > r.

= K F. CT exp( - ~[X: J) SI Xs; T. (9.22)

te e que si K e determina de la condicin J ~ f(x) dx = 1 y por tanto

K =- I _ _ =- - - -
$((r - )/q J P(Z s; r)
9.12

en donde Z tiene distribucin N(. a 2 ). Anlogamente a lo anterior tcnemo la


iguiente definicin.

Dcfmicin. Decimo que la ariable aleatoria X tiene una distribucin


normal trnncada a la izquierda de X == y. i su fdp fes de la forma

f(x) = O i X< y,

(9.23}

uevamente, K e determina, de la condicin J ~~f(x} dx = l y as

K = - )]-
[ (.!q
1 - <I>

Los concepto pre entados anteriormente para la distribucin normal pueden


extender e de una manera evidente a otra~ di tribucione . Por ejemplo. una va-
riable aleatoriia X distribuida exponencia lmente. truncada a la izquierda de X = y,
tendra la iguienlc fdp:

f(x) = O . <y,
(9.24)

ucvamente. Ce t determinada por la condicin J ~ f(x) dx = l y por tanto

Tambin podemo con idcrar una variable a leatoria truncada en el ca o di -


creto. Por ejemplo. i una variable aleatoria X tiene una di tribucin de Poi on
(con parmetro J.) e t truncada a la derecha en X = k + I . significa que X tiene
la distribucin siguiente:

P(X = i) = O ji ;'2:: k + 1,
A.' - .!
-:- e si i = O, L ... , k. (9.25)
l.

e la condicin L; =o P(X = ) = l determinamos C y encontramo

As

P(X - 1') - ~ l i =O. 1, .. .. k y O para cualquier otro valor.


- - 1.
., "<"k
"-J = O
(Ali/':J.1) '

L~ distribuciones truncada pueden aparecer en mucha aplicaciones impor-


tantes. 'on ideraremo algunos ejemplos H continuacin.
210 lgunas nriabl '"- al alorla~ onlinuas importanlc:. IJ.12

EJBMP 9.11. Supnga e que X repre enta la duracin de una comp nente.
Si X est di tribuida normalmente con

E(X) = 4 y V(X) = 4,

encontramo que

P(X < O) = <I>( - 2) = 0,023.


As, este modelo no e muy preciso puesto que a igna una probabilidad 0.023
a un suce o que sabemo que no puede oc.:urrir. En u lugar. podramo considerar
la variable aleatoria X anterior truncada a la izquierda en X = O. Por tant u-
pondremos que la fdp de la variable aleatoria X e t dada por

f(x) =O i X~ O,

= -vbi
--=(2=~-)(-2) exp - ~( x ; 4)2] <D~2) X> 0.

Observacin: hemos indicado que a menudo usamos la di tribucin normal para representar
una variable aleatoria X de la cua l sabe"ws que no puede tomar valores negativo . (Por ejemplo,
el tiempo para fallar, el largo de una varilla, etc). Para ciertos valores de los parmetros
= E(X) y a 2 = V(X) el valor de P(X < O) ser despreciable. Sin embargo, si no e este
el caso (como en el ejemplo 9.11) deberamos considerar el uso de la distribucin normal trun-
cada a la izquierda en X = O.

EJEMPLO 9.12. Supnga e que un sistema e t formado por n componentes


que funcionan independientemente y tiene cada uno la mi ma probabilidad p
de funcionar correctamente. Cada vez que el sistema funciona mal, se inspecciona
a fin de tablecer cuntos y cules on los comp nente que fallan . Delinamo
la variable aleatoria X como el nmero de componentes que fallan en un i tema
de compuesto. Si suponemos que el i tema falla i y lo i al meno un compo-
nente falla , entonce X tiene una distribucin binomial truncada a la izquierda
en X = O. Por el hecho de que haya fallado el i tema impide la po ibilidad de
que X = O. pecficamente tenemo

(Z)(l - ptp - k
P(X = k) =
P(sistema falla)
. k = 1, 2 . .. , ti.
Puesto que P (el si tema falla) = 1 - pn, podemo e cribir

P(X = k) = (Z)(l - p'f pn - k, k = 1, 2, ... , n.


1 - pn

EJEMPLO 9.13. Supnga e que una fuente radiactiva emite partculas de


acuerdo con una distribucin de Po.isson con parmetro A.. Un dispositivo para
contar esa emisiones funciona slo si llegan meno de tres partcula . ( to e .
9.12 La d~trlbucin nonti 1 hh rimfa 2 11

i llegan m de tre partculas durante un p rodo de tiempo e pecilicado, el di. -


po itivo deja de funcionar debido a que se pr duce un ierre). Por tanto. i Y
e el nmero de partculas anotadas durante el intervalo de lietnp e pecfico.
Y tiene lo valore po ible O, l y 2. As.

e- .t ,tk
P(Y = k) = kT e A[l +A.+ (A.2/2)]' k = 1,2,
= O, para cualquier otro valor.

Pue to que la distribucin normal truncada es muy importante, consideremos


el problema iguientc a ociado con e ta di tribucin.
Supngase que X es una variable aleatoria di tribuida normalmente truncada
hacia la derecha en X = .-. Luego la fdp fes de la forma

f(x) =O si x ~ .-.

1
= Ji u exp
[
-
)(X - )
2 - a-
2
] 1
<l>[(i- - )/ u]
X ~ T.

Por tanto tenemo

E(X) = f_~ xf(x) dx



= <l>[(r
1
- )/<1 J
f'_ ~7texp[ - -21 (
v2k/L
:
v
) 2
dx

) [ f(r - i)/a
(sa + )e - 112 ds
<l>[(r-)/ a] 2x _

= } ['1> (t---) + ) f <J - -


(r - 11)/a
se
<J>[(t - )/u] <J 2n -

= + (] -1- e - l/2 (
- ) )j(t- - )/ a
<l>((i- - ) fu] J2rr.
<J
= - <J>((t - )/uJ J2ir. exp
1 [ )
- 2 - u-
(T - ) 2]
Nte e que la expre in obtenida para E(X) e expre a mediante la funciones
tabulada . a funcin <l> naturalmente e la fda corriente de la distribucin (O, 1),
1
mientra que (1 /J2ii}e- " ' 2 es la ordenada de la fdp de la distribucin N(O, 1)
y tambin e t tabulada. n realidad, el cociente

e t tabu lado. (Ver . B. Owen, Handbook of Statistica/ Tables, Addi on-Wesley


Publishing ompany, loe., Rcading, Ma s .. 1962.)

I
212 lgum1' \llriabl ~ a l e111oria~ conl inua\ Importante~ Y. 12

ti lizando el re ultado anterior. podemo f rmu lar ahora la iguiente pre-


gunta: para y u dado , dnde debera ocurrir la truncacin (esto es, cul debera
er el valor de r?) de modo que el valor esperado despus de la truncac1on tenga
algn valor A pre a ignado? Podemo re ponder esta pregunta con ayuda de la
distribucin normal tabulada. Supnga e que = 10, u = 1, y nece itamos que
ea A = 9,5. Debemos reso lver p r tanto

9,5 = lO - 1 _ I e- <t - 101212_


<l>(r - 10), ' 1n
to se tran forma en
1 (I /$)e- - 0!212
2 <l>(r - 10)

Utilizando las tab la ya citada . encontramos que r - 10 = 0.52. luego r = I0.52.


Obse1vatin: el prob lema pre entado anteriormente slo puede re olverse para ciertos
valores de ," y A. sto es, para y" dados, puede no er po ible un valor especfico de A.
on idercmo la ecuacin que puede resolver e:

- A= <l>[
"
t _
1 .
)/<! y'2exp
[
-
t - ) .
zl ('-"-
2
]

El egundo miembro de e ta ecuacin es evidentemente positivo. Luego debemo tener


( - A) > O con el objeto de que el problema anterior tenga solucin. Esta condicin no es
muy ine perada puesto que sencillamente expre a que el valor e perado (despu de una trun-
cacin a la derecha) debe ser menor que el valor e perado original.

PROBLEMAS

9. L upnga e que X tiene una di tribuein N(2, O, 16). Use la tabla de la distribucin
normal. para evaluar las probabilidades siguiente .

(a) P(X ~ 2,3) (b) P(l,8 5 X ::.;: 2.JJ

9.2. 1 dimetro de un cable elctrico est d1 tribuido normalmente con promedio 0,8
y varianza 0,0004. ul es la probabilidad de que el dimetro sobrepa e 0.81 pulgadas?
9.3. Suponiendo que el cable en el problema 9.2 se considere deectuoso si el dimetro
se diferencia de u promedio en ms de 0,025. Cul es la probabilidad de obtener un cable
decctuoso?
9.4. Se abe que los errores en cierto instrumento para medir longitudes estn distribuidos
normalmente con valor esperado cero y de viacin estndar de l pulgada. Cul es la pro-
bablidad de que al medir los errores, ean mayores de 1 pulgada, 2 pulgada , 3 pulgada ?
9.5. Suponiendo que la duracin de lo in trumentos electrnicos D 1 y D2 tienen distri-
buciones N(40, 36) y N(45, 9) respectivamente. Cul debe preferir e para usarlo durante
un perodo de 45 horas? Cul debe preerirse para usarlo durante un perodo de 48 horas?
l'rublc11111~ 2 IJ

9.6. Podemo interesarno lo en la magnitud de X. llamemos Y = IX I. Si X tiene una


distribucin N(O, I), determine la dp de Y y calcule /:'(Y) y V(Y).
9.7. Supngase que estamos determinando la posicin de un objeto en un plano. Sean
X y Y los errores en las medidas de las coordenadas x y y respectivamente. Supngase que X
y Y son independiente y di tribuidas idnticamente N(O, u 2 ) . ncuentre la dp de R =
X 2 + yi. {La di tribucin de R se conoce como la distribucin de Rayleigli). [Indicacin:
ea X = R cos I/ y Y = R en i/J. Obtenga la fdp conjunta de (R, I/) y luego obtenga la den-
sidad marginal de R.)
9.8. ncuentre la dp de la variable alea1oria Q = X / Y, en donde X y Y estn distribuidas
como en el problema 9.7. (La distribucin de Q e conoce como la di tribucin de Cauclry~
;,Puede usted calcular E(Q)?
9.9. na distribucin muy relacionada con la distribucin normal e la dis1ribucin
loynormu/. Supnga e que X est1 distribuida normalmente con promedio y varianza u 2
Sea Y = i:?. Entonces Y tiene la di tribucin log nonnal. (0 ea Y es log normal i y slo
i In Ye normal). Encuentre la fdp de Y. Observad11 : las varia ble aleatorias iguientes pueden
representar e por la distribucin anterior: el di;metro de partculas pequeas de pus de un
proceso de trituracin, el tam ao de un organismo bajo la accin de pequeos impulsos y la
duracin de ciertos artculo .
9.10. opngase que X tiene una di tribucin N(. u 2 ). Determine e (como una runcin
=
de JI y <T) tal que P(X ::;; e) 2P(X > e).
9.1 1. opngase que la temperatura (medida en grados centgrados) est distribuida
normalmente con esperanza 50' y varianza 4. u;'1I es la probablidad de que la temperatura T
est entre 48" y 53 centigrados?

9.12. e especifica que el dimetro exterior de una lecha, llammoslo D. debe ser de 4 pul-
gada . Supngase que D es una variable aleatoria di tribuida normalmente con promedio
4 pulgada y varianza 0.01 pulgada 2 Si el dimetro real se dierencia del valor e pecilicado
por rn de O05 pulgada pero en meno de 0,0 pulgada, la prdida del fabrican le es de 0,50.
Si el dimetro rea l e diferencia del dimetro especificado en ms de 0,08 pulgada. la prdida
es de 1,00. La prdida L. puede considerar e como una variable a leatoria. neuentre la
di tribucin de probabilidades de L y calcule EIL).
9.13. 'ompare la cola superior .de la probabilidad P[IX - E(X)I;;::; 2Jil(X)] obtenida
con la desigualdad de heby hev con la probabilidad exacta en cada uno de lo casos
s iguiente :
(a) X tiene dis tribucin (fl. u 2).
(b) X tiene distribucin Poisson con parmetro ..\.
{c) X tiene distribucin exponencial con parmetro a..

9.14. Supngase que X es una variable aleator ia para la cual E(X) = y V(X) = u 2
Suponiendo que Y est distribuida un iformemente en el interva lo (a, b), determine a y b de
modo que E(X) = E( Y) y V(X) = V( Y).

9.15. Supngase que X , la re istencia a la ruptura de una cuerda (en libra), tiene dis-
tribucin (100, 16). Cada 100 pies de a lambre para cuerda produce una utilidad de 25,
si X > 95. i X ::;; 95, la cuerda puede utilizarse con un objetivo diferente y se obtiene una
utilidad de 10 por a lambre. Encuentre la utilidad esperada por alambre.
9.16. Sean X 1 y X 2 variables aleatorias independientes cada una con una distribucin

-
214 lguna., ariablcs al aloria c-onlinua impOrl nlc'

N(, a 2 ). ea Z(r) = X 1 co wr + X 2 sen wt. sta variable aleatoria e de inters en el estudio


de eales aleatoria . Sea V(l) = dZ(t)/dt. (Se upone que w es constante.)
(a) Cu l es la distribucin de probabilidades de 2(1) y V(t) para cualquier t lija?
(b) Demue tre que Z(t) y V(t) no estn correlacionados. [Obseniacin : puede demostrarse
que Z(t) y V(t) on independientes pero es ms dificil de hacer].
9.17. Un combustible para cohetes va a contener cierto porcentaje (llammo lo X) de
un compuc:-10 particular. La especificaciones exigen que X e t entre 30 y 35 por cien10. El
fabricanlc lendr una utilidad neta en el combustible (por galn) que es la siguiente uncin
de X :
T(X) = 0,10 por galn si 30 < X < 35,
= $0,05 por galn 35 :::; X < 40 25 < X ::::; 30.
= - 0,10 por galn.
(a) Si X tiene distribucin N(33, 9), ca lcule E(T).
(b) Supngase que el fabricante desea aumentar su utilidad esperada E(T) en 50 por ciento,
aumentando su utilidad (por galn) en aquellas partida de combustible que satisfacen las
especificaciones, 30 < X < 35. Cul debe er su utilidad neta?
9.18. Consideremo el ejemplo 9.8. Suponiendo que se le pagan 3 dlares/hora al ope-
rador mientras la mquina est funcionando y e4 dlares/ hora ( 4 < e3) por el re to del tiempo
durante el cual ha sido contratado despus de que la mquina ha fallado. Determine nueva-
mente para qu valor de H (el nmero de horas que el operador es contratado), la utilidad
e perada es mxima.
9.19. Demostrar que r(! ) = ..f. (Ver 9.15). [Indicacin : hacer el cambio de variables
x = u2/2 en la integral r( ) = f:f x - l/le - " dx.]
9.20. Veriicar las expresiones de E(X) y V(X). cuando X tiene una distribucin Gama.
[Ver ecuacin (9.18)].
9.21. Demostrar el teorema 9.3.
9.22. Demostrar el teorema 9.4.
9.23. Supngase que la variable aleatoria X tiene una di stribucin de X cuadrado con
10 grados de libertad. Si se nos pidiera encontrar do nmero a y b tales que P(a < x < b) =
0.85. podramos veriicar que existen muchos pares de esa cla e.
(a) ncuentre do conjuntos dierentes de valore (a b) que atisfagan la condicin an-
terior.
(b) Supngase que adems de lo anterior. nece itemos que
P(X < a) = P(X > b).
Cunto conjuntos de valores hay?
9.24. Supngase que V, la velocidad (cm/seg) de un objeto que tiene una masa de 1 kilo,
es una variable aleatoria que tiene una distribucin (0, 25). Representemos por K =
1000V2/ 2 = 500V 2 la energa cintica (KE) del objeto. Calcule P(K < 200). P(K > 800).

9.25. Supnga e que X tiene distribucin N(, a 2 ). Obtener una expresin aproximada
para E(Y) y V(Y), u ando el teorema 7.7. Si Y = In X.
9.26. Supngase que X tiene una dist ri bucin normal truncada a la derecha como e da
en la ecuacin (9.22). Encontrar una expre~1n para E(X) mediante unciones tabuladas.
Problem lt!I

9.27. Supngase que X tiene una distrbuciri exponencial truncada a la izquierda como
est dada en la ecuacin (9.24). Obtener E(X).
9.28. (a) Encontrar la distribucin de probabilidades de una variable aleatoria distri-
buida binomialmente (con base en n repeticiones de un experimento) truncado a la derecha
en X = n; esto es, X = n no puede er observado.
(b) Encontrar el valor esperado y la varianza de Ja variable aleatoria descrita en (a).
9.29. Supngase que una variable aleatoria distribuida normalmente con valor espe-
rado 11 y varianza u 2 est truncada a la izquierda en X = t y a la derecha en X = I' Encontrar
la fdp de esta variable aleatoria truncada doblemente>>.
9.30 Supngase que X, el largo de una varilla tiene distribucin N(lO, 2). En vez de
medir el valor de X, slo se especifica si se cumplen ciertas exigencias. E pecficamente, cada
varilla fabricada se cla ifica como sigue: X < 8, 8 ::;; X < 12, y X <?: 12. Si se fabrican 15 de
tale varillas, cul es la probabilidad de que un nmero igual de varillas caiga en cada una
de las categoras anteriores?
9.31. Se abe que la lluvia anual que cae en cierta regin es una variable aleatoria dis-
tribuida normalmente con promedio igual a 29.5 pulgadas y desviacin tandard 2.5 pulgadas.
Cuntas pulgadas de lluvia (anuales) caen en exceso alrededo.r del 5 por ciento de las veces?
9.32. Suponiendo que X tiene una distribucin N(O, 25), calcule P(I < X 2 < 4).
9.33. ea X, el nmero de partculas emitidas en 1 horas por una fuente radiactiva y
e supone que X, tiene una distribucin de Poisson con parmetro Pt. ea T el nmero de
hora hasta la primera emisin. Demuestre que T tiene una distribucin exponencial con
parmetro P [Indicacin: encuentre el suce o equivalente (mediante X,) del suceso T > t].
9.34. Supnga e que X, e t definida como en el problema 9.33 con p = 30. ul e
la probabilidad de que el tiempo entre emi iones sucesivas sea > 5 minutos? > 10 minutos?
< 30 egundo ?
9.35. n algunas tabla de la distribucin normal H(x) = (l/Jf,t) J~ e- 1' 12 di est ta-
bulada para valores positivos de x (en vez de lf>(x) como aparece en el Apndice). Si la varia ble
aleatoria X tiene distribucin N(l, 4) expre ar cada una de las probabilidades guientes
mediante valores tabulados de la funcin H.
(a) P[IXI > 2] (b) P[X < O].
9.36. Supngase que un dispo itivo para telemedir satlite recibe do clases de seales
que pueden anotarse como nmeros reales, X y Y, y que X y Y son variables aleatorias con-
tinuas independientes con fdp f y g, respectivamente. Supngase que durante cualquier ~
rodo de tiempo e pecfico lo puede recibirse una de esas seales, y luego retransmitida a
la tierra, la eal que primero llega. Adems la seal que origina X llega primero con proba-
bilidad p y por tanto la seal que origina Y llega primero con probabilidad 1 - p. Denotemos
por Z la variable aleatoria cuyo valor realmente es recibido y transmitido.
(a) xpresar la dp de Z mediante f y g.
(b) Expresar E(Z) mediante E(X) y E( Y).
(c) Expresar V(Z) mediante V(X) y V(Y).
(d) upngase que X tiene di tribucin N(2, 4) y que Y tiene di tribucin N(3, 3). Si
p = j calcule P(Z > 2).
(e) Suponiendo que X y Y tienen distribuciones N(i, ai) y N( 2 , ui} respectivamente.
Demuestre que si 1 = 2 , la distribucin de Z es c<Uni-modah>, esto es la dp de Z tiene un
mximo relativo nic-0.

..
216 l11un11~ variable' 11lc11turh1 continua importante~

9.37. Supngase que el nmero de accidentes en una fbrica se puede representar por un
proceso de Poisson con un promedio de 2 accidentes por semana. Cul e la probabilidad
de que (a) el tiempo entre un accidente y el siguiente ea mayor de 3 das, (b) el tiempo de un
accidente al tercero sea mayor de una emana? [Indicacin : en (a), sea T = tiempo (en da)
y calcule P(T > 3)].
9.38. Un proce o de fabricacin produce en promedio un articulo defectuoso entre 300 fa.
bricados. Cul es la probabilidad de que aparezca el tercer artculo defectuoso :
(a) antes de que sean producidos 1000 artculo ?
(b) cuando se produce el 1000 simo artculo?
(c) despu de que sea producido el 1000 simo artculo?
[l ndicacin : supngase un proce o de Poisson] .
lO
La funcin generadora de momentos

10.1 Introduccin

En e te captulo presentaremos un c n(.;cpto matemtico importante que tiene


mucha aplicaciones en Jos modelos probabil tioos que e tamo con iderando.
on el objeto de pre entar un de arrollo riguro o de e te tema, habran sido nece-
sarias matemticas de un nivel considerablemente mayor del que e tamo opo-
niendo aqu. Sin embargo, i queremos evitar ciertas dificultade matemtica que
aparecen y i aceptamos que cierta operaciones on vlida , entonce podemo
obtener una comprensin suficiente de las principale ideas implicadas a fin de
usarla inteligentemente.
Con el objeto de motivar lo que igue. recordemos nue tro primer encuentro
con el logaritmo. Fue pre entado slo como una ayuda para calcular. 'on cada
nmero real po itivo x, a ociamo otro nmero, de ignado como log x. {El valor
de este nmero pudo obtenerse de tablas.) A fin de calcu lar xy, por ejemplo, obte-
nemos el valor de log x y log y y luego calculamos log x + log y, que representa
log xy. onociendo log xy, pudimo obtener luego el valor de xy (con la ayuda de
tablas nuevamente). De manera semejante p demos simplificar con ayuda de los
logaritmo la elaboracin de otros clculo aritmticos. El enfoque anterior e
til por las siguiente razone :
(a) A cada nmero positivo x le corresponde exactamente un nmero, log x,
y e te nmero se obtiene fcilmente de las tabla .
(b) A cada valor de log x le corresponde exactamente un valor de x, y este valor
nuevamente e obtiene de tablas. (Luego. la relacin entre x y log x e uno a uno.)

----- ~--)----
__ Jog X

"7~~ log x+ log y

y ------ -
- -- log y

FIGURA 10.I
217
2UI 11 fun i.1 generadoru d momentos I0.2

(c) Ciertas operaciones aritmticas que relacionan lo nmeros x y y, tales


como multiplicacin y divisin, pueden reemplazar e por operacione m encilla ,
tale como adicin y sustraccin, mediante lo nmero transformado log x
y log y (ver el e quema de la figura 10.1).
n vez de efectuar las operaciones directamente con los nmeros x y y, obtene-
mos primero lo nmeros log x y log y, hacemo nue tro clculo con esos n-
meros y luego lo transformamo de nuevo.

10.2 La funcin generadora de momentos

Ahora consideremo una ituacin m complicada. Supnga e que X e una


variable aleatoria ; e decir, X es una funcin del espacio mue tral a 1 nmero
reale . Al calcular diversa caracter ticas de la variable aleatoria X, tale como
E(X) o V(X), trabajamos directamente con la di tribucin de probabilidade de X
[la distribucin de probabilidades est dada por una funcn : la fdp en el ca o
continuo, o las probabilidades puntuales p(x;) = P(X = x;) en el caso di creto.
La ltima e puede tambin con id rar como una funcin que toma valores distinto
de cero slo si X = X, i = l , 2, ... ]. Posibler.iente, podemos presentar otrafuncin
y hacer lo clculo nece arios mediante esta nueva funcin (tal como antes a ci-
bamo con cada nmero, un nuevo nmero). Esto e , en realidad, lo que precisa-
mente haremo . Primero daremos una definicin formal.

Defmicin. Sea X una variable aleatoria di creta con di tribucin de proba-


bilidades p(x;) = P(X = x;), i = 1,2, ... La funcin Mx, llamada lafuncin
generadora de momentos de X , est definida por
Mx(t) = '
l: e'"' 1p(x1). ( 10.1)
J 1

Si X es una variable aleatoria continua con fdp f, definimos la funcin


generadora de momentos por

Mx(l) = J ~ ' e'"f(x)dx. (10.2)

Observaciones : (a) Tanto en el ca o discreto o en el continuo, Mx(t) es sim plemente el


valor esperado de e'x. Luego podemos combinar las expresiones anteriore y e cribir

(10.3)

(b) Mx(I) es el valor que toma la funcin M x. la variable (real)/, La notacin que indica
la dependencia de X , se usa porque podemos de ear considerar dos variable aleatoria , X
y Y , y luego investigar la funcin generadora de momentos de cada una, Mx y Mr .
(c) Usaremos la abreviacin fgm para la funcin generadora de momentos.
(d) La fgm como se defini anteriormente, se escribe como una serie infinita o integral
(impropia), egn que la variable aleatoria sea discreta o continua. Tal serie (o integral) puede
que no exista siempre (es decir que converja a un valor infinito) para todos los valores de t.
10. Ejemplos de (uncioo gt'llenduna' de momenlo' 219

Por tanto pueden uceder que la gm no e t definida para todo los valores de 1. Sin em-
bargo no nos interesar e ta posible dificultad. Cada vez que hagamos uso de la fgm, siempre
supondremos que existe. (Para t = O, la fgm existe siempre y es igual a 1.)
(e) Hay otra funcin muy relacionada con la fgm que a menudo se usa en su lugar. Se
llama la fun cin caracterstica, se denota como Cx , y se define por Cx(t) = E(er'x), en donde
i = - , la unjdad imaginaria. Por razone terica , hay una ventaja considerable al usar
Cx(t) en vez de M x(I). [Por e ta razn, Cx(I) existe siempre para todos los valores de t). Sin
embargo, a fin de evitar clculos con nmeros complejo restringiremos nuestra exposicin
a la funcin generadora de momentos.
(1) Postergaremos hasta la seccin I0.4 la exposicin de la razn para llamar a M x la
funcin generadora de momentos.

10.3 Ejemplos de funciones generadoras de momentos


Antes de considerar algunas aplicaciones importante de la fgm a la teora de
la probabilidad, evaluemo algunas de estas funciones.
EJEMPLO 10.1. Supnga e que X est di tribuida uniformemente en el inter-
va lo [a b]. Por tanto, la fgm e t dada por

rb e
Mx(r) =J., b _ /x
1
- - - [ e1" - e'], t #- O. (10.4)
(h - a)t

EJEMPLO 10.2. Supngase que X est di tribuida binomialmente con par-


metros n y p. Luego

rvf x(t) = t ~o ekG) p"(I - p) - k

k
i"' (n)k (pe'f(l - p)" - "

= [pe' + (1 - p)]". 10.5)


(Esta ltima igualdad e deduce de una aplicacin directa del teorema del
binomio.)

EJEMPLO 10.3. Supngase que X tiene una distribucin de Poisson con par-
metro .t As

Mx(l) = i: e'" e - .1..A.l = e- .1. i: (.A.e'f


k O k! k=O k!
= e- l,/"' = e.1.<,i - 1. (10.6)

(La tercera igualdad se deduce del desarrollo de e1 en I::' .. 0 (y"/n !). Usamos e to
con y= le').
220 1. funci11 l:l'nl'ri.dorn ti mom nto'

EJEMPLO 10.4. Supngase que X tiene una di.~tribucin e. ponencia/ con


parmetro a:. Por tanto,
Mx(I) = Jo e'~ae - u dx = a Jo e"< 1 - "
1 dx.

(Esta integral converge slo si L < a. Por tanto, la fgm existe slo para eso valores
de l. Suponiendo que e sati face esta condicin, e ntinuamo .) Luego
Mx(l) = - - e* - "'>/ oo
t - GI'. o

t < a:. (10.7)

Ohsa11arin ; pue to que la fgm es slo un valor esperado de X. se puede obtener la fgm
de una funcin de una variable aleator ia in obtener su di tribucin de probabilidades pri-
mero (ver el teorema 7.3). Por ejemplo, si X tiene distribucin A'(O, 1) y de eamos encontra r
la fgm de Y = X 2 ; podemos proceder sin obtener primero la fdp de Y. Simplemente pode-
mos e cribi r

M r(I) = E(e'r) = E(e'X') = -1- f +"' exp (rx 2


- x 2/ 2)dx = (1 - 21) - 112
2n _ ,

de pus de una integracin inmediata.

EJEMPLO 10.5 upnga e que X tiene distribucin N(. a 2 ). Ento nce

Mx(l) =- 1
-J+
2n a _ ..,
e'"exp( -
2
~[x - ] )dx.
a
2

Sea (x - )/a = s; luego x =as + y dx = ads. Por tanto

Mx(I) 1 f+ exp [!(as+)] e-s t2 ds


=---; 2


= e'I' 2n _
f +co
exp (- Hs 2 - 2ats]) ds

1
= e' ----==
f +co
exp { -![(s - at) 2 - a 2 t 2 ]} ds
2n _

= +a2122 _ l _ f + exp(-![s - ut]i)ds.


2n _ ,_,
Seas - ut = v; luego ds = dv y obtenemos

(10.8)
10.4 Propi1:dadcs de 111 funcin :Cfleradoru d1: mnm1:nln~ 221

JEMPLO 10.6. Sea X una distrib11cin anw con parmetros :x y r (ver la


ecuacin (9 . 16)). n to nce

~
1

Mx(l) = [ l'(n) - e - " dx


r(r) Jo

= (;)
IX' f CI

(E ta integral converge s et > t). Sea x(:t - 1) = 11; luego

dx = (c/11)/(:x - t).
y obtenemo

Mx(t) = ry_'
(:x - t)r(r) o
i'( -ti-) ' -
:x - t
1
e - du

=(-et )'-I f
et - l r(r) o
11' - e- "du.

Puesto que la integral e igual a (r), tenemos

Mx(I) = ( - :x
:X - l
)~ (10.9)

=
Observaciones: (a) Si r 1, la funcin G<1ma se convierte en la distribucin exponencial.
Ob ervemos que si r = 1, las ecuaciones (I0.7) y (10.9) son iguale.
(b) Pue to que la distribucin de x fuadrado se obtiene como un caso especial de la dis-
tribucin Gama al hacer a = 1/2 y r = 11/2 (n es un entero positivo), tenemos que i Z tiene
distribucinx;, entonces
Mz(I) = (1 - 21) - "12 (10.10)

10.4 Propiedades de la funcin generadora de momentos


Da remo ahora la razn para llamar M x la funcin generadora de momencos.
Recordemos el de arrollo en serie de Maclaurin de la funcin ex:
x2 x3 x"
~= 1 +x+ -2! + -3! +"+ -n! +"
(Se abe que esta serie converge para todos los valores de x.) A

(tx) 2 (tx)"
e1" = 1 + LX + --
2!
+- .. + - - + ..
n!
Ahora 2
(t X)"
M (t)
X
= E(e'X) = E ( 1 + rX
(1 X)
+- - + ... + -
2!
- + ...) .
11 !

Hemos demo trado que para una suma finita, el valor esperado de la suma
es igual a la suma de lo valores esperados. Sin embargo. con iderando una suma
222 l .11 fuiuI m 11cn~rndorn dl' 111m1 nl<l\ I0.4

infinita como la anlerior no podemos aplicar. inmediatamente. lal resultado.


in embargo, re ulta que bajo condiciones justamente generalc esta operacin
e todava vlida. Supondremo que la condiciones pedidas se satisfacen y por
consiguiente procedemos.
Recordemos que t e una constante en lo que respecla a la esperanza y podemos
escribir
12 E{X 2 ) t"E(X")
Mx(t) = 1 + tE(X) + 21
+ .. + - n-! - + ..
Puesto que M xes una funcin de la variable real t, podemos con iderar que tomamos
la derivada de M x(t} con respecto a t , esto es, [d/(dt)]M x(t) o por brevedad, M'{t).
Nos encontramos nuevamente con una dificultad matemtica. La derivada de una
suma finita siempre es igual a la suma de las derivadas. (Suponiendo naturalmente
que todas las derivadas existen.) Sin embargo, para una urna infinita e to no
siempre e as. Deben atisfacer e ciertas condiciones a fin de justificar esta
operacin. Simplemente upondremos que esas condiciones existen y continua-
mo . ( n la mayor parte de lo problema que enconlraremo tal supo icin est
justificada.) A ,
t 2 E(X 3 1 t" - 1 E(X")
M '(t) = E(X) + tE(X 2 ) + - - - + .. + + .. .
2! (n - I)t
Haciendo l = O encontramos que slo subsiste el primer trmino y tenemo
M '(O) = E(X).
Luego la primera derivada de la fgm calculada en t = O da el valor esperado de la
variable aleatoria. Si calculamo la egunda derivada de Mx(I), nuevamente pro-
cederemos como antes, y obtenemos

y haciendo l = O, tenemos
M " (O) = E(X 2 ).
Continuando de e ta manera btenemos el siguiente teorema [suponiendo que
M< >(0) existe].
11

Teorema 10.I. (10. l 1)


Esto e , la 11- ma derivada de M x(t) calculada en t = O da E(X").
Observaciones: (a) Los nmeros E(X"), n = l. 2, . .. , se llaman los n-simos momentos
de la variable aleatoria X respecto al cero. Por tanto hemos demostrado que conociendo la
funcin Mx , pueden generarse los momentos. (De aqu el nombre de fmrcin gene,.adora
de mometlloS>>.)
(b) Recordemos el desarrollo en serie de Maclaurin en general de una funcin h.
h" (0)1 2 ,11(0)1"
li(t) = 11(0) + lr'(O)t + - - + .. + - - + .. .
21 11!
I0.4 Propiedades H la (uncin g neradon de momentos 223

en donde h1" 1(0) es la n-sima derivada de la funcin h calculada en t = O. Aplicando este re-
sultado a la funcin Mx , podemos escribir

M~1 (0)1~
Mx(l) = Mx(O) + Mx(O)t + ... + - - - + ...
n!

= l + t + 2t 2/2! + ... + _._t" + ...


n!

en donde ; = E(X 1) , i = 1, 2, ... En particular,

V(X) = E(X 2 ) - (E(X)) 2 = M"(O) - [M'(0)]2.

(e) El lector puede preguntarse si el mtodo anterior es del todo til. No sera ms simple
(y ms elemental) calcular directamente los momentos de X en vez de obtener primero la
fgm y luego diferenciarla? La respuesta es que para muchos problemas este mtodo es ms
sencillo. El siguiente lo ilu trar.
EJEMPLO 10.7. Supngase que X tiene una distribucin binomial con par-
metros n y p. Por tanto (ejemplo 10.2), M x(t) = [pe 1 + q]". Por tanto

M '(t) = n(pe' + qr 1pe',


M "(t) = np[e'(n - l)(pe' + q) " - 2 pe' + (pe' + q)" - 1 e1]

Por tanto E(X) = M'(O) = np, que concuerda con nuestro resultado anterior.
Tambin, E{X 2 ) = M"(O) = np[(n - 1 )p + 1]. Luego

V(X) = M"(O) - (M'(0)] 2 = np(l - p),

lo que nuevamente concuerda con lo encontrado previamente.

10.8. Supngase que X tiene distribucin N(a:, P2 ). Por tanto (ejem-


EJEMPLO
plo 10.5),Mx(c) = exp (ctt + tP 1 r2 ) . As

M'(t) = e' +P21 212(P 2t + a),


M"(t) = e,2, 12 +a1p2 + (p2t + a)2eP2,12+,.,,

y M'(O) = a, M"(O) = P2 + a 2 , dado E(X) =a y V(X) = {3 2 como antes.


Usemos el mtodo de las fgm para calcular la esperanza y la varianza de una
variable aleatoria con distribucin de probabilidades geomtrica, ecuacin (8.5).

EJEMPLO 10.9. Sea X una distribucin de probabilidades geomtrica. O sea,


P(X = k) = 1
qk - p, k = 1, 2, . .. (p + q = 1). As
224 La funcin cncr dora de nu menlos I0.4

S nos restrngmos a aquello valore de 1 para lo cualc O < qe' < 1[esto e .
t < ln(1 /q)] podemo entonce umar la erie anterior como una erie geomtrica
y obtener
p
Mx(l) = - qe'[l + qe' + (qe') 2 + ]
q
p qe' pe'
= --- = - -
q 1 - q1/ J - qe'
Por tanto
, ( 1 - qe') pe' - pe'! - qe') pe' .
M (t) := (1 - qe')2 = (I - qe')2,

M"(t) = (1 - qe') pe' - pe'2( 1 - qe')( - qe') = pe'(J + qe'~


2

( 1 - qe') 4 ( 1 - qe1)
3

Por tanto
E(X) = M'(O) = p/(1 - q)" = l / p,
E(X 2) = M"(O) = p(l + q)/ ( 1 - q) 3 = (1 + q)/p2 ,
y
V(X) = (1 + q)/ pi. _ ( l/ p)2 = q/ p2.

Tenemos as una verificacin del teorema 8.5,


Los dos teorema siguientes ern de mucha importancia en nuestra aplca-
ciones de la fgm.

Teorema 10.2. Supnga e que la variable aleatoria X tiene fgm M x Sea Y =


a.X + /J. En tonces M y , la fgm d la variable aleatoria Ye t dada por

(10.12)

En palabras: para encontrar la fgm de Y = aX + /~. calculamo la fgm de


X en a.t (en vez de t) y multiplicamos por e'11.
Demostracin:
Mr(t) = E(e rr = E[X+/.1) 1
]

= e 111 E(e~'x) = e 111 Mx(~1).

Teorema J0.3. Sean X y Y dos variables aleatorias con fgm , M x(r) y M r(l) re pec-
tivamente. Si Mx(t) = Mr(r.) para todo los valore de t, entonces X y Y
tienen Ja misma distribucin de probabildades.
Demostracin : la demostracin de este teorema es muy difici l para darla aqu.
Sin embargo, e muy importante comprender exactamente lo que e tablece el
teorema. Dice que si dos variables aleatoria tienen la mi ma fgm. tienen la mi ma
distribucin de probabilidades. E to e , la fgm determina unvocamente la di tri-
bucin de probablidade de la variable aleatoria.
I0.5 Propkd11d" reprodu tl~llll 22.'I

EJEMPLO10.10 Supngase que X tiene distribucin N(, a 2 ). Sea Y = rxX + [J.


Luego Y e t de nuevo distribuida normalmente. Del teorema 10.2 la fgm de Y
es My(t) = t!'Mx(rxt). Sin embargo, del ejemplo 10.5 tenemos que

Por tanto
Mr(t) = ell1[e~11+<aa1 1 12]
2 2

= e<ll+ap)le(aa)22/2 .
Pero sta es la gm de una variable aleatoria distribuida normalmente con espe-
ranza rx + p y varianza <1. 2 a 2 Luego, de acuerdo con el teorema 10.3, la distri-
bucin de Y es normal.
El teorema siguiente tambin de empea un papel vital en nuestro trabajo
posterior.

Teorema 10.4. Supngase que X y Y son variable aleatorias independientes.


Sea Z = X + Y. Sean M x(t), y M r(l) y M z(t) las fgm de las variables alea-
torias X , Y y Z, respectivamente. Luego

M z(t) = M x(t)M r(t) (10.l3)


Demostracin :

M z{t) = E(ez') = E e<X + rr] = E(eXer')


= E(ex')E(er~ = M x(t)M v{I).
Observaci" : este teorema puede generalizarse como sigue: si X 1 , , X., son variables
aleatorias independientes con grn M,,1 , i = 1, 2, ... , n entonces la fgrn de

Z = X, + ... + Xn,
est dada por
Mz(!) = Mx,(r)' Mx.(t). (I0.14)

10.5 Propiedades reproductivas

Hay varias distribucione de probabilidades que tienen la notable y til pro-


piedad siguiente: si dos (o ms) variable aleatorias independiente que tienen cierta
distribucin se suman, la variable aleatoria que re ulta tiene una distribucin del
mismo tipo que la de los sumandos. Esta propiedad se llama propiedad reproducti1.m,
y la estableceremos para varia distribuciones importantes con ayuda de los
teoremas 10.3 y W.4.

EJEMPLO 10.J l. Supngase que X y Y son variables aleatorias independientes


con distribuciones N(h un
y N( 2 , a !} respectivamente. Sea Z = X + Y. Por
tanto
226 La fon ilm gerwradora d 111001~1110~ 105

Mi(t) = Mx(t)Mr(l) = exp ( 1t ufr 2/2) exp ( 2 t + 11~1 2 /2)


= exp [(1 + 2)t + (uf + ut 2/2].
Sin embargo, esto repre enta la fgm de una variable aleatoria di tribuida normal-
mente con valor e perado 1 + 2 y varianza O'T + u~. As Z tiene e ta di tribu-
cin normal. (Ver el teorema 10.3.)
Observacin : E(Z) = 1 + 2 y V(Z) = u f + a j pudo haberse obtenido inmediatamente
de los resultados anteriores relacionado con las propicdade de la esperanza y la varianza.
Pero establecer que Z es nuevamente distribuida normalmente necesit el u o de la gm.
(Hay otro enroque de este resultado que se mencionar en el captulo 12.)

EJLl.MPLO J0.12 . La longitud de una varilla es una variable aleatoria d istri-


buida normalmente con medida 4 pu lgada y varianza 0,01 pu lgada 2 . Do de tale
vari llas se ponen extremo con extremo y e ajustan en una mue ca. El largo de e ta
mue ca e de 8 pulgadas con una tolerancia de 0, 1 de pulgada. 'ul e la proba-
bilidad de que se aju ten la dos varillas'!
Representando por L1 y L2 la longitude de la varilla 1 y la varilla 2. tenemos
que L = L1 + L 2 est di tribuida normalmente con E(L) = y V(L) = 0,02. Por
tanto
7 9 - 8 L - 8 8 l - 8]
P(7,9 ::;; L ::;; 8,1] = P[ ___:_ - ~ - - ::;; - '- -
0. 14 o 14 0,14
= <l>(+0.7 14) - <l>( - 0,7 14) = 0,526,
de las tablas de la distribucin normal.
Podemo generalizar el resultado anterior en el teorema siguiente.

Teorema 10.5. (la propiedad reproductiva de la distribucin normal). ean


X 1, X 2 , X n n variables aleatorias independientes con distribucin
. ,
N(, uf), i = 1, 2, ... , n. Sea Z = X+ + Xn. Luego Z tiene di tribucin
(!.i' : 111. Li =,uf).
La distribucin de Poisson tambin posee una propiedad reproductiva.

Te<>rema 10.6. ean X., ... , X n variab le aleatoria independiente . u-


pnga e que X tiene una distribucin de Po is on con parmetro IX;, =
1, 2, . .. , n. Sea Z = X 1 + + X n Luego Z tiene una distribucin de
Poisson con parmetro
IX = IX1

Demostracin : consideremos primero el ca o de 11 = 2.

Luego Mz(I) = ' 1 +~ 211"' - 11 Pero e ta e la fgm de una variable aleatoria con una
di tribucin de Poisson que tiene parmetro '.X 1 + ix 2 Ahora podemo completar
la demost racin del teorema con ayuda de la induccin matemtica.
11).5 Propiedades r~produl'tl\ :" 2r/

E.JEMPL 10.13. Supnga e que el nmero de llamada que llegan a una


central telefnica entre las 9 a.m. y 1O a.m .. es una variable aleatoria X 1 , con
una di tribucn de Poi on con parmetro 3. Anlogamente, el nmero de lla-
madas, que llegan entre las 10 a.m. y 11 a.m., dgamo X 2 tambin tiene una
distribucin de Pois on, con parmetro 5. Si X 1 y X 2 son independientes, cul
es la probabilidad de que e reciban ms de 5 llamadas entre la 9 a.m. y las
11 a.m.?
Sea Z = X 1 + X 2 . Del teorema anterior. Z tiene una distribucin de Poi on
con parmetro 3 + 5 = 8. Por tanto
5 - 8(8)k
P(Z > 5) = 1 - P(Z s: 5) = 1 - _e-
k O k!
= l - 0,1912 = 0,8088.

Otra distribucin con una propiedad reproductiva e la di tribucin de chi


cuadrado.

Teorema 10.7. Supnga e que la distribucin de X e x;,, i = 1,2, ... k, en


donde los X 1 son variables aleatorias independiente . Sea Z = X 1 + +
X k ntonces Z tiene distribucin x:,
en donde n = n 1 + nk

Demostracin : de la ecuacin (JO.JO) tenemos Mx ,(t) = (.1 - 2t) - "" 2 i = l.


2, ... k.
Luego
Mz(t) = Mx,(t)Mx.(t) = (1 - 2t)- 1"+ .. +n>l 2 .

Pero e ta e la fgm de una variable aleatoria que tiene la di tribucin x;.


Ahora podemos dar una de las razones de la gran importancia de la di tribu-
cin de chi cuadrado. n el ejemplo 9.9 encontramos que si X tiene di tribucin
N(O,l), X 2 tiene di tribucin xT. Combinando esto con el teorema 10.7, tene-
mo el re ultado siguiente.

Teorema 10.8. Supngase que X 1 , Xk on variable aleatoria indepen-


diente , donde cada una tiene di tribucin N(O, I). Entonce S = Xi +
X~ + + Xl tiene di tribucin xf.

EJEMPLO 10.14. Supnga e que Xi. .... X" son variable aleatoria inde-
pendientes cada una con distribucin N(O, 1). Sea T = X 1 + + x;. De
nue tra exposicin previa sabemo que T 2 tiene distribucn ;d.
Para encontrar la fdp de T. llamada h. proseguiremos como es corrente:

H(I) = P(T :::;; t) = P(T 2 :::;; t2)

= f~' 21 2~(n/2) :"' 2- e-,12 dz.


22H ta funcil>n f.ll'Hl'rndot11 d1 111111nl1110, 10.5

Por tanto, tenemos

!lit) = H '(l)

2t" 1 I' rl l
2 (11 SI 1 ~ O.
- 2" 21

Observaciones: (a) Si n = 2. la distribucin anterior se conoce como una distribucin de


Rayleigh. (Ver problema 9. 7.)
(b) i n = 3, la distribucin anterior e conoce como distribucin de Maxwell (o, a lgunas
veces, distribucin de velocidad de Maxwell) y tiene la siguiente interpretacin importan-
te. Supngase que tenemos gas en un depsito cerrado. Representemos por (X. Y, Z) las
componentes de la velocidad de una molcula escogida al azar. Supondremos que X, Y y
Z son variables a leatorias independientes cada una con una distribucin (U, a 2 ). (Suponer
la misma distribucin para X. Y y Z, significa que la presin en el gas es la misma en todas
direcciones. Suponer que la esperanza son iguale a cero. significa que el gas no e h esca-
pndose.) Por lo tanto la velocidad de la molcula (es decir, la magnitud de u velocidad)
est dada por S = X 2 + Y2 + ZT Ob ervemos que X/u, Y/u y Z/u estn distribuidas
(0,1). As S/u = ~ + (Y/ u) 2 + (Z/ u) 2 , tiene la distribucin de Maxwell. Por tanto
g, la fdp de la velocidad S, est dada por

s ~o.

El grfico de g se da en la figura 10.2 para u = 2. Ob erve que valores muy grandes o muy
pequeo de S son muy improbables. (Puede demostrar e que la constante u que aparece
como un parmetro en la distribucin anterior. tiene la .iguiente interpretacin fisica: u=
. en donde T es la temperatura absoluta, M es la masa de la molcula. y k se cono-
ce como la constante de Boltzmann.)

Hemos expuesto algunas distribucione-. que tienen la propiedad reproduc-


tiva. Consideremo la dis!ribucin exponencia l que. hablando estrictamente, no
posee la propiedad reproducti va. pero que. sin embargo. tiene una propiedad
anloga.
g(s)

FIGURA 10.2
I0.6

Sean X ;. i = t. 2, .... r e r variable ... aleatorias independientes, con idnti-


ca distribucin exponencial con pa rmcl ro '.l. Luego de la ecuacin (10.7) te-
nemos
Mx,(1) = 'i./ (1 - r).

uego si Z = X 1 + + X,. tenemos M z(I) = [1/7- - t]', que precisamente e


la funcin generadora de momento de la di tribucin Gama con parmetro
rx y r. (ecuacin I0.9.) A men que r = L esta no e una fgm de una distribucin
exponencial. luego esta distribucin no posee una propiedad reproductiva. Pero
tenemos una caracterstica muy intcre an te de la distribucin Gama, que resu-
mimo en el teorema sig uiente.

Teorema 10.9. ea Z = X 1 + f- X,. en donde los X; son r variables


a leatoria independiente e idnt icamente distribuida , donde cada una
tiene una distribucin exponencia l con el m ismo parmetro rx. e cumple
entonces que Z tiene una di t ribucin Gama on parmetro et y r.

Observaciones : (a) El teorema 10.9 no se cumple i los parmetros de las diversas distri-
bucionc eJCponcnciales son diferentes. sto llega a ser evidente cuando con ideramos la
fgm de la suma de las variables aleatorias que resulta.
(b) El corolario siguiente del teorema anterior tiene mucha importancia en ciertas apli-
caciones estadsticas: la variab le a leatoria W = 2aZ tiene distribucin x~,. Esta es una con-
secuencia inmediata del hecho de que Mw(ll = M z{2at) = a/(a - 2at)]' = (1 - 2r- i12.
Compuando esto con la ecuacin (J0.10) da el corolario anterior. Luego podemos usar
la distribucin tabulada de x cuadrado a nn de calcular ciertas probabilidades asociadas
con Z. Por ejemplo, P(Z ::;; 3) = P(2aZ ::;; 6a:). Esta ltima probabilidad puede obtenerse
directamente de las ta las de la distribucin de 7. cuadrado. si se dan a y r.

I0.6 ucesiones de variables aJeatorias

Suponiendo que tenemos una ucesin 1.11! ariables a leatorias X., X 2


X,, . . . . 'ada una de e as variables aleatorias puede describirse mediante F;,
~u fda . siend F 11r) = P(X , ~ 1). i = l. 2.. . . Mu . a menudo nos interesa lo que
sucede a F; cuando i--+ . E decir, hay alguna funcin de distribucin lmi-
le F correspondiente a alguna variable aleatoria X tal que de alguna manera.
las aria bles aleatorias X; t:onverJan en K.' La respuesta e alirmativa en mucho
ca os. y hay justamente un procedimiento directo para determinar F.
Tal situacin puede aparecer cuando consideramos n bservacones inde-
pendiente de una variable a leatoria X. llammo las X., ... , X n Podramo in-
teresarnos por el promedio aritmtico de e as observaciones X" = (1 / ri)(X 1 +
+ X n). e nue o Xn es una variable aleatoria. Sea Fn la fda de n Podra ser
de inters aprender lo que . ucede a la di tribucin de probabilidade de X n
cuando n llega a . er grande. A nuestro problema implica la conducta lmite de
F,. cuando n-+ . El teorema siguien te, e tablecido in demostracin. nos permi-
tir re olver es te y otros problemas semejante .
230 L11 foocin gencr11dur11 de mumentus I0.7

Teorema 10.10. Sean X., ... . X" ' una uce in de variables alealorias con
fda Fi. ... , F,,, . .. y fgm M 1 , M., ... Supngase que limn ... >Mn(t) =
M(t), en donde M(O) = t. Luego M(t) e la fgm de la variable aleatoria
X cuya fda F est dada por limn G;> Fn(l).
Observacin: el teorema 10.10 dice que para obtener la distribucin lmite buscada, es
suficiente estudiar las funciones generadoras de momentos de las variables aleatorias que se
consideran. Obtenernos el valor lmite de las sucesiones M 1, , M ., . .. , llamada M(t~
Debido a la propiedad de unicidad de la fgm, existe slo una distribucin de probabilidades
que corresponde a la gm M(.1). Podemos aceptar M como la fgm de una distribucin conoci-
da (tal como la normal, Poisson, etc.) o bien podemo usar mtodos ms avanzados para
determinar la distribucin de probabilidades de M . Tal como podemos obtener la fgm co-
nociendo la fdp tambin podemos obtener (en condiciones completamente generales) la dp
conociendo la fgm. Esto implicara ciertos teoremas de inversin y no continuaremos ms
con esto.

10.7 Nota final

, Hemos visto que la fgm puede ser una herramienta muy poderosa para es-
tudiar diversos aspectos de las distribuciones de probabilidades. En partcular,
encontramos muy til el uso de la fgm para estudiar sumas de variables alea-
torias independientes e idnticamente distribuidas y obtener diversas leyes re-
productivas. Estudiaremos nuevamente la sumas de variables aleatorias inde-
pendientes en el captulo J2, in u ar la fgm. pero con mtodos semejantes a los
que usamos cuando estudiamos el producto y el cociente de variables aleatoria
en el captulo 6.

PROBLEMAS
10.1. Suponiendo que X tiene fdp dada por
f (x) = 2x, 0 :5: X :5: 1.
(a) Determine la gm. de X .
(b) Usando la gm, calcule E(X) y V(X) y verifique su respuesta. (Ver oooervacin, p. 232.)
10.2. (a) Encuentre la fgm del voltaje (incluyendo el ruido) tal como se expuso en el pro-
blema 7.25.
(b) Usando la fgm, obtenga el valor esper;ldo y la varianza de este voltaje.

10.3. Suponiendo que X tenga La fdp siguiente


f(x) = le - .1(" - 1, x ;;:: a.
(Esta es conocida como una distribucin exponencial con dos parmetros.)
(a) Encontrar la fgm de X.
(b) Usando la gm, encontrar E(X) y V(X).
I0.4. Sea X el resultado cuando se lanza un dado regular.
(a) Encontrar la fgm de X.
(b) Usando la gm, encontrar E(X) y V(X).
l'robkm ' 2 \1

10.5. Encontra r la fgm de la variable aleatoria X del problema 6.7. Usando la fgm, en-
contrar E(X) y V(X).
10.6. Supngase que la variable a leatoria continua X tenga fdp
<x<
(a) btener la fgm de X.
(b) Usando la fgm, encontrar E(X) y V(X).
I0.7. Usando la fgm , demostrar que . i X y Y on variables alea to rias independ ientes
con distribuciones (", a;) y N( ,,. a;) res~ctivamente. entonce Z = aX + b Y est nue-
vamente distribuida normalmente, en donde /1 y b on con tantes.
I0.8. Suponiendo que la fgm de una variable a leatoria X es de la forma
M x(I) = (0,4e' + 0,6)8 .
(a) , 'ul es la fgm de la variable aleatoria Y = 3X + 2?
(b) Calcular E(X).
(c) Puede verificar su rcspue ta (b) por algn otro mtodo? [ rate de reconocen>
M x(t)].
10.9. Varias re istcncias R 1, = 1, 2..... 11, e ponen en serie en un circuito. u poniendo
que cada una de las resistencia est distribu ida normalmente con E(R 1) = 10 ohms y
V(R;) = 0, 16.
(a) i /1 = 5, cul es la probabilidad de que la resi tencia del circuito obrcpa e los
49 ohms?
(b) ,Cul debe ser el valor de /1 de modo que la probabilidad de que la resi tencia total
obrepase los 100 ohms sea aproximadamente 0.05'!
10.10. n un circuito se ponen 11 resi tencias en serie. Supngase que cada una de las
resi tencias est di tribuida uniformemente en (0,1] y supnga e adem . que todas las
rcsi tcncias son independientes. ea R la resistencia total.
(a) Encontrar la fgm de R.
(b) Usando la fgm, obtener E(R) y V(R). Verifique su respuesta con un clcu lo directo.
10.11. Si X tiene una distribucin x;, utilizando la fgm. demuestre que E(X) = 11 y
V(X) = 211.

IO. l2. upnga e que V, la velocidad de un objeto (cm/ eg), tiene distribucin N(0,4).
Si K = mV 2 /2 ergs es la energa cintica del objeto (donde m = masa), encuentre la fdp de
K. i m = 10 gramos, calcu le P(K ~ 3).
10.13. Supnga e que la duracin de un artculo e t distribuida exponencialmente
con parmetro 0,5. Supnga e que 10 de tale artculos se instalan sucesivamente, de modo
que el i- imo artculo se instala inmediatamente despus de que el (i - 1) articu lo ha
fallado. Sea Tr el tiempo para fallar del -sirno artculo, i = 1, 2, ... , 10, medido siempre
desde el tiempo de instalacin. Luego S = T 1 + + T 10 representa el tiempo total de
funcionamiento de los 10 artcu lo . Suponiendo que los T 1 son independientes, calcu le
P(S ~ 15,5).

10.14. Supnga e que X., ... , X 80 on variables aleatorias independientes, donde cada
una tiene distribucin N(O,I). Calcular P[Xi + + X j 0 > 77]. [I11dicacic.11 : u e el teore-
ma 9.2.)
232 La funcin generador de mnmenlO!l

=
10.15. Demuestre que si X, i 1, 2, .... k representa el nmero de xitos en n1 repe-
ticiones de un experimento, en donde P(xito) = p, para todo i, entonces X 1 + +X~
tiene una distribucin binomial. ( sto es la distribucin binomial tiene la propiedad repro-
ductiva.)
10.16. (La distribucin de Poisson y la multinomial.) Supngase que X 1 i = 1,2, ... , n
son variables aleatorias independientes con una distribucin de Poi on con parmetros
i, i = l, . . . , n. Sea X = !:~. 1 X ;. Entonces la distribucin de probabilidades condicional
conjunta de X., ... , X,, dado X = x est dada por una distribucin multinomial. Esto es,
P(X 1 = x,, . . . ' X. = x.IX = X) = x!/(X1 ! ... x,,!)(:x,/!:7 =10:1)"' . . . (o:./!:7= ,o:,)"n.
10.17. Obtener la fgrn de una variable aleatoria que tiene una distribucin geomtrica.
Posee esta distribucin una propiedad reproductiva bajo la adicin?
10.18. Si la variable aleatoria X tiene una gm dada por Mx(t) = 3/(3 - t), obtener la
desviacin estndar de X .
10.19. Encontrar la fgm de una variable aleatoria que est distribuida uniformemente
en (-1,2).
10.20. Cierto proceso industrial produce un gran nmero de cilindros de acero cuyas
longitudes estn distribuidas normalmente con promedio 3,25 pulgadas y desviacin estn
dar 0,05 pulgada. Si se elige.in al azar dos de tales cilindros y se ponen ex.tremo con extremo,
cul es la probabilidad de que la longitud combinada sea menor de 6,60 pulgadas?

Observacin: al calcular MX(t), en t = O, puede aparecer una forma indeterminada. Es


decir, MX{O) puede er de la forma 0/0. En tal ca o debemo tratar de aplicar la regla de
L'Hopital. Por ejemplo, si X est distribuida uniformemente en [O,l] encontramos fcil
mente que Mx{t) = (e' - l)/t y MX(t) = (te 1 - e' + 1)/12. Por tanto para t = O, M.{t) es
indeterminada. Aplicando la regla de L'Hopital, encontramos que lim1-o MX(t} = lim1-o
te 1/2t = i- Esto concuerda, puesto que Mx(O) = E(X), que es igual a 6 para la variable
aleatoria de crita aqu.
11

Aplicaciones a la teora de la confiabilidad

11.1 Conceptos bsicos


n este captulo investigaremos un rea creciente y muy importante en la cual
se aplican algunos de los concepto pre entados en los captulos anteriores.
up6ngase que con ideramo un componente (o un conj unt comp leto de
compo nentes armados en un sistema) q ue se pone bajo una especie de len im}.
Podra ser una barra de acero bajo una carga, un fu ible pue to en un circu ito.
un ala de aeroplano bajo la inluencia de fuerzas, o un instrumen to electrnico
puesto en servicio. Supnga e que puede definir e un e tad que designaremo
como falla para cualquier componente (o el sistema). Es decir, la barra de
acero puede agrieta rse o romperse. el fusible puede quemarse, el a la puede do-
blarse, o el instrumen to electrnico puede dejar de funcionar.
Si ta l componente se pone bajo condiciones de tensin a un tiempo determi-
nado, t = O, y ob ervamos ha ta que fal la (es decir, deja de funcionar correcta-
mente bajo la lensin aplicada), el tiempo para fallar o la duracin llammoslo
T, puede con iderarse como una variable aleatoria continua con una fdp f. Hay
mucha evidencia emprica para indica r que el valor de T no puede er predicho
por un modelo determinstico. s decir, componente idnLicos someLido. a
e fuerzo idntico fa llarn en tiempo d iferentes e impredecibles. Algunos
fa llarn muy al com ienzo de su servicio y o tros en etapas po teriores. al ural-
mente, que la manera de fallan> depender del Lipo de artculo que se cons ide-
ra . Por ejemplo, un fusible fallar de improviso en el sentido de que en un mo-
mento dado funciona perfectamente y al momento iguiente no funciona. Por
otra parte, una ba rra de acero bajo una carga pesada se debi li tar probable-
mente en el trascurso de un perodo largo de tiempo. n cualquier ca , el u o
de un modelo probabil tico. considerando T com una variab le aleatoria. pa-
rece ser el nico enfoque rea li la. Presenlamo ahora el iguiente concepto im-
portante.
Definicin. La confiabilidad de una componente (o si tema) en el tiempo L
llammo la R(!), est definida como R(t) = P(T > l), en donde T es la
d uracin de la componente. R se llama fw1d11 de co1!flabilidad.
Observacin: aunque el trmino co1fiabilii/cub> Licnc muchos significado tcnicos d i-
ferentes, la acepcin anterior se est aceptando mts comnmente. La definicin dada aqu
233
234 Aplicaciones a la teora de la confiabilidad 11.1

cxpreS encllamente que la confiabilidad de una componente es igual a la probabilidad de


que la componente no falle durante el intervalo [O. r] (o, equivalentemente, la confiabilidad es
igual a la probabilidad de que la componente est an funcionando despus de un tiempo e).
Por ejemplo, si para un artculo particular, R(t 1) = 0,90 esto significa que aproximadamente
el 90 por ciento de tales artculos, usados en ciertas condiciones, estarn todava funcionando
despus de un tiempo t 1
Mediante la fdp de T, llammo laf, tenemos

R(I) = f~ f(s)ds.

Mediante la fda de T. llammo la F, tenemo

R(c) =1- P(T S. t) = 1 - F(t).

Adem de la funcin confiabilidad R, otra funcn desempea un papel im-


portante para de cribir la parte que fallan de un artculo.

Definicin. La casa de falla (in tantnea) Z (algunas vece llamadas funcin


de riesgo) a ociada con la variable aleatoria T est dada por

f(t) f(t)
(11.1)
Z(t} = l - F(t) = R(t) '

definida para F(t} < l.


Ob ervacin : a lin de interpretar Z(t) c-0nsideremos la probabilidad condicional

P(t 5 T5 1 + .6.rlT > e),

es decir, la probabilidad de que el articulo falle durante las prximas .6.c undade de tiempo,
dado que el artculo est funcionando correctamente en el instante t. Aplicando la definicin
de probabilidad condicional, podemos e cribir lo anterior como

P(t < T 5 t + .6.r)


P(1 s. T s. 1 + .6.1IT > e)= P(T > r)

= J;+d'f(x)dx/ P(T > 1) = .6.1/(~)/R(1),


en donde 1 5 ~ 5 1 + .6.1.
La ltima expresin (para un /J.t pequen o y suponiendo que fes continua t +) es aproxima-
damente igual a .6.1Z(1). As, en un lenguaje informal .6.tZ(t) representa la proporcin de artculos
que estar entre 1 y t + IJ.t , entre aquellos artculos que an funcionan en el instante 1.
De lo anterior observamos que f, la fdp de T, determina unvocamente la tasa de fallas Z.
Indicaremos ahora que lo recproco tambin es vlido: la tasa de fallas Z determina unvoca-
mente la fdp f

Teorema 11. 1. Si T, el tiempo para fallar, es una variable aleatoria conti-


nua con fdp f y si F(O) = O en donde F es la fda de T , entonces f puede
expre ar e mediante la ta a de falla Z como sigue
f(t) = 2(1) e- J~Z(Jh (11.2)
11.1

Demostracin : pue to que R(r) = 1 - F(r), tenemos R'(t) =- F '(t) = - f(l).


Luego
Z(I) = j (1) = - R'(t).
R(f) R(I)

Integrando ambos miembro de O a t:

f' Zts) d. = - f' -R'(s)) ds = - 1nR(s)lb


0 0 R(s

=- lnR(t) + JnR(O) = - lnR(t},

dad que hay 1nR(O) = O lo que e vlido i y lo i R(O) = l. [ la ltima con-


dicin e a ti face i F(O) = O. implemente xpresa que la probabilidad de una
falla inicial e igual a cero ; haremo e ta upo icin durante el resto de la exposi-
cin.] Por tant
R(t) = e- J~7.<s>d
Luego
f(I) = F'(t) = !!_ ( 1 - R(l}] = Z(l)e - J~Zls)Js
dt

A hemo demos trado que la lasa de fa lla s Z determina unvocamente la fdp f.


Ex te una relacin interesante entre la funcin de confiabilidad R y el tiempo
promedio de falla, E(T).

corema 11.2. i E(T) es finito. ent nce

E(T) = Jo R(t ) d1. (11.3)


Demostracin : e nsidera ndo

Jo R(l)dl =J 1) [f;~ f(s)ds] dt.

Integrando por parte . hacemos St f (s) ds = u y dt = dv. Luego v = t y du =


- f( t) dt. As
Jo R(t) de = t J;i: f(s) ds 1 o + Jo 1f(l) dt .

La egunda integral del egundo miembro representa E(T). Por tanto la de-
most racin e, t completa i podemos demostrar que tJ, f(s) ds e anula en t = O
y cuando t . La anulacin en t = O es inmediata. Sabiendo que E(T) es fi-
nita , el lector puede completar la demostracin.
Los concepto de confiabilidad y lasa de falla e tn entre la herramientas
nece arias m importante para un estudio de los modelos de falla. Breve-
mente vamos a ocupamos de las iguiente preguntas:
(a) 'u le on las leye de fall<ll> fundamentales que razonablemente se
pueden suponer? (Es decir, ;,qu forma tendra la fdp de T?)
2.1' Apllcadones a la tcoria de 111 connabilldad 11.2

(b) Supngase que tenemos dos componente , C 1 y C 2 con leye de falla


?conocidas. Suponiendo que dichas componentes e combinan en serie

o en paralelo

para formar un sistema . cul es la ley de fallas (o confiabilidad), del sistema?


La pregunta cul es una ley de fallas razonable no devuelve a un problema
que hemos presentado antes: cul es un modelo matemtico razonable para la
' descripcin de algunos fenmenos observables? De de un punto de vista e tric-
tamente matemtico, prcticamente podemo upone.r cualquier fdp para T y
luego e tudiar sencillamente la con ecuencias de esta uposicin. Sin embargo,
i estamos interesados en tener un modelo que repre ente (tan exactamente como
sea posible) los datos de fallas realmente disponibles, nuestra eleccin del mo-
delo debe tener esto en cuenta.

11.2 La ley normal de fallas


Hay muchos tipos de componentes cuya conducta de falla puede represen-
tarse por la distribucin normal. Es decir, Te la duracin de un artculo, su fdp
est dada por

LNuevamente ob ervamos que el tiempo para fallar T, debe ser mayor que (o
igual) a cero. Por tanto a fin de que el modelo anterior sea aplicable debemos
insistir en que P(T < O) sea forzosamente cero.] Como la forma de la fdp normal
lo indica, una ley normal de fallas implica que la mayor parte de los artculos
fallan alrededor del tiempo promedio de falla, E(T) = y el nmero de fallas
disminuye (simtricamente) cuando IT - aumenta. Una ley normal de fallas
significa que alrededor del 95,72 por ciento de las fallas tiene lugar para Jos valores
de r que satisfacen {ti lt - I < 2u }. (Ver figura 11.1.)
R(t)

FlURA 11.1 FIGURA 11.2


11.3 L lt e pom.'flchal de fillla~ 237

La funcn de confiabilidad de la ley normal de fallas puede expre ar e me-


diante la funcin de distribucin ormal acumulativa tabulada <l>, como sigue:

R(t) = P(T > t) = 1 - P(T ~ t)

= 1- -J-
$u -
f 1

00
exp ( - -1
2
[X--=--
u
]2) dx

=1- <l> e~)-


La figura 11.2 mue tra una curva general de confiabilidad para una ley normal
de falla . Ntese que a fin de obtener una confiabilidad alta (0,90, o mayor) el
tiempo de operacn debe er con iderablemente menor que , la duracin es-
perada.
Erl'!MPLO 11.1. Suponiendo que la duracin de una componente e t distri-
buida normalmente con una de viacin e tndar igual a 10 (hora ). Si la com-
ponente tiene una confiabilidad de 0.99 para un perodo de operacin de 100
horas, cul debera er su duracin esperada?
La ecuacin anterior e transforma en

0,99 =1- <l> ('


00
, ~ )-
De la tabla de la distribucin normal (11)() - )/ 10 = -2,33. Luego= 123,3
hora.
La ley normal de fallas reprc cnta un modelo apropiad para lo componen-
te en lo cuales la falla se debe a algunos efecto de U o. in embargo no e t
entre la ms importantes Jeye de fallas que existen.

11.3 i...a ley exponencial de fallas


Una de la leyes de fallas m importante e aquella cuyo tiempo para fallar
se de cribe mediante una distribucin exponencial. Podemos describirla de varias
maneras, pero probablemente la manera m encilla es suponer que la ta a de
falla e constante. Es decir, Z(t) = a. Una consecuencia inmediata de e ta supo-
icin e . egn la ecuacin (11.2), que la fdp asociada con el tiempo para fallar
T , e t dada por
f(t) = r.xe -" , t > O.
El recproco e tambin inmediato: si f tiene la forma anterior, R(l) = 1 - F(t)
= e- 111 y por tanto Z(t) = /(1)/ R(1) = !X. Luego tenemos el siguiente re ultado
importante.

eorema 11.3. ea T , el tiempo para fallar, una variable aleatoria conti-


nua que toma todos lo valore no negativos. Luego T tiene una distri-
bucin exponencial si y slo i tiene una ta a constante de falla .
2K plk11ciun<'!. a la !corla de 11& cooflabllldad JI

Observacin : la uposicin de que una tasa constante de fallas puede ser interpretada como
una indicacin de que despus de que el artculo ha sido usado, su probabilidad de fallar no
ha cambiado. Dicho de una manera ms inform;1l, no hay erecto de uso cuando se estipula
el modelo exponencial. Existe otra manera de expresar esto que hace esta parte an ms
evidente.
Considrese para t > O, P(i ~ T ~ t + Atl T > 1). Esta representa la probabilidad de que
el artculo falle durante las prximas At unidades dado que no ha fallado en el instante l.
Aplicando la definicin de probabilidad condicional, encontramos que
e - 7r - e - a(r +.dlr)
P(t s; T s; 1 + tl T > t) = e
-o:r =l - e- "'

Por tanto esta probabilidad condicional es independiente de t y slo depende de l . Es en este


sentido que podemos decir que una ley exponencial de fallas implica que 1<1; probabilidad de
fallar es independiente del pasado. Es decir, mientras el articulo funcione es tan bueno como
nuevo.
Si desarrollamos el scg1indo miembro de la expresin anterior en una erie de Maclaurin
obtenemos

P(t ~ T ~ t + t lT > t) =1- [ l - at


(aAr)2
+ 2! - ---:31 +
(aiit) 3 l
= all.1 + /1(At).
en donde h(Ar) llega a ser despreciable para t pequeo. Luego para !J.1 sulicientemente pequeo
la probabilidad anterior es directamente proporcional a t.
Para mucho tipos de componentes la hiptesi que conduce a la ley expo-
nencial de fallas no es slo intuitivamente atractiva sino que en realidad e t
sostenida por evidencia emprica. Por ejemplo, e muy razonable suponer que
un fusible o un cojinete de rubes es tan bueno como nuevo mientras est funcio-
nando. Es decir, s el fusible no se ha fundido , prcticamente est como nuevo.
Tampoco el cojinete cambiar mucho debido al uso. n esto casos, la ley ex-
ponencial de fallas repre enta un modelo apropiado para estudiar las carac-
tersticas que fallan en un artculo.
Sin embargo, debemos dar aqu una palabra de precaucn. Hay muchas
situaciones que implican estudio de falla para lo cuale las hipte i b icas
que conducen a una ley exponencial no ern satisfechas. Por ejemplo, si una
f(t) F(t) R(t)

FIGURA 11.3
11.3 La le e ponencia! dt fall ., l3'J

pieza de acero est expue ta a una tensin continua, evidentemente ufrir un


deterioro, y por tanto se debe con iderar un modelo distinto al exponencial.
Aunque previamente discutimos las di tinta propiedades de la distribucin
exponencial, resummosla nuevamente a fin de tenerla di ponible para el objetivo
iguiente. (Ver la figura 11.3.) Si T, el tiempo para fallar e t di tribuido exponen-
cialmente (con parmetro ex), tenemos

E(T) = l /r1.; V(T) = l /!'J. 2 ;


F(t) = P(T $. t) = t -e - 1; R(t) = e - ~ .

EJEMPLO 11.2. Si e da el parmetr r1. y e.especifica R(t). podemos encontrar


t. el nmero de horas, de operacin. A , i r1. = 0,01 y R(t) e igual a 0,90, tenemos

0,90 = e- 0 011
Luego t = - 100 In (0,90) = 10,54 horas. Por tanto, si la 100 componente fun-
cionan durante 10,54 hora , aproximadamente 90 no fallarn durante ese perodo.

Ob ervaciones: (a) Es muy importante dar e cuenta de que en el ca o excepcional podemos


identilcar el tiempo de operacin (de algn valor inicial arbitrario fijo) con la edad para fun-
cionar. Porque en el ca o exponencial un artculo que no ha fallado e tan bueno como nuf'vo
y, por tanto, su conducta durante cualquier periodo de servicio depende slo de la longitud
de e e periodo y no de su historia anterior. Sin embargo, cuando se supone una ley de falla no
exponencial (tal como la ley normal o una de las distribuciones que consideraremo en breve),
la historia pa ada no tiene efecto sobre el comportamiento del artculo. Por tanto. mientras
podamos delnir Tcomo el tiempo en servicio (hasta la falla) para el caso exponencial. debemos
delnir Tcomo la duracin total ha ta la falla para lo ca os no exponenciales.
(b) La di tribucin exponencial que hemos pre entado en relacin con la duracin de los
componente , tiene muchas otras aplicaciones importantes. En realidad, cada vez que una
variable aleatoria continua T que toma valores no negativo satisface la hiptesi s P( T > s +
ti T > s) = P(T > 1) para todo s y t, entonces Ttendr una distribucin exponencial. A . si T
representa el tiempo que demora un tomo radiactivo en de integrarse, podemos uponer que
T est distribuida exponencialmente, pue to que la suposicin anterior parece sati facerse.

EJEMPLO 11.3. o e irrazonable suponer que cue ta ms producir un artculo


con una gran duracin esperada que uno con una esperanza pequea de duracin.
specficamente suponemo que el co to C para producir un artcu lo es la iguiente
funcin de , el tiempo promedio para fallar,

e= 3 2

Supngase que se obtiene una utilidad de D pe os por cada hora que el artculo
funcione. Luego la utilidad por artculo e t dada por

P = DT- 3 2,
240 1\ 1111 u lonl'\ 11 h1 lcurh1 di' lu l'lmfivbilldad 11.4

en donde Tes el nmero de hora que el artkulo funciona correctamente. Lueg la


utilidad e perada est dada por

E(P) = D - 3 2

Para encontrar para qu valor de e ta cantidad e max1ma , sencillamente


hacemo dE(P)/d1 igual a cero y re 1 emo para. El re ultado es = D/ 6 y por
tanto la utilidad esperada mxima por artcu lo es igual E(P) 11iox = D 2/ 12.

EJEMPLO 11.4. Recon ideremo el ejemplo 11.3, haciendo la su posiciones


adicionales iguiente . Supnga e que T. el tiempo para fallar, e t di tribuido
exponencialmente con parmetro :x. Luego i, el tiempo e perado para fallar,
e t dado por = l/ "-- Supnga e, adems, que si el artculo no funciona correcta-
mente al meno un nmero especfico de horas, digamos r0 , se fija un ca tigo de
K(t 0 - T) pe os. en donde T(T < t 0 ) c. el tiempo en el cual tiene lugar la falla.
Por tanto. la utilidad por artculo e t dada por

P = DT - 311 2 T> to,


= DT - 3~1 2 - K(t 0 - 1} s1 T< lo.

Luego la utilidad esperada (por artculo) puede expresarse como

E(P) = DJ~0 t'1.e - "d1 - 3 2 1- ,,.10


+ (D + K}f 6 /;_e - ' 1d1 - (3i 2 + Kt 0 )(1 - e - ' 10 ).

Despu de una integraciones inmediata lo anteri r puede e cribir e como

tese que i K = O, e to . e reduce a l resultado btenido en el ejemplo 11.3.


Podramo formularno una pregunta anloga a la que apareci en el ejemplo
previo: para qu valor de toma E(P) u valor mximo? o pro eguiremo con
lo detalles de este problema puesto que impl ica la olucin de una ecuacin
tra cendental que debe re olverse numricamente.

11.4 La ley exponencial de fallas y la distribucin de Poisson

Hay una conexin muy prxima entre la ley exponencial de fallas descrita en la
eccin pre ia y un proce o de Poi on. Supnga e que la falla ocurre debido a la
aparicin de ciertos accidentes aleatori S}>. tos pueden qeberse a fuerzas
externa tales como una repentina rfaga de viento o un aumento de voltaje o por
cau a interna tale como una de integracin qumica o un mal funcionamiento
mecnico. Sea X, el nmero de accidente que ocurren en un intervalo de tiempo
de longitud l y supongamos que X 1.1 ~O. determina un proceso de Poisson. E
decir. para cualquier t fijo. la variable aleatoria X, tiene una distribucin de Poi on
11.4 La 1 y e:w.ponencial d fall1 y 11 dhtrlbudn de PolMOO 241

c n parmetro a.t. upngase que la falla en [O, 1] se produce si y lo si al meno


uno de tales accidentes ocurre. Sea Tel tiempo para fallar, que supondremos que e
una variable aleatoria continua. Luego,
F(t) = P(T ::;; t) = 1- (P(T > t).

Ahora T > t i y lo si ningin accidente ocurre en [O, t]. E to acontece y slo


i X,= O. Luego
F(i) = l - P(X, = O) = l - e- 1 .

E to repre enta fa fda de una ley exponencial de fallas. Encontramo a que la


cau a anterior de la falla implica una ley exponencial de fallas.
a idea anteriores se pueden generalizar de dos maneras.
(a) uevamente uponemo que los accidentes aparecen de acuerdo con un
proceso de Poisson. Suponemos, adems, que cada vez que aparece tal accidente
hay una probabilidad constante p de que no producir falla . Por tanto, si Tes el
tiempo para fallar, tenemo , como ante ,
F(t) = P(T ::; t) = l - P(T > t).

E ta vez, T > t i y slo si (durante [O. t]) no ocurre ningn accidente. u ocurre un
accidente y ninguna falla aparece, o dos accidentes ocurren y no a parece ninguna
falla , o. . . Por tanto.

F(l) = l - [e-"'+ (a.t)e-'" p + (a.1) 2 e;; p 2 + .. ]


(a.tp)'
= 1- e-"' L-
CI)
-= l - e - a,r e~ P = 1 - e- a( t - p)1.
k O k!
Luego Ttiene una ley exponencial de falla con parmetro a.(t - p). (Nte e que
si p = O. tenemos el ca o expuesto previamente.)
(b) Supnga e nuevamente que lo accidentes aparecen de acuerdo con un
proce o de Poi son. Esta vez upondremo que las falla s ocurren cada vez que ro
m accidentes (111~ 1) ocurren durante un intervalo de longitud t. Por tanto,
Tes el tiempo para fallar , tenemo , como ante ,

F(1) = 1- P(T > 1).

ne te ca o. T > t si y slo i (r - 1) o menos accidentes ocurren. Por tanto


r - 1 ( a. t)Ae - ~ '
F(t) = 1 - 1~0 _ k_!_

De acuerdo con la ecuacin (9.17) lo anterior es igual a .fHa./(r - J) !](cxsY- 1e- u ds


y por tanto representa la fda de una di tribucin Gama. As, encontramos que la
causa anterior de falla igue una ley Gama de fallas . (Si r = 1, naturalmente e ta
se transforma en una di tribucn exponencial.)
241 pllc11du11l''> In 1corl11 d 111 confiabilidad

11.5 La ley de fallas de Weisbull


Modifiquemos la nocin de tasa constante de fallas que condujo a la ley expo-
nencial de fallas. upnga e que la tasa de fallas Z, a ociada con T, la duracin
de un artculo. tiene la f rma iguiente:

Z(l} = (a/J)r 11 - 1
( 11.4)

en donde~ y fl son con tantes po itivas. De la ecuacin ( 11 .2) obtenemo la ex pre in


siguiente para la fdp de T;

r > O, r:t.. /J >O (11.5)

Se dice que la variable aleatoria que tiene la fdp dada por la ecuacin (11.5) tiene
una distribucin de Weisbu/I. La figura 11.4 muestra la fdp para r:t. = 1 y fl = 1, 2, 3.
La funcin de confiabilidad Re t dada por R(t) = e- .,_,, que es una funcin decre-
ciente der.
f{t)

fJOURA 11.4
0,4 0.8 1,2

Observacin: la distribucin exponencial es un ca o especial de distribucin de Weisbull


puesto que obtenemo la distribucin exponencial si hacemos /1 = 1 en la ecuacin ( 11.4).
La suposicin (ecuacin 11.4) e tablece que Z(I) no es una con tan te. sino que es proporcional
a ias potencia de 1. Por ejemplo, si /1 = 2, Z es una funcin lineal de 1: i /1 = 3. Z e una (uncin
cuadrtica de t ; etc. uego Z e una funcin creciente. decreciente o constante de 1. segn el
valor de /l. como e indic en la fgura 11.5.

Z(I) Z(t) Z(t)

8= 1 8> 1 0 < 8< 1


Z es constante Z es creciente Z es decreciente

IG RA. 11.5
11.()

Teorema 11.4. i la variable aleatoria T tiene una di tribucin de Wei bull


con fd p dada por la ecuacin ( 1J.5). tenemos

E(T) = r:x - 1JrG + 1),


11
( 11.6)

( 11. 7)

Demostracn : ver el problema 11.8.


Observacion : la distribucin de Weisbull representa un modelo apropiado para una ley
de rana iempre qu~ el sistema est compue to por cierto nmero de componente y la fa lla se
debe princpalmente a l defecto ms grave en un gran nmero de defectos del sistema. Tambin
util izando la di tribucin de Weisbull, podemo obtener una tasa de fallas creciente y decre-
ciente al hacer sencillamente una eleccin apropiada de l parmetro p.
En ningn caso hemos agotado el nmero de leye de falla razonables. Sin embargo, las
que hemos mencionado son por cierto extremadamente importante para repre entar modeloo
igniicativos para el estud io de las caracterstica que fa llan en componentes o en istema de
componentes.

11.6 ConfiabiJidad de los sistema


Ahora que hemos con iderado un nmer importante de di tribucione de
falla podemos volver a la egunda pregunta propuesta en la eccin 11.1 : cmo
podemos evaluar la confiabilidad de un sistema i conocemo la confiabilidad de
su componente ? Este puede er un problema muy d ifici l y lo discutiremo un
caso ms encillo (pero relativamente importante).
Supnga e que la do componente e tn acoplada en erie.

E to ignifica que, para que el si tem;i anterior funcione, ambas componentes deben
funcionar. Si, adems suponemos que las componente funcionen independiente-
ment e, debemos conocer la confiabilidad del si tema, llammoslo R(t), mediante la
confiabilidad de la componentes llammo lo R1(t) y R2(t), como igue:
R(t) = P(T > t) (en donde Te el tiempo para fallar del sistema)
= P(T1 > t y T2 > t) (en donde T, y T2 son los tiempo para fallar de
lo componente 1 y C 2 respectivamente)
= P(Tt > 1)P(T2 > t) = Rt(l)R 2(1).

Encontramo a que R(t) ~ min [R (t J, R 2 (1) . s decir, para un i tema formado


por dos componente independientes en erie, la confiabilidad del istema e menor
que la confiabilidad de cualquiera de u parte .
La presentacin anterior puede generalizarse naturalmente a n componen tes
y obtenemos el teorema siguiente.
plh;aciun s la h~oria d~ la confiabilidad 11.6

Teorema 11.5. Si n componentes, que funcionan independientemente. estn


conectadas en serie, y si la i-sima componente tiene confiabilidad R~t),
la confiabilidad del sistema completo. R(l), est dada por
R(l) = R 1(1) R 1 (1) R,,(L).
n particular, si T 1 y T 2 tienen leyes de falla exponenciales con parmetros
i:x 1 y 0:2. la ecuacin ( 11.8) e transforma en

Luego la fdp del ti empo para falla del sistema. llammoslo T, es dado por

/(t) = -R'(t) = (a 1 + ?: 2 )e - i~,+.. 21.


As hemos e tablecido el resultado siguiente.

Teorema 11.6. Si dos componentes que funcionan independientemente y


tienen leyes de falla exponencial con parmetros a 1 y ci:: 2 e tn conectadas
en serie, la ley de falla del sistema resultante e nuevamente exponencial
con parmetro igual a 0:1 + 0:2.
(Este teorema evidentemente puede generalizarse a n componentes en serie.)
EJBMPLO 11.5. (Tomado de l. Bazovsky, Reliability Theory and Practice,
Prentice-Hall, Inc., Englewood Cliffs, N. J.. 1961.) Se considera un circuito electr-
nico que consta de 4 transistores de si licona, 10 diodos de silicona, 20 resistencias
compuestas, y 10 condensadores de cermica en una operacin continua en serie.
Suponiendo que bajo ciertas condicione de esfuerzo (es decir voltaje prefijado,
corriente y temperatura), cada uno de esos artculo tiene la siguiente ta a cons-
tante de falla .
diodos de silicona : 0,000002
tran istore de silicona : 0,00001
resistencia compue ta : 0,000001
condensadores de cermica: 0,000002

Debido a la tasa constante de fallas supue ta, la distribucin exponencial repre en ta


la ley de faUa para cada una de las componentes anteriores. Debido a la conexin
en serie, el tiempo para fallar del circuito completo est de nuevo distribuido
exponencialmente con parmetro (tasa de falla) igual a:
10(0 000002) + 4(0;0000 l) + 20(0,00000 l) + l 0(0,000002) = 0,000 l.
Por tanto la confiabilidad del circuito est dada por R(t) = e-o,ooo1t. Luego, para
un periodo de 10 horas del funcionamiento. la probabildad de que el circuito no
falle est dada por e- 0 0001 <101 = 0,999. El tiempo esperado para que el circuito
falle es igual a 1/0,0001 = 10.000 horas.
11.6

tro si tema importante es un i tema en paralelo en el cual las componente


i.!Stn conectadas de tal manera que el sistema deja de funcionar slo i toda la.
componentes dejan de funcionar. Si slo do-= componentes estn implicadas. el
si tema puede dibujarse como en la figura 11.6. uevamente uponiendo que la'
componente funcionan independientemente una de otra , la confiabilidad del
s tema, llammo la R(t), puede expresarse rnt!diante la confiabilidad de las com-
ponente , Ri(t) y R 2(1). como sigue:

R(t) = P(T > t = 1 - P(T 5' 1)


= l - P[T1 ~ e y T2 5' t]
1 - P(T1 5' t)P(T2 ~ t}
= 1- {[l - P(T1 > t)][l - P(T2 > l)]}
1 - [l - R 1(r) (1 - R 2 (t)]
= R 1U) + R 2(1) - R 1(t)R 2(t).

La ltima frmula indica que R(r) ~ mximo [R 1(t). R 2 (r)). Es decir, un si tema
compuesto por do componente que funcionan independientemente en paralelo
ser m confiable que cualquiera de la componentes.

JOURA 11.6

Toda la idea pre entada anteriormente para dos componente pueden gene-
ralizar e en el teorema siguiente.

Teorema 11.7. Si n componente que funcionan independientemente actan


en paralelo. y si la i-sima componente tiene confiabilidad R 1(r). entonces
la confiabilidad del sistema, llamada R(t), e t dada por

R(t} = 1- [l - R 1(t)] (l - Ri(t)] [l - R,.(t)]. ( 11.9)

A menudo sucede que toda las componentes tienen igual confiabilidad. digamos
que R ;(l) = ,.(t} para todo i. En e te caso Ja expresin anterior se tran forma en

R(t) = 1 - [! - r(t)]". ( 11.10)

Consideremo , en particular, dos componentes en paralelo, cada uno de ello con


tiempo de falla di tribuido exponencialmente. Luego,
plicadon ,., 11 lo lcora de la onOabildad 11.I

As la fdp del tiempo de falla del si tema en paralelo. llamm lo T. e t dada por

Por tanto Tno e t di tribuido exponencialmente. 1valor esperado de Tes igual a:

l 1 l
E(T) =- + - - - -
a1 rt.2 a, + a2
Por cuanto a menudo una erie de operacione e obligatoria (e decir, un nmero
de componentes debe funcionar para que el i tema funcione), frecuentemente
usamo una operacin en paralelo a fin de aumentar la confiabilidad del i tema.
El ejemplo iguiente ilu tra e ta parte.

EJEMPLO 11.6. Supongamo que tres unidades estn trabajando en paralelo.


Supnga e que cada una tiene la misma tasa con tan te de falla a = 0,01. ( decir
el tiempo para fallar de cada una de las unidades e t di tribuido exponencialmente
con parmetro a = 0,01.} Por tanto, la confiabilidad para cada una de la unidade
es R(t) = e- 0 011 , y a la confiabilidad en un perodo de operacin de 10 horas
es igual a e- 0 1 = 0,905 o alrededor del 90 por ciento. Cunta ventaja puede
obtener e (mediante el aumento de la confiabilidad) al funcionar tres de tales uni-
dade en paralelo?

R(r)

0,999
0,9

FIGURA 11 .7
JO 50 100 200 300 400

La confiabilidad de tres unidades que funcionan en paralelo durante 10 hora


sera
R(lO) = l - (1 - 0,905]3 = 1 - O00086
= 0,99914, o alrededor del 99,9 por ciento.

n la figura 11.7 vemo las curva de confiabi lidad de la unidad nica ver us la
tres unidade en paralelo. Para la unidad ola, R(t =e -"", mientra que para la
tres unidade en paralelo, R(t) = 1 - (1 - e-'11 ) 3 con a = 0,01.
Hemos con iderado, ha ta ahora, lo la maneras m encilla para combinar
unidade individuales en un si tema, llamada operaciones en erie y en paralelo
de las componentes. Hay muchas otras maneras de combinar componentes, y
(a) Serie~ en paralelo (b) Paralelas en serie
FIGURA 11.8

sencillamente nombraremo solo alguna . (Ver la figura 11.8.) Algunas de las


pregunta que aparecen en relacin con e as combinaciones se considerarn en los
problema al fil"!,al del captul .
(a} Serie en paralel . ( 'onsideramos aqu grupos de componentes en paralelo
como en un circuito que tiene. por ejemplo, m componentes en serie cada
uno.)
(b) Paralela en erie.
(c) istema ostenido. on ideramos aqu dos componentes de la cuale la
segunda componente se mantiene>} y funciona si y s.lo si la primera
componente falla. n este caso. In cgunda componente es requerida (ins-
tantneamente) y funciona en el lugar de la primera componente.
Expongam brevemente el concepto de.factor de seguridad. upngase que la
fuerza aplicada a una e tructura se consdcn.: como una variable aleatoria (con-
tinua). Arulogamente, la resistencia de la e. t ructura, llammosla R. e puede con-
siderar tambin como una variable aleatoria continua. Definamo el fact r de
seguridad de la e tructura como la razn de R a S.
T= R/S.
i R y S son variable ' aleatoria independientes con fdp y y /t respectivamente.
entonces la fdp de Test dada por
f(r) =Jo y(ls)/1(s)s ds.
(Ver el teorema 6.5.) La estructura fallar si S > R. e decir, i T < 1. Por tanto la
probabilidad de fallar PF = ff(t)dt.

PROBLEMAS

11.1. Supnga e que T, el tiempo para fallar. de un artculo est di tribuido normalmente
con E(T) = 90 hora y de -viacin estndar 5 hora . A fin de obtener una confiabil idad de
0.90, 0,95. O99, ,cuntas horas de operacin deben considerarse?
11.2. Suponiendo que la duracin de un in trumento electrnico e d tribuida exponen-
cia lmente. e sabe que la confiabilidad del instrumento (para un perodo de operacin de 100
hora ) es 0,90. untas horas de operacin deben con iderarse para obtener una confiabilidad
de 0.95?
24K A11lic11rio11l" a la 1corh de la conliuhilidad

11.). Suponiendo que la duracin de un instrumento tiene una tasa con tan te de falla
C0 para O < t < 10 y una ta a con tante distinta C, para t ~ r0 . Determinar la fdp de T, el
tiempo para fallar. y dibujarla.
11.4. Supngase que la ta a de falla Z e t dada por

2(1) = o. () < t < A.


t _ A.

(Esto implica que ninguna falla ocurre antes de T = A.)


(a) Encontrar la fdp asociada con T. el tiempo para fallar.
(b) 'alcular E(T).
11.5. Suponi ndo que la ley de falla de una componente tenga la siguien te fdp:

f(t) = (r + l)A"'/(A + tJ' n_ 1 > o.


(a) Para qu valore de A y res la anterior una fdp?
(b) btener una expresin para la funcin de confiabi lidad y la funcin de rie go.
(c) Demostrar que la funcin de rie go es decreciente en 1.
11.6. upnga.e que la ley de fallas de un;i componente e - una combinacin lineal de k
leyes exponenciales de fallas. s decir. la fdp del tiempo para fallar e ti1 dada por
1

1"(1) = j 1
('Jfl J({ ~ji 1 >o. fl > o.
(a) ,Para qu valore de c1 es la anterior una fdp'!
(b) Obtener una expre in para la funcin de confiabilidad y la funcin de riesgo.
(c) Obtener una expresin del promedio del tiempo para fallar.
(d) Responder (b) y (e) si {J1 = {J para todo j.
11.7. 'ada uno de los seis tubo de un equipo de radio tiene una duracin (en ao ) que
puede con iderarse una variable aleatoria. Supngase que e os tub s funcionan independiente-
mente uno de otro. i. 'ul es la probabilidad de que ningn tubo tenga que ser reemplazado
durante los primeros dos mese de ervicio si:
2
(a) La fdp del tiempo para fallar esf(t) = Ot l! ~''. 1 > O?
25
(b) La fdp del tiempo para fallar es/(1) = 25te ', t > O?
11.8. Demo t rar el teo rema 1 1.4.
11.9. La duracin de un satlite e una variabl a leatoria distribuida exponencialmente
con un tiempo de duracin e perado de I, aos. Si trc satlites e lanzan imultncamente,
cul e la probabilidad que a lo menos dos estarm an en rbita de pu de 2 ao '?

FIGURA 11.9
11.10. Trt:s componentes que func ionm1 111depend1cntcmcntc estn conectadas en un
istema aislado como e indica en la figura 11.9. Suponiendo que la confiabilidad de cada com-
ponen! para un periodo de t horas de operal.'in est dada por
O.OJr
R(I) = 1
l'rnhl111111\ 149

i Tes el tiempo para fallar del s i tema completo (en horas), cu l la fdp de T! 'ul es la
confiabilidad del istema?; cmo se compara con e- 0 03 '?
11.11. Supngase que 11 componente que estn funcionando independientemente son
conectadas en una agrupacin en serie. Suponiendo que el tiempo para fallar de cada una de
las componentes e t distribuido normalmente con esperanza 50 hora y de viacin e tndar
5 hora .
(a) Si 11 = 4, cul es la probabilidad de que el sistema funcione despus de 52 horas de
operacin?
(b) i 11 componente se conectan en parafefn. ,cuiil debera ser el valor de 11 a fin que la pro-
babilidad de fallar durante las primeras 55 horas sea aproximadamente igual a 0.01?
11.12. (Sacado de Derman and Klein. Prohuhility and Statistical Inference. Odord Uni-
versity Press, New York, 1959.) La duracin (L) en meses de cierto tubo al vaco usado en un
equipo de radar est distribuida exponencialmente con parmetro /J = 2. Al establecer su
programa preventivo de mantencin, una compaia desea decidir cuntos mese (m) despus
de la in talacin debera remplazarse el tubo para minimizar el coste esperado por tubo.
El co to por tubo en dlares est denotado por C. 1 tiempo til ms corto empleado entre la
instalacin y la u titucin es 0,01 mes. Obedeciendo a e ta restriccin, q u valor de m minimiz
E(C), el costo esperado en cada una de las situaciones siguientes, en donde el costo es la
funcin dada de L y m?
(a)C(L,m) = J IL - ml. (b)C(L,m) = J si L < m.
= S(L - 111) si L<::: 111.
(c) C(L, m) = 2 si L< m,
= 5(L - m) si L <::: 111.

(En cada uno de los casos, dibuje un grfico de E(C) como funcin de m.)
Observacin: evidentemente C es una variable aleatoria puesto que es una funcin de L
que e una variable aleatoria. E(C) e una funcin de m, y el problema simplemente pide encon-
trar el valor de m que minimiza E(C). ujeta a la restriccin que m 2::: 0.01.
1J.1 3. Suponiendo que la tasa de fallas usociada con la duracin T de un artculo est
dada por la funcin siguiente:

Z(t) = Co. O !\"; t <lo,


= o + e ,(t - lo). 1 2::: ''
Observacin : sta representa otra generalizacin de la distribucin exponencial. Lo an terio1
reduce a una tasa constante de fallas ly por tanto a la distribucin exponencial) si C 1 = O
(a) Obtener la fdp de T, el tiempo para fallar.
(b) Obtener una expresin para la confiabilidad R(i) y dibujar u grfico.
11.14. Supngase que cada uno de tres instrumentos electrnicos tiene una ley de falla
dada por una distribucin exponencial con par<'1m..:tros /l., /J 2 , y /1 3 Supngase que los tres
instrumentos funcionan independientemente y est~m conectados en paralelo para formar un
solo i tema .
(a) Obtener una expresin para R(t), la confiabilidad del i tema.
(b) Obtener una expresin para la fdp de T, el tiempo para fallar el sistema. Dibujar la fdp.
(c) Encontrar el promedio de tiempo para fall;ir del sistema.
250 pll C oo 11 la 14.'llria ele la conabilidad

FlG RA 11. IO

11.1 S. (a) Supngase que " componentes estn conectado en una agrupacin en serie.
Luego k de tales conexiones en erie se conectan en paralelo para formar un sistema completo.
(Ver la figura 11.10.) Si cada una de las componentes tiene la misma confiabilidad, R, para un
perodo determinado de operacin, encuentre una expresin para Ja confiabi lidad del sistema
completo (para ese mismo perodo de operaciones).
(b) Supngase que cada una de las componentes anteriores iguc una ley exponencial de
fallas con tasa de falla 0,05. Supngase adem que el tiempo de operacin es 10 horas y que
n = 5. Determinar el valor de ka fin de que la confiabilidad del istema completo sea igual a
0,99.
11.16. Supngase que k componentes estn conectados en paralelo. Luego n de tales
conexiones en paralelo son unidas en serie en un solo sistema. (Ver la figura 11.11.) Responder
(a) y (b) del problema l l.15 para ta ituacin.

1
1
1
1
1 1
i_ ___ J

FIGURA 11.11

11.17. Supngase que 11 componentes, que tienen cada una la misma ta a constante de
fallas A, estn conectadas en paralelo. Encontrar una expresin para el tiempo promedio para
fallar del istema re ultante.
11.18. (a) Un si tema de propulsin areo consta de tres motore . Supngase que la tasa
constante de fallas para cada uno de lo motores e A. = 0,0005 y que los motores fallan inde-
pendientemente uno de otro. Los motores estn conectado en paralelo, cul es la confiabilidad
de este sistema de propul in para una mi in que necesita 10 horas i al menos dos motores
deben resistir?
(b) Responder la pregunta anterior para una misin que necesita 100 horas; 1000 horas.
(Este problema sugerido por una expo icin en l. Bazov ky, Reliabilit y 111eory and Practice.
Prentice-Hall, Inc., Engtewood Cliffs, N. J., 1961.)
11.19. Con ideremos las componentes A, A', B, B' y C conectadas como e indica en las
figuras 11 .12 (a) y (b). (La componente C puede pensarse que representa un seguro si ambas
A y B dejaran de funcionar.) Representando por R,., R.t:, R 8 , R8 , y Re; ta confiabilidades de tas
componentes individuales (y uponiendo que la componentes funcionan independientemente
una de otra), obtener una expresin para la confiabilidad del sistema completo en cada uno de
l'robl rna~ 251

(a) (b) FIGURA 11.1 ::!

lo~ casos. [Indicacin : en el egundo caso (ligura l 1.12 (b)), use consderaciones de proba-
hilidad condicional:]
11.20. Si todas las componentes consideradas en el problema 11.19 tienen la misma tasa
con tante de fallas A., obtenga una expre in para la confiabilidad R(L) del sistema indicado
en la figura 11.12 (b}. Tambin encontrar el tiempo medio para que falle este istema.
11.21. La componente A tiene una confiabilidad 0,9 cuando se utiliza con un propsito
particular. La componente B que puede usar e en lugar de la componente A, tiene una conliab-
lidad de slo 0,75, cul es el nmero mnimo de componentes del tipo B que tendran que
concretarse en paralelo a fin de obtener la confiabilidad que la componente A tiene por si
misma?
11.22. Supngase que dos componentes que funcionan independientemente, cada una
con la misma tasa constante de falla estn conectadas en paralelo. Si Tel tiemp para fallar del
si tema resultante, obtenga la fgm de T. Tambin determinar E(T) y V(T). usando la fgm.
11.23. ada vez que hemo considerado un si tema formado por diversa componente .
siempre hemo supuesto que las componentes funcionan independientemente una de otra.
sta suposicin ha implif1cado con iderablemente nue tro clculos. Sin embargo, esto puede
no ser siempre una uposicin realista. En mucho caso es sabido que el comportamiento de
una componente puede afectar el comportamiento de la otras. Esto es, en general, un problema
muy dificil para enfrentar, y lo consideraremos un caso especial aqu. Supongamos especfi-
camente que do componentes, C 1 y C 2 siempr fallan juntas. Es decir, falla C 1 si y slo si
falla 2 Demostrar que en te caso. P( 1 falla y C 2 falla) = P(C, falle) = P(C i falle).

FIGURA 11.1)

11.24. Con idrense cuatro componentes C., 2 , C 3 y C4 conectadas como e indic en


la figura 11.13. Suponiendo que las componentes funcionan independientemente una de otra
con la excepcin de C 1 y C 2 que iempre fallan juntas como se describi en el problema 11.23.
Si 7;, el tiempo para fallar de la componente C,, es di tribuido exponencialmente con par-
metro p 1, obtener la confiabilidad R(t) del sistema completo. Obtener tambin la fdp de T, el
tiempo para fallar del sistema.
11.25. Considrese el mismo istema tal como e describi en el problema 11.24, excep-
tuando e ta vez que las componentes C 1 y C3 fallan juntas. Responder a las preguntas del
problema 11 .24.
12

Suma de variables aJeatorias

12.l Introduccin

n e te captulo queremo preci ar algo que hemo e tado indicando a trav


del texto. Esto e , cuando el nmero de repeticione de un experimento aumenta.
JA la frecuencia relativa de un uceso A , converge (en un entido probabil tico
que de cribiremos) a la probabilidad terica P(A). E e te hecho lo que no permite
identificar Ja frecuencia relativa de un uce o, basada en un gran nmero de
repeticione , con la probabilidad del suce o.
Por ejemplo, si se produce un artculo nuevo y no tenemo c n cimiento previo
acerca de qu tan probable es ese artculo defectuo o, podram proceder a
inspeccionar un gran nmero de esos artculo , digamos , contar el nmero
de artculos defectuosos entre ello , ea 11, y luego u ar 11/ como una aproxima-
cin para la probabilidad de que un artculo ea defectuo o. El nmero n/ es
una variable aleatoria y u valor e encialmente depende de do co a . Primero,
el valor n/ depende de la probabilidad fundamental p (po iblemente de cono-
cida) de que un artculo ea defectuoso. Segundo, n/ depende de lo n artculo
que en particular hemo in peccionado. Lo que demostraremos e que si el m-
todo de elegir los N artculos es aleatorio, entonce el coc.ente n/ er pr-
ximo a p (en un sentido que e va a de cribir). ( videntemente, la eleccin alea-
toria de los artculos es importante. Si furamo a elegir slo e o artculo que
presentan alguna caracterstica f1 ca externa, por ejemplo, podramo prejuiciar
gravemente nue tro clculo.)

12.2 La ley de los grandes nmeros


Con la ayuda de la de igualdad de Cheby hev (ecuacin 7.20), podemos
derivar el re ultado citado anteriormente. Consideremos nuevamente un ejem-
plo. Supongamo que un cohete dirigido tiene una probabilidad de 0,95 de
funcionar correctamente durante un cierto perodo de operacione . A , i di -
paramos N cohete que tienen la confiabilidad anterior, y i X e el nmero de
cohetes que no funcionan correctamente. tenemos E(X) = 0,05 , pue to que
podemo uponer que X e t di tribuida binomialmente. s decir, e peraramos
que fallara aJfededor de un cohete entre 20. uando , el nmero de cohete
252
12.2

lanzado, se aumenta, X, el nmero total de cohetes que fallan dividido por N.


debera converger de algn modo al nmero 0,05. Este importante re ultado
puede indicarse ms precisamente como la ley de los grandes nmeros.

La ley de los grandes nmeros (forma de Bernoulli). Sea e un experimento y


ea A un uceso asociado con e. 'onsiderando n repeticiones independien-
tes de e, sea nA el nmero de veces que ocurre A en las n repeticione ,
y sea f A = nA/n. ea P(A) = p (que e upone igual para toda la repe-
ticione .) --- - -
Luego para cualquier nmero positivo E, tenemos

Prob [Jf A - PI :!': E] ::; p(l ~ p)


' nE
o, equivalente
Prob[IJ A - pj <E]:;:::: l - p(l -; Pl . (12. 1)
nE
Demostracin: sea nA el nmero de veces que ocurre el uce o A . E ta es una
variable aleatoria distribuida binomialmente. Luego E(nA) = np y V(nA) = np( 1 -
p). Como f A = nA/ n, luego E(f A) = p y V(f,,) = p(l - p)/ n.
Aplicando la desigualdad de Chebyshev a la variable aleatoria f A obtenemos

p [1! - PI < kJp(I


n
- p)J ~ 1 - ..!..2 .
k

Sea E= kj p(l - p)/11. Luego k 2 = (nt: 2)/ [p(l - p)], y as

P[IJ A - PI < E] ~ 1 - p(l - p) .


n
Observaciones: (a) El resultado anteror puede establecer e en otras maneras a lternas
equivalentes. Est claro que lo anterior implica nmediatamente que

. "' P[lf,, - PI
lim < E] = 1 para todo E > O.

En este sentido decimos que la frecuencia relativa f,, ((Converge a P(A).


(b) Es importante observar la diferencia entre la convergencia citada anteriormente
(llamada convergencia en probabilidad) y el tpo de convergenca citada a menudo en clculo.
Cuando decimos que 2- converge a cero cuando n -. co significa que para un n suficiente-
mente grande 2- se transforma y permanece arbitrariamente prximo a cero. Cuando decimos
que fA = nAj n converge a P(A) indicamos que la probabilidad del suceso
{l,1A/n - P(A)I <E}
puede hacerse arbitrariamente prxima a uno tomando un n suficientemente grande.
(c) Se obtiene an otra forma de la ley de los grandes nmeros cuando nos formulamos
la siguiente pregunta. Cuntas repeticiones de e deberan hacerse a fin de tener una pro-
babilidad de 0,95 a lo menos, de que la frecuencia relativa difiera de p = P(A) en meno de 0,01?
2!W 'um~ dt .. rlAble~ 11k11torl11 12.2

s decir, para E = 0,01 de eamos escoger n de modo que 1 - p(I - p)/[n(0,01) 2) = 0,95.
Resolviendo paran obtenemos n = p(I - p)/(0,01) 2 (0,05). Sustituyendo los valores especficos
de 0,05 y 0,01 por b y E, re pectivamente, tenemos
p(I - p}
P[IJA - PI < E] ~ 1 - ,, cuando n~~-

Nuevamente deberia insistir e en que tomando n ~ p(l - p)/E 2 6 .!!.. garantiza nada acerca
de lfA - PI Slo hace probable que if,. - PI sea muy pequeo.

EJEMPLO 12.l. untas vece habra que lanzar un dado regular a fin de
estar a l meno 95 por ciento seguro de que la frecuencia relativa que salga un seis
di te 0,01 de la probabilidad terica f;?
Aqu p= l;, l - p = i, E= 0,0 1 y = 0,05. Luego de esta relacin encontra-
mo que n ~ (i)(i)/(0,01) 2 (0,05) = 27.778.

Observaciones : (a) Recordemos que la fA es una variable aleatoria y .no precsamen te


un valor observado. Si lanzamos ahora 27.778 veces un dado y luego calculamos la frecuencia
relativa que alga un seis, este nmero dista o no 0,01 de 1/6. Lo importante del ejemplo anterior
e que si lanzramos 27.778 veces un dado en cada una de 100 habitaciones, en 95 de las ha-
bitaciones aproximadamente, la frecuencia relativa observada di taria 0,01 de 1/6.
(b) n muchos problemas no conocemos el valor de p = P(A) y por tanto no podemos
usar la cota anterior de n. En ese caso podemos usar el hecho de que p(J - p) toma u valor
mximo cuando p = i y este valor mximo es igual a 1/4. As, ciertamente estaramos seguros
si indicamos que para n ~ l/4E 2 i5 tenemos
p lfA - PI <E] ~ 1 - e).

EJEMPLO 12.2. Alguno artculos se producen de tal manera que la proba-


bilidad de que un artcu lo ea defectuoso e p ( upuesto desconocido). Un gran
nmero de artculos, n, e clasifica como defectuosos o no defectuosos. Cul
debe ser el tamao de n de modo que podamos estar el 99 por ciento seguros de
que la frecuencia relativa de los defectuoso e diferencia de p en menos de 0,05?
Puesto que no abemos el valor de p debemos aplicar la ltima forma estable-
cida de la ley de lo grande nmeros. Luego con E= 0,05, = 0,01 encontra-
mos que si n ~ 1/4(0,05) 2 (0,01) = 10.000, se sati face la condicin pedida.
'orno en nuestro ejemplo en la desigualdad de Chebyshev, encontraremo que
un conocimiento adicional acerca de la distribucin de probabilidades dar una
proposicin mejorada. (Por ejemplo podramo tener un nmero pequeo de
repeticiones y todava hacer la misma proposicin referente a la proximidad
de f" a p.)
Observacin : e puede obtener otra forma de la ley de los grandes nmero como sigue.
upongamo que X 1 . ,X" son variable aleatorias distribuidas independientes e idnti-
camente con promedio y varianza finita. Sea E(X;) = y V(X 1) = u 2 Definamos X =
( l/n)(X 1 + .. + X.). Luego es una funcin de X., .. . , X# llamado u promedio arit-
mtico y, por tanto, nuevamente es una variable aleatoria. (Estudiaremos esta variable a lea-
toria con m detalle en el captulo 13. Por el momento digamos simplemente que podemo
pensar que Xi. .. . X. como medidas independientes de una caracterstica numrica X.
12. Aproximcio normal la dstrlbuci bln11n1 11 25

que producen el promedio aritmtico ). De las propiedades de la esperanza y de la variani.a


inmediatamente tenemos, E( ) = y V(X) = u2 /n. Apliquemos la desigualdad de Chebyshev
a la variable aleatoria X:

P[lx - I < ku]n ::'! 1 - l..


k2

Sea k<J/Jn = E. Luego k = n E/<J y podemos escribir


(12
P[IX - I < E] ;'2:. l - n . (12.2)

Cuando n --+ oo el lado derecho de la desigualdad anterior se aproxima a uno. to en


el sentido en el cual el l?romedio aritmtic-0 converge a E(X).

EJEMPLO 12.3. Se prueba un gran nmero de tubos electrnicos. Sea T; el


tiempo para falla r del i- imo tubo. Supngase, adems, que todos los tubos
provienen del mi mo lote y que puede uponerse que todo tn distribuido
exponencialmente con el mi mo parmetro o:.
Luego E(T 1) = Cl'. - 1 Sea T = (T 1 + + T")/n. La forma anterior de la ley
de lo grandes nmeros dice que i ne muy grande, sera muy probable que el
valor obtenido para el promedio aritmtico de un gran nmero de tiempos de fallas
e tuviera prximo a o: - 1

12.3 Aproximacin normal a la distribucin binomial


La ley de lo grandes nmeros como se e tableci anteriormente e relaciona
.., encialmente con la variable aleatoria X distribuida binomialmente. X fue de-
finida como el nmero de xito en n repeticiones independientes de un expe-
rimento y nece itamos asociar simplemente xito con la ocurrencia del su-
ceso A a fin de reconocer esta relacin. As el resultado anterior puede estable-
cerse informalmente al decir que la frecuencia relativa de xito, X/n, converge
a la probabilidad de xito p, en el entido indicado previamente, cuando el n-
mero de repeticiones del experimento se aumenta.
Sin embargo, saber que X /n ser prxima a p para un n grande, no no
indica cmo se obtiene esta proximidad)>. A fin de investigar esto debemos es-
tudiar la distribucin de probabilidades de X cuando n es grande.
Por ejemplo, upngase que un proceso de fabricacin produce lavadoras.
de la cuale alrededor del 5 por ciento son defectuo a (e decir, muchas). Si
se inspe-cconan 100 lavadora , cul e la probabilidad de que menos de 4 sean
defectuosas?
Siendo X el nmero de lavadoras defectuo as encontradas, la ley de los grandes
nmeros nos dice simplemente que X /100 debera ser prximo a 0,05. Sin em-
bargo, no nos indica cmo calcular la probabilidad deseada. El valor exacto
de esta probabilidad est dado por

P(X < 4) = t~o ('~) (0,05)1'(0,95)100 - k_


12.3

sta probabilidad era ms dificil de calcular directamente. Ya hemo e -


ludiado un mtodo de aproximacin para las probabilidades binomiales. tal
como la aproximacin de Poisson. onsideraremo ahora otra aproximacin
importante para tale probabilidades que e aplica cada vez que n e uficiente-
mente grande.
on iderando que P(X = k) = (~)pk(I - p)" - k. Esta probabilidad depende de
n de un modo muy complicado y no hay una indicacin evidente de lo que su-
cede a la expresin anterior i n e grande. A fin de investigar esta probabilidad.

TABLA 12.1

21t e - n"+<1 121 Diferencia


n n! Diferencia
n!

1 1 0.922 0,078 0,08


2 2 1,919 0,081 0,04
5 120 118,019 1,981 O,Q2
10 (3,6288)10(> (3.5986) 1ob (0,0302) 106 0,008
100 (9,3326) 10 151 (9,3249)10' 57 (0,0077)10 1 S7 0.0008

nece itamo u ar la frmula de lirling, una aproximacin muy conocida de n !


sta frmula e tablece que para un n grande,

(12.3)

en el supue to de que lim ..,(n !}/( 21t e - "n" +112) = l. (Una demostracin de
esta aproximacin puede encontrarse en muchos textos de clculo avanzado.)
La tabla 12.1 puede dar una idea al lector de la exactitud de e ta aproximacin.
Esta tabla est tomada de W. Feller. Prnhabilty Tlieory Gfld /ts Applications.
l." edicin, New York: John Wiley and Son . lnc .. 1950.

Observacin : aunque la diferencia entre n ! y su aproximacin llega a ser mayor cuando


n -+ oo, lo importante de ob ervar en la tabla 12. I es que el porcentaje de error (la ltima
columna) llega a ser cada vez ms pequeo.

U ando la frmula de Stirling para ''


diver os factoriales que aparecen en
la expresin de P(X = k), puede demo trarse (de pu de muchas operaciones),
que para un n grande,

P(X = k) = (~)pt(t - p)" - k

2
1 ( 1[ k - np ] ) (12.4)
::::: ) 21tnp(I - p) exp - 2 jnp( l - p}
12.3 proxlmd6n oormI a la di,tribudi111 bl11om al 257

inalmente puede demostrarse que para n grande,

P(X ~ k) = p[ X - np
np(I - p)
$; k - np
np(I - p)
J
( 12.5)

As tenemo el siguiente re ultado importante (conocido como la aproximacin


de DeM ivre-Laplace para la di tribucin binomial):
Aproximacin normal a la distribucin binomial. Si X tiene una di tribucin
binomial con parmetro n y p y i

y_ X - 11p
- [np( 1 - p)J1 ' 2 '

luego, para un n grande Y tiene una di tribucin N(O,I) aproximadamente


en el upue to que limn P(Y ~ y) = <l>(y). ta aproximacin e v-
lida para valore de n > 10 suponiendo p prximo a !-. Si p e prximo
a O 1, n debera ser algo mayor para asegurar una buena aproximacin.

Observaciones: a) El resultado anterior no e slo de considerable inters teri o ino


tambin de mucha importancia prctica. Indica que podemo usar la distribucin normal,
muy tabulada, para calcu lar probabilidades que provienen de la distribucin binomial.
(b) n la tabla 12.2 la exactitud de la aproximacin (12.4) e demuestra para diversos
valore de 11 , k y p.

TA8 A 12.2
11 = 8, p = 0.2 11 = 8, p = 0,5 11 = 25, p = 0,2
k
Aproximacin xacto Aproximacin Exacto Aproximacin xacto

o 0,130 0,168 0,005 0,004 0,009 0,004


1 0,306 0,336 O,Q30 0,031 0,027 0,024
2 0,331 0,294 0,104 OJ09 0,065 0,071
3 0,164 0,147 0,220 0,219 0,121 0,136
4 0,037 0,046 0,282 0,273 0,176 0,187
0.004 0.009 0,220 0,219 0,199 0,196
6 o+ 0.001 0.104 0,109 0. 176 0,163
7 O+ O+ 0,030 0,031 o 121 0,111
8 o+ o+ 0,005 0,004 0,065 0,062
9 O+ o+ o+ o+ 0,027 0,029
10 O+ o+ o+ o+ 0,009 0,012
11 O+ o+ o+ o+ 0,002 0,004

Volviendo al ejemplo anterior observamo que


E(X) = np = 100(0 05) = 5,
V(X) = np(l - p) = 4,75.
12 ..l

Lueg podemos e cribir

P(X ~ 3) = p ( - 5 :::.; X - 5 :::.; 3 - 5)


4,75 4,75 4 75
= <l>( - 0,92) - <t>( - 2,3) = 0,168,

de la tablas de la di tribucin normal.

Observacin : al u ar la aproxmacin normal a la distribucin binomial, estamo aproxi-


mando la distribucin de una variable aleatoria di creta con la distribucn de una variable
aleatoria continua. Por tanto hay que tener algn cuidado con los puntos extremos del intervalo
considerado. Por ejemplo, para una variable aleatoria continua, P(X = 3) = O, mientras que
para una variable aleatoria discreta e ta probabilidad puede cr positiva.
Se ha encontrado que la iguiente correcci11 para continuidad mejora la aproximacin
anterior:

(a) P(X = k) ~ P(k - ! $ X :s:; k + H.


(b) P(a $ X s; b) ~ P(a - ! $ X $ t + b).
Usando esta ltima correccin para la evaluacin anterior de P(X s; 3). tenemos

P(X $ 3) = P(O $ X s; 3) = P( - i $ X s; 3t)


~ <D( - 0,69) - <D( - 2..53) = 0,239.

EJEMPLO 12.4. Supnga e que un sistema est formado por 100 compo-
nente cada una de las cuale tiene una confiabilidad igual a 0,95. (E decir la
probabilidad de que la componente funcione correctamente durante un tiempo
especfico e igual a 0,95.) Si esas componentes funcionan independientemente
una de otra, y i el istema completo funciona correctamente cuando al menos
funcionan 80 componentes, cul es la confiabilidad del istema?
Sea X el nmero de componente que funcionan , debemos evaluar

P(80:::.; X ::;; 100).


Tenemos

E(X) = 100(0,95) = 95; V(X) = 100(0,95X0.05) = 4,75.


Luego, u ando la correccin para continuidad, obtenemo

P(80 :$ X ::;; 100) ~ P(79,5 ::;; X ~ 100,5)


= p(79,5 - 95 ::;; X - 95 < 100,5 - 95)
2,18 2,18 - 2, 18
~ <1>(2,52) - 11>( - 7,1) = 0,994.
12.4 LI h'orc11111 dl'I limitl e nlr 1 2!i9

12.4 El teorema del lmite central

La aproximacin anterior repre enta lo un ca o e pecial de un re ultado


genera l. A fin de verificar e to. recordemo que la variable aleatoria X di tribui-
da binomialmente se puede representar como la suma de las siguientes variables
aleatoria independiente :

X1= l si el xito ocurre en la i-sima repeticin;


=0 si la falla ocurre en la i- ima repeticin.

Luego X= X 1 +X 2 + + Xn. (Ver el ejemplo 7.14.) Para esta variable alea-


toria hemo demostrado que E(X) = np, V(X) = np(I - p) y, adems, que para
un n grande. (X - np) " np(l - p) tiene la di tribucin aproximada J -(0. 1).
i una variable aleatoria X puede repre entar e como una urna de n variables
aleatorias independientes cualesquiera (sati faciendo ciertas condicione que on
v lidas en la mayor parte de la aplicacione ), entonce esta urna pa ra un n su-
fic ientemente grande e t di tribuida aproximadamente normal. E te re ultado
notable se conoce como el teorema del lmite central. Se puede establecer una
fo rma de e te teorema como sigue.

Teorema del lmite central. Sea X., X 2 . , X,, ... una uccsin de variable
aleatoria independientes con E(X;) = fl; , y V(X 1) = uf. i = l. 2, .. . Sea
X = X 1 + X 2 + + X .. Luego bajo ciertas condicione generales (que
no e indicarn explcitamente aqu).

tiene aproximadamente la di trbucin N(O, J ). Es decir, G,, es la fda


de la variable aleatoria Zn, tenemos limn .., Gn (z) = <D(z).

Obsetvaciones: (a) Este teorema repre enta una generalizacin obvia de la aproximacin
de DeMoivre-Laplace. Las variables aleatorias independientes X 1 que toman slo lo valores
1 y O han sido ustituidas por variables aleatorias que poseen cualquier clase de di tribucin
(mientras tengan e peranzas y varianza finitas). El hecho de que la X 1 pueden tener (eviden-
temente) cualquier clase de distribucin y an as la urna X = X 1 + + X. puede ser
aproximada por una variable aleatoria distribuida normalmente. representa la razn bsica
para la importancia de la di tribucin normal en la teora de probabilidade . Resulta que en
muchos problemas, la variable aleatoria que se considera, puede ser representada como la
urna de ri variables aleatorias independientes y, por tanto, su distribucin puede aproximar e
por la di tribucin normal.
Por ejemplo, el consumo de electricidad en una ciudad en cualquier hora dada e la urna
de lo pedido de un gran nmero de consumidores individua le . Puede considerarse la cantidad
de agua de un embalse como la repre entacin de la urna de un gran nmero de contribucione
individua le . Y el error de medida en un experimento li ico est compuesto de mucho. errores
pequeos no ob ervables que pueden considerarse aditivos. 1 bombardeo molecular sobre
2MI Su1m1~ d~ trl1bh' al 11orla 12.4

una partcula suspendida en un liquido es la causa que la obliga a desplazar e en una direccin
y una magnitud aleatorias, y su posicin (despus de un tiempo especificado) puede considerarse
como una urna de de plazamiento individuale .
(b) Las condiciones generale citadas en la formulacin anterior del teorema del lmite
central pueden re umir e informalmente como sigue: lo trminos individuales en la suma
contribuyen con una cantidad despreciable a la variacin de la suma y es muy improbable
que cualquier tamao individual haga una gran contribucin a la suma. (Parece que los errores
de medida tienen e ta caracterstica. El error final puede ser representado como una urna de
muchas pequeas contribuciones ninguna de las cuales contribuye mucho al error completo).
(c) Hemos e tablecido ya (teorema 10.5) que la suma de cualquier nmero finito de variables
aleatorias independientes distribuida normalmente e de nuevo distribuida normalmente.
El teorema del limite central establece que lo sumandos no necesitan estar distribuidos
normalmente a fin de que la urna sea aproximada a una distribucin normal.
(d) No podemos demostrar el teorema anterior aqui, sin exceder el nivel de presentacin
programado. Sin embargo, hay un caso especialmente importante de este teorema que e table-
ccremos y para el cual damos al menos un bosquejo de demo traci6n.

Teorema 12.1. Sean X., . .. , X n n variables aleatoria independientes que


tienen la misma di tribucin. Sean = E(X 1) y q 2 = V(X;) la esperanza
y varianza comn. Sea S = I.7= 1 X 1 Entonce E(S) = n y V(S) = nq 2,
y para un gran n, tenemo que Tn = (S - n)/ nq tiene aproximadamen-
te la di tribucin N(O,l) considerando que limn -w P(T,. ;S; t) = <l>(t).

Demostracin (bosquejo) : ( 1 lector hara bien en revisar los concepto b-


ico de la fgm presentado en el captulo 10). Sea M la fgm (comn) de las X.
Puesto que las X 1 on independientes, Ms, la fgm de S, est dada por Ms(I) =
[M(t)]n . y pue to que T n es una funcin lineal de S, (usando el teorema 10.2) la
fgm de T,. e t dada por

MT"(t) =e-< n / a)t [ M (i <1)l


As

(Ob ervemo a esta altura que la idea de la demostracin con i te en investigar


Mdt) para grandes valore de n).
Desarrollemos M(t) en una erie de Maclaurin:

2
M(t) = 1 + M'(O)t + M";O)t + R ,

en donde R e el trmino del re to. Recordando que M '(O) = y M"(O) = 2 + q 2,


obtenemo
2 2) 2
M(t) = 1 + t + ( + u t + R.
2
12.4 El teorema del limite central 261

Luego
In Mr.(l) =- n111 + n ln[I + u + ( 2 + 0' 2)r 2 + R]
u ~ 2n0' 2

Usaremo ahora el desarrollo de Maclaurin para Jn(l + x):


X2 X~
1n (1 + x) =x - "2 +) +

te desarrollo e vlido para lxl < l. En nue tro ca o

t ( 2 + 0' 2) 12
X= - - + + R;
n O' 2nu 2

y para n suficientemente grande, el valor absoluto de e te desarrollo ser menor


que uno). As, obtenemos

2
}ll
lnMTJt) = - + ( 2 + u 2) -1 -2 + R)
nu 2nq

_ _1 ( -r=
2 v nu
L + ( 2 + u z) __
t2 +
2nu 2
R )2+ .. .J.
Puesto que implemente e tamos bo quejando los paso principale de la de-
mo tracin sin dar todo los detalles, omitamo algunos pasos algebraico e
indiquemos simplemente lo que estamos haciendo. Queremo investigar la ex-
presin anterior (ln Mr.(t))cuando n -+ ualquier trmino que tiene una po-
tencia po itiva de n en el denominador (tal como n - lf 2 , por ejemplo) tender
a cero cuando n -+ oo. Despus de un proce o algebraico muy directo, pero te-
dioso, encontramos que
lim In M rn(t) = 12/ 2.

Luego tenemos

ta es la fgm de una variable aleatoria con distribucin N(O, 1). Debido a la


propiedad de unicidad de la fgm (ver el teorema 10.3) podemos concluir que la
variable aleatoria T. converge en distribucin (cuando n -+ oo) a la distribu-
cin N(O, 1).

Observaciones : (a) Aunque la anterior no representa una demo tracin rigurosa, an as


debera dar alguna idea al lector para la deduccin de este importante teorema. La forma ms
general del teorema del lmite central (como se estableci originalmente) se puede demostrar
usando un enroque semejante al utilizado aqu.
262 Sum11s de ~ari1blci. al 1tori11s 12.4

(b) La forma especial del teorema del lmite central como e estableci anteriormente
expresa que el promedio aritmtico ( l/n):Ei 1 X 1 de n ob ervaciones de la misma variable
aleatoria tiene aproximadamente una distribucin normal, para una n grande.
(c) Aunque una demo tracin matemtica establecera la validez de un teorema, puede
que no contribuya mucho a la idea intuitiva del resultado. Por lo tanto pre entamos el ejemplo
que sigue para quienes estn orientados ms numricamente.

.EJBMPLO 12.5. Considrese una urna que contiene tres clases de objetos
identificado como O, l y 2. Suponiendo que hay 20 cero , 30 unos y 50 do e .
Se saca un artculo al azar y e anota su valor, digamos X. Supngase que X
tiene la distribucin siguiente. (Ver la figura 12.1.)

X O 2

P(X = x) 0,2 0,3 0,5

Supnga e que el artculo escogido primero se substituye y luego se e coge un

P(X - x) P(M m)

/
, ,
/
,/ /
/
/

/
/

./
,/
.___ _.___ _,__ _ X
'----'--~-~3,.-~2~-m
0,1 0,2 i

FIGURA 12. I FIGURA 12.2

egundo articulo y e anota su valor, Y. onsidrese la variable aleatoria M =


(X + Y)/ 2 y u distribucin (figura 12.2).

M O 1 2

P(M = m) 0,04 O, 12 0,29 O 30 0,25

Los valore anteriores de P(M) los obtuvimo como sigue:

P(M = O)= P(X =O, Y =O) = (0.2) 2 = 0,04 ;


P(M = 1) = P(X = O Y = l) + P(X = 1, Y = O)
=
(0,2)(0,3) + (0,3)(0,2) 0,12, etc. =
Finalmente, supongamos que despus de que el segundo artculo ha sido tambin
remplazado. se escoge un tercer artculo y se anota u valor Z. Considerar la
variable aleatoria N = (X + Y + Z)/ 3 y su distribucin (figura 12.3):
12.4 :1 trorem del llmlte e nlral 263

N o j t 4
"3" i 2

P( = n) 0,008 0,036 0,114 0.207 0285 0,225 0,125


P(N ~ n)

...........
,. ,
/,

,,
'''
,, '

I
I
I
I
I
I

/f 2
3
4
j
2
11
FIGURA 12.3

a distribuciones de probabilidade de las variables aleatoria M y N ya e tn


mostrando signos de normalidad. E decir, la aparicin de la orma de cam-
pana de la curva de distribucin empieza a er evidente. mpezando con la di -
tribucin de X , que e muy simtrica, encontramos que el promedio de lo tre
ob ervaciones tiene una di tribucin que ya muestra ignos de normalidad>>.
Naturalmente, el ejemplo anterior no demuestra nada. Sin embargo, repre en-
ta una ilustracin numrica de lo resultados expuesto previamente de una ma-
nera ms matemtica. 1 lector debera continuar este ejemplo agregando una
ob ervacin m y luego encontrar la distribucin de probabilidades del pro-
medio de la cuatro ob ervaciones obtenida . (Ver el problema 12.10.)

EJEMPLO 12.6. Supongamo que tenemos cierto nmero de voltajes, V 1


i = 1, 2. . . . n, que e reciben en lo que se llama un umador. (Ver la figu-
ra 12.4.) Sea V la suma de lo voltaje recibidos. Es decir, V = I:7= 1 V. Supn-
ga e que cada una de la variable aleatorias V 1 est distribuida uniformemente
en el intervalo [0,10]. Luego E(V 1) = 5 volts y var (V;)= 100/ 12.
De acuerdo con el teoerema del lmite central. i n es suficientemente grande,
ta ariable aleatoria v..
= (V - 5n) 12/ 10.J,;'
tiene aproximadamente la distribucin N(O. 1).
Luego si 11 = 20 podemo calcular la probabilidad
de que el voltaje total de entrada sobrepa e 105
volts. comu sigue:
V - 100 105 - 100 )
P{V > 105) = p ( (10/Jt2)j2o > (10/falfio

~ 1 - <l>(0,388) = o352. FIGURA 12.4


264 ' uma de urlable.. alea1orl11 12.5

12.5 Otra distribuciones aproximadas por la distribucin normal: Poisson,


Pascal y Gama

Hay cierto nmero de distribuciones importantes di tinta a la binomial ex-


pue tas en la seccin 12.3 que se pueden aproximar por la distribudin normal.
Y en cada ca o, como lo haremo notar, la variable aleatoria cuya distribucin
aproximaremos puede er repre entada como una suma de variables aleatoria
independiente , dando as una aplicacin del teorema del lmite central como
se expuso en la seccin 12.4.
(a) La distribucin de Poisson. Recordamo que una variable aleatoria de
Poisson aparece (sujeta a ciertas condiciones) cuando e tamo intere ados en
el nmero total de ocurrencia de un suce o en un intervalo de tiempo de lon-
gitud t, con una intensidad (es decir, ta a de ocurrencia por unidad de tiempo)
a (ver la seccin 8.2). Tal como se expu o en e a eccin podemos con iderar
el nmero total de ocurrencias como la suma de la ocurrencias en intervalo muy
pequeos, no obrepuesto haciendo a aplicable lo resultados de la eccin
anterior.
EJEMPLO 12.7. Supnga e que las llamada a una central telefnica par-
ticular ocurren a razn de 2 por minuto. Cul es la probabilidad de que e reci-
ban 22 o menos llamadas en un perodo de 15 minutos? (Suponemos, natural-
mente, que la intensidad permanece igual durante el perodo con iderado.) Si
X = nmero de llamadas recibida , entonces E(X} = 2(15) = 30. Para calcular
P(X 5 22), aplicando la correccin para la continuidad (ver la ecuacin (b) que
precede al ejemplo 12.4), tenemos

22+! - 30)
P(X :S 22} :;;;; P( Y ~ j30
en donde Y tiene distribucin N(O 1). Luego la probabilidad anterior e igual
a <I>( - 1,37) = 0,0853.
(b) La distribucin de Pascal. Si Y = nmero de en ayo de Bernoulli ne-
ce ario para tener r xitos. entonces Y tiene una distribucin de Pascal y e puede
repre entar como la suma de r variables aleatorias independientes (ver la ec-
cin 8,5). Luego para un r suficientemente grande, e aplican los resultados de
la eccin anterior.
ErnMPLO 12.8. Encontrar un valor aproximado de la probabilidad de que
se necesiten 150 o menos ensayos para obtener 48 xitos cuando P(xito) = 0,25.
Haciendo X == nmero de ensayo , tenemos (ver la ecuacin 8.8) E(X) = r/ p =
48/0,25 = 192, y Var X = rq/p2 = (48)(0.75)/(0,25) 2 = 576. Luego

P(X
-
< 150) ~
-

<I> ( 15 + - 192)
576
= <I>( - 173)=O0418.
'

(c) La distribucin Gama. Como se indic en el teorema 10.9 una variable


aleatoria que tiene una distribucin Gama (con parmetros oc y r) se puede repre-
12.6 La di lribuci6n de la suma d un nmero 265

cntar como una suma de r variables aleatoria independiente distribuida ex-


p nencialmente. Luego para un r grande, e aplica nuevamente el teorema del
lmite central.

12.6 a di tribucin de la suma de un nmef'o finito de variable aleatorias

ejemplo 12.6 irve para motivar la exposicin iguiente. Sabemo que la


uma de cualquier nmero finito de variable aleatorias independientes di tribui-
da normalmente e t distribuida normalmente otra vez. Del teorema del l-
mite central podemos concluir que para n grande la urna de n variable alea-
torias independientes est distribuida aproximadamente normal. Queda por re-
olver la pregunta sig.1iente: upngase que con ideramo X 1 + + X n- en
donde la X on variable aleatoria independientes (no necesar iamente nor-
male ) y n no es uficientemente grande para ju tificar el uso del teorema del
lmite central. Cu l e la di tribucin de e ta urna? Por ejemplo, cul e la dis-
tribucin del voltaje de entrada V (ejemplo 12.6), i n = 2 o n = 3?
Primero con ideraremos el importante caso de la urna de do variables alea-
torias. Puede e tablecerse el resultado iguiente.
Teorema 12.2 Supnga e que X y Y son ariable aleatorias independien-
tes con fdp g y h re pectivamente. Sea Z = X + Y y dente e la fdp de
Z por s. ntonce .
s(z) = J! 00
y(w)l1(z - w) d1-1>. ( 12.6)
Demostracin: Puesto que X y Y on independiente , u fdp conjunta f puede
factori za r e:
f(x, y) = 11(xJh(y).

sando la transformacin:
Z =X+ y. 11' =

Luego x = w, y =z - w. l jacobiano de e ta transformacin es

J = l~ - 1
11 = - 1.

Luego el valor ab oluto de J es 1 y por tanto la fdp conjunta de Z =X + Y y


W = X es
k(z, w) = y( w)li( z - w).

La fdp de Z e obtiene ahora al integrar k( z. w) de - oo a oo con respecto a w


de donde e obtiene el resultado anterior.
Observaciones: (a) La integral anterior que relaciona l<ts funciones g y h ocurre en muchos
temas matemticos diferentes. A menudo se le menciona como la integral de convolucin de g
y h; alguna veces se escribe como g h.
(b) La evaluacin de la integral anterior debe hacerse con mucho cuidado. En realidad,
12.6

la mi ma dificultad que apareci en la evaluacin de la fdp de un producto o un cociente


aparece nuevamente. Las funcione g y h a menudo sern distintas de cero 610 para ciertos
valores de sus argumentos. Por tanto el integrando en la integral anterior er di tinto de
cero slo para aquellos valores de la variable de integracin w para los cuale ambos factores
del integrando son distintos de cero.
(c) La frmula anterior ecuacin (12.6) puede usarse repetidamente (con dificultad cre-
ciente, sin embargo) para obtener la fdp de la suma de cualquier nmero finito de variables
aleatorias continuas e independientes. Por ejemplo, si S = X + Y + W, podemo e cribir
esto como S = Z + W, en donde Z = X + Y. Luego podemo usar el enfoque anterior para
obtener la fdp de Z, y luego, conociendo la fdp de Z, usar este mtodo otra vez para obtener
la dp de S.
(d) Podemo derivar la ecuacin (12.6) de otra manera sin usar la nocin de jacobiano.
Denotemos por S la fda de la variable aleatoria Z = X + Y . Luego
y
JJ
S(z) = P(Z $ z) = P(X + Y $ z) = g(x)h(y)dx dy,
11.
en donde
R = {(x. y) 1x + y $ z}.

(Ver la figura 12.5). Luego

S(z) = J:'.: J:.-,,; g(x)h(y)dx dy


00

= J!: g(x) rr:.-,,; h(y)dyJdx.


00

FIGURA 12.5
Diferenciando S(z) con respecto a z (bajo el igno integral, lo cua l puede ju tificar e) obte-
nemos

s(z) = S'(z) = J:'.: : g(x)l1(z - x)dx,

lo que e t de acuerdo con la ecuacin ( 12.6).


(e) Puesto que la distribucin de X + Y debera posiblemente ser la misma que la di tri-
bucin de Y+ X, podramos verificar que J:'.::g(x)h(z - x)dx = J :'.:: h(y)g(z - y)dy. Haciendo
sencillamente z - x = y en la primera integral, producir la segunda forma. Alguna veces
indicamos esta propiedad al escribir g h = h g. Ver la observacin (a).

- - -- + - - - - - - + - -- - --411
o FIGURA 12.6

E.JE u>LO 12.9. Se consideran dos instrumentos electrnico , D 1 y D 2 . Su-


pngase que D 1 tiene una duracin que puede representarse con una variable
aleatoria T 1 que tiene una distribucin exponencial con parmetro tX 1 . Mientras
que D 2 tiene una duracin que puede representarse con una variable aleatoria T 2
que tiene una distribucin exponencial con parmetro a 2 Suponiendo que D 1
y D2 estn conectada de tal manera que D2 empieza a funcionar en el momento
que D 1 deja de funcionar. Entonces T = T 1 + T 2 repre en ta el tiempo total
que el sistema formado por los dos instrumentos e t funcionando. Suponiendo
T 1 y T 2 on independientes, podemos aplicar el resultado anterior para obtener
12.6 La distribucill de la - deo un num ro 267

g(t1) = a1e - " 111


, t 1 ~O,
h(t2) = 0:2e-I" l2 ~ o.
(Para todos los otros valores de t 1 y t 2 , las funciones g y h se suponen igual a
cero!). Luego u ando la ecuacin (12.6) encontramos que la fdp de T 1 + T 2 = T
est dada por
s(t) = J ~: g(t 1 )h(t - t 1 )dt., t ~O.

El integrando es positivo s y slo si ambos factores del integrando son positi-


vos; es decir, cada vez t 1 ~ O y 1 - t 1 ~ O. Esto es equivalente a t 1 ~ O y l 1 ;:::;; t,
lo cual a su vez es equivalente a O ;s; t 1 ;s; t . (Ver la figura 12.6.) Luego la integral
anterior llega a ser
s(t) = J~ a ,e- " 11 0: 2e- '"24 ' - 11 >dt 1
= o:1a2e-"2' J~ e-1,1.. , -a.2>d1 i

Observaciones: (a) Ntese que la suma de dos variables aleatorias independientes.


distribuidas exponencialmente, no est distribuida exponencialmente.
(b) Para cx1 > cx 2 , el grfico de fdp de T se muestra en la figura 12.7.
(c) La expresin anterior para la fdp no est definida para cx 1 = cx 2 , es decir, para el caso
que T 1 y T 2 tengan la mi ma distribucin exponencial. A fin de cuidar de este caso especial,
consideremos la primera integral de s(c) y hagamos ex = cx 1 = cx 2 Obtenemo
s(t) = fhcxe -"' 1a:e-<1 - 11d1 1
= a2 e- 1 fhdt 1 = a 2 ie- , 1 ~O.

Esta representa a una distribucin Gama (ver la ecuacin (9.16). El grfico de esta fdp aparece
en la figura 12.8. El mximo ocurre para t = 1/a: = E(T1) E{T2 ). =
s(I) s(t)

/ (In (<>1/cr2))/(cr 1- a2) / ; l /cr

FIGURA 12.7 FIGURA 12.8

EJEMPLO 12.10. Reconsiderando el ejemplo 12.6, relacionado con la suma


de dos voltajes aleatorios independientes V 1 y V 2 , cada uno de lo cuales e t
distribuido uniformemente en [O 10]. Luego

f(v) =lo. o ;s; " ;s; 10,


g(v2) =-1-o. 5 V2 $ 10.
12.6

(Recurdese nuevamente que la funciones I y g on cero para cualquier otro


valor). Si V = V 1 + V 2 tenemo

s(v) = J ~ .. j(v.)g(v - vi)dv 1

Razonando como en el ejemplo 12.8. observamo que el integrando no e cero


lo para aquellos valore de vi que sat isfacen O ;::;; vi :s;; 10 y O :s;; v - vi :s;; 10.
Esas condiciones son equivalente a O :s;; 1i 1 :s;; 10 y a u - lO :s;; u 1 :s;; o.

v-10 O 11 10 v1 O v- 10 10 11 I"

(a) FIGURA 12.9 (v)

Existen dos casos. como e indic en la figura 12.9.

(a) v - 10 :s;; 10 y O :s;; v :s;; 10 que juntas implican que O :s;; v :s;; 10.
(b) O :s; v - 10 :s;; 10 y v ~ 10 que junta implican que 10 ;::;; u :s;; 20.

n el ca o (a). u 1 puede tomar los valores entre O y u. mientra que en el caso (b).
v 1 puede tomar lo valores entre u - 10 y 10.
As obtenemos

paraO :s;;v:s;; 10: s(v) = Ju"l0Wdv


1 1
1 =
100
V

para 10 :s;; v :s; 20 : s(v) = f: 1 ~ 1 ~


10
dv 1 = 2?00 v

Luego la fdp de V tiene el grfico que e muestra en la figura 12.10.

FIGURA 12. IO

EJEMPLO 12.1 l. Como una ilu traci n final de la sumas de variables alea-
torias. reconsideremo un re ultado que ya hemos probado, usando el mtodo
ms indirecto de la funcione generadora de momentos (ver el ejemplo 10.11),
e to es. la urna de dos variable aleatorias normales e independiente est nue-
vamente di tribuida normalmente. A fin de evitar alguna manipulaciones alge-
braica complicadas. consideremos lo un caso e pecial.
12.() L di 1rib1Kin de I """' dt 11n nmn ro 269

Suponiend que Z = X + Y. en donde X y Y n variable aleatorias 1n-


dependiente cada una con distribucin NIO. 1). ntonce

!( X ) _ - ~ e
1 - xl/2
, - . <X< 00 ,
2n

1
g(y) = e- yl/ 2
,
211'.
Luego la fdp de Z est dada por

+ f(x)g(z. - . f +"
s(zl =
f
-oo
x) dx = - 1
2n -

= J_J +
e-

e - ll /2 Jtx2+:2-2u+x'J dx
2n _

= - 1 e -z2/zf +
e - 1x1 : ) dx
2n - ...
'omp letando el cuadrado en el exponente del integrando, obtenemos

Luego
....)
\z =-l - zl/2 ez2/4 f +oo e - (J / 2J(jl(x - :/2 )J l d
2n e _ x.

Sea 2(x - z/2) = u; entonce dx = d11/ 2 y obtenemo

s(z) = 1 e- :/4 1
--;:;: J +oo e - 1122 du.
2n 2 v 2n -oo

La integral anterior (incluyendo el factor 1/ 2n) e igual a uno. Luego

s(z) = l e - 1112>1:1./7P
foJ2 .
Pero sta repre enta la fdp de una variable aleatoria con di tribucin (0,2)
lo que e iba a demo trar.
Al pre entar la distribucin de la suma de dos variable a leatorias indepen-
diente . nos hemo reducido a variable aleatorias continua . n el ca o discreto
el problema e algo m sencillo. al meno en ciertos casos, como lo indica el
teorema siguiente.

Teorema 12.3. Supnga. e que X y Y . on variable aleatoria. independien-


tes cada una de las cuales puede tomar slo valore entero no ne a ti-
vos. Sea p(k) = P(X = k). k = O. l. 2 . . . y sea q(r) P( Y = r). r = O, L =
2, . . . Sea Z = X + Y y sea w(i) P(Z = i). Entonces =
12.6
1

w(i) = L {J(,k)q(i - k). i = O, 1, 2... .


k-0

Demostracin:
11(1) = P(Z = i)
P[ X = O. Y
i
=i oX = l. Y =i -
1
1 . .. X = ;. Y = O]
= P[X = k, Y = i - k] = {J(,k)q(i - k)
k=O

puesto que X y Y on independiente

Observacin; nte e la similitud entre e ta suma y la integral de convolucin derivada


en el teorema 12.2.

EMP o 12.12. X y Y representan al nmero de em1 tone de partcula


!Xde do fuentes de material radiactivo durante un perodo de tiempo e pecificado
de duracin t. Suponiendo que X y Y tengan distribuciones de Poi on con pa-
rmetro {J 1t y {J 2 t , re pectvamente. Z =X+ Y repre enta el nmero total de
partcula !X emitida por las do fuente . U ando el teorema 12.3. obtenemos

P(Z = k) = L p(k)q(i - k)
k ~ o

(La ltima igualdad e obtiene aplicando el teorema del binomio a la urna an-
terior). La ltima expre in representa la probabilidad que una variable alea-
toria que tiene una distribucin de Poisson con parmetro ff 1t + {1 2 t tome el
valor i. As hemo verificado lo que ya abamo : la urna de do variable alea-
toria independiente de Pois on tiene una distribucin de Poi on.

PROBL MAS
12.1. (a) Una brica produce determinado artculos de tal manera que el 2 por ciento
resulta defectuoso. Se inspecciona un gran nmero de tales articulos, n, y se anota la frecuenca
relativa de deectuoso , f 0 Cul deberia . er el tamao den a fin de que la probabilidad sea
0,98 de que fo dil'iera de 0.02 en menos de 0,05?
(b) 'onteste la (a) si 0,02, la probabilidad de tener un artculo defectuo o se sustituye
por p que se supone de conocida.
12.2. Supnga e que e obtiene una muestra de tamao de un gran conjunto de pernos,
el 3 por ciento de los cuales on defectuo os. Cul e la probabilidad de que a lo m el 5
por ciento de los pernos elegidos ea defectuoso si:
(a) n = 6? (b) t1 = 60? e) t1 = 600?
l'rublen11 271

12.3. (a) n sistema compuesto est ~ rmado por 100 componentes que uncionan inde-
pendientemente. La probabildad de qu cualquier componente falle durante el perodo
de operacin es igua l a 0,10. A fin que funcione el sistema completo, al menos deben fun-
cionar 85 componentes. Calcular esta probabilidad.
(b) Supngase que el sistema anterior est formado por n componentes. cada una con
una confiabilidad de 0,90. El istema funcionar si al meno el 80 por ciento de las compo-
nentes funciona correctamente. Determinar n de modo :ue el sistema tenga una confabi-
bilidad de 0,95.
12.4. upngase que 30 instrumentos electrnicos, Di, ... , D30 , se usan de la manera
siguiente: tan pronto como D 1 falla empieza a actuar D2 'uando D2 falla empieza a actua r
D3 , etc. Supngase que el tjempo para fallar de D;, es una variable aleatoria distribuida expo-
nencialmente con parmetro p = 0,1 hora - . Sea Te\ tiempo total de operacin de los 30
instrumentos. Cul es la probabilidad de que Texceda 350 horas?
12.5. Al sumar nmeros, un computador aproxima cada nmero al entero ms prximo.
upongamos todos los errore de aproximacin on independientes y distribuido uniforme
mente entre ( - 0,5, 0,5).
(a) Si se suman 1500 nmeros, cul es la probabilidad deque la magnitud del error to.
tal ex.ceda 15?
(b) unto nmero pueden sumarse juntos a fin de que la magnitud del error total sea me -
nor que 10, con probabilidad 0,90?
12.6. Supngase que X r. i = 1, 2, .. . 50, son variables aleatorias independientes que
tienen cada una di tribucin de Poisson con parmetro A. = 0,03. Sea = X 1 + + X~o
(a) Usando el teorema del lmite central, calcular P(S ~ 3).
(b) Comparar la respuesta en (a) con el valor exacto de e ta probabilidad.
12. 7. En un circuito simple se conectan dos resistencias R 1 y R 2 en serie. Por tanto, la
resistencia total est dada por R = R1 + R 2 Supngase que R 1 y Ri on variables aleatorias
independientes que tiene cada una la fdp

O < r < 10, i = 1, 2.

Encontrar la fdp de R, la resistencia tota l y dibujar su grfico.


12.8. Supngase que las resistencias en el problema 12.7 estn conectadas en paralelo.
Encontrar la fdp de R, la resistencia total del circuito (establezca slo, en forma de integral).
[Indicacin: la relacin entre R, y R., y R 2 est dada por l/R = l/R 1 + 1/R 2 .]
12.9. Al medir T, la duracin de un artculo, se puede cometer un error que puede suponerse
distribuido uniformemente entre (-0,01 y 0,01). Luego el tiempo anotado (en horas) se puede
representar como T + X , en donde T tiene una distribucin exponencial con parmetro 0,2
y X tiene la distribucin uniforme ya descrita. Si Ty X on independientes, encontrar la fdp
deT + X .
12.10. Supnga e que X y Y son variables aleatorias independientes distribuidas idnti-
camente y que la fdp de X (y por tanto de l') est dada por
f(x)=a /x 2 , x > u. a > O,
= O, para cualquier otro valor.
Encuentre la fdp de X+ Y. [Indicacin : use fracciones parciale para la integracin.]
172 Sum11!> de ~11rlabl ., 111 11 1orl11.~

12.11. Realizar los clculo sugeridos al final del ejemplo 12.5.


12.12. (a) Un in trumento tiene un tiempo de falla T cuya distribucin. esti dada por
N(I00,4). Supnga e que a l anotar T e comete un error cuyo valor puede representar e como una
variable aleatoria X di tribuida uniformemente en ( - l, !). i X y T son independ iente.
obtener la dp de S = X + Tmediante <1>, la dp de la distribucin (0, 1).
(b) Calcu lar P(IOO ~ S ~ 101). [Indicacin: u e la regla de Simpson para aproximar la
integral.]
12.13. Supngase que un nuevo aparato se prueba repetidamente baJO ciertas condiciones
de esfuerzo hasta que falla. La probabilidad de fallar en cualquier ensayo es p 1 Sea X igual a l
nmero de ensayos necesario hasta incluir la primera falla. Tambin e prueba un egundo
aparato hasta que falla. Supngase que una probabilidad con tante de falla p 2 e t asociada
con l. Sea Y igual al nmero de ensayos necesarios ha ta incluir u primera falla. Supnga e
que X y Y son independientes y haga Z = X + Y. Por tanto, Z es igual al nmero de ensayo
necesarios hasta que ambos aparatos hayan fallado.
(a) Encontrar la distribucin de probablidad de Z.
(b) 'alcular P(Z = 4) i Pi = O,J, P2 = 0,2.
(c) Discutir (a) i Pi = P2
13
Muestras y distribuciones muestraJes

13.1 Introduccin
'onsideremo nuevamente un problema expuesto previamente. Supngase
que tenemos una fuente de material radiactivo que emite partculas ~ y que la:-.
hipte i establecida en el captulo 8 on vlidas, as que la variable aleatoria X
definida como el nmero de partculas emitidas durante un perodo de tiempo
e pecificado t tiene una distribucin de Poi son con parmetro A.t.
A fin de usar este modelo probabilstico para describir la emi in de par-
tculas a nece itamos conocer el valqr de A.. La hiptesis que formulamo lo
conducen a la conclusin de que X tiene una di tribucin de Poisson con un
parmetro A.t. Pero si deseamos calcular P(X > 10), por ejemplo, la respuesta
er mediante A. a no ser que conozcamo u valor numrico. Anlogamente, los
parmetro importantes a ociado con la distribucin tale como E(X) y V(X)
son funcione de A..
Para buscar un valo r numrico de A. debemos dejar el mundo de nuestros
modelo matemtico terico y entrar al mundo de las ob ervacione . al meno
por ahora. s decir, en e te in tante debemo ob ervar la emisin de la partcula .
obtener los valores numricos de X y luego utilizar esos valore de una manera
sistemtica a fin de obtener una informacin atinada de A..
Es importante para el lector tener una idea preci a acerca de la relacin entre
la verificacin emprica y la deduccin matemtica que aparece en mucha reas
de matemtica aplicadas. Esto es muy importante cuando con truimo modelos
probabilsticos para el estudio de lo fenmenos observable .
Con ideremo un ejemplo trivial de la trigonometra elemental. Un problema
tpico puede implicar el clculo de la altura de un rbol. Un modelo matemtico
para este problema podra obtener e al postular que la relacin entre la altura
desconocida h, el largo de la ombra , y el ngulo a es de la forma h = s tg ce.
(Suponemos que el rbol permanece derecho y perpend icular al suelo, figura 13. t.)

s FIGURA 13. l
273
274 uestras y distrlbcione m trales 13.l

Por tanto si y a son conocidos, con ayuda de una tabla apropiada, podemo
calcular h. El hecho importante que aqu formulamo e que s y IX deben er cono-
cido ante de que podamo calcular h. E decir, alguien debe haber medido s y IX.
La deduccin matemtica que conduce a la relacin h = s tg IX es completamente
independiente de los medios mediante los cuales medimos s y a. Si e a medi-
ciones son exacta , entonces s tg a representar un valor exacto de h (suponiendo
que el modelo es vlido). Dicindolo en forma diferente, no podemos deducir
simplemente el valor de h con nuestro conocimientos de trigonometra y con la
ayuda de las tablas trigonomtrica . Debernos dejar nuestro santuario (cual-
quiera que ea) y hacer alguna mediciones! Y, precisamente, cmo se hicieron
esas mediciones, de ninguna manera inluyen en la validez de nuestra deduccin
matemtica, aunque deba resolverse un problema importante.
Al usar los modelo probabilsticos nece itaremo entrar nuevamente al mundo
emprico y hacer algunas mediciones. Por ejemplo, en el caso que consideramos
se usa la distribucin de Pois on como modelo probabilstico y por tanto nece-
sitamos conocer el valor del parmetro A.. A fin de obtener alguna informacin
acerca de A: debemos hacer algunas mediciones y luego u ar esa mediciones de
una manera sistemtica con el objeto de calcular A.. En el captulo 14 de cribiremos
la manera de hacer este clculo.
Finalmente, debemos in i tir aqui en dos puntos. Primero. la medicione
necesarias para obtener informacin respecto a A. sern generalmente ms fciles
de obtener que las que produciran mediciones para e- "'(A.cnk ! (tal como e ms
fcil obtener mediciones para el largo de la sombra s y el ngulo a que para la
altura h). Segundo, la manera como obtenemo mediciones para A. y la manera
como u amos e a mediciones de ninguna manera invalida (o confirma) la aplica-
cin del modelo de Poisson.
El anterior es un ejemplo tpico de una gran cantidad de problemas. n muchos
casos es relativamente natural (y apropiado) formular la hiptesis de que una
variable aleatoria X tiene una distribucin articular de probabilidade . a
hemos visto un nmero de ejemplos que indican que hiptesis muy simples acerca
de la conducta probabilstica de X conducirn a un tipo determinado de distri-
buciones tales como la binomial exponencial, normal, Poisson y otras. Cada una
de esas distribuciones depende de ciertos parmetros. En alguno casos el valor
de uno o ms parmetros puede .s er conocido. (Tal conocimiento puede provenir
debido al e tudio previo de las variables aleatorias). Muy a menudo, sin embargo,
no conocemos el valor de Jos parmetros implicados. En tales casos debemos
proceder como se sugiri anteriormente y obtener algunos valores empricos
de X y luego usar esos valores de alguna manera apropiada. Veremos cmo se
hace e to en el captulo 14.

13.2 Muestras aleatorias


Previamente hemos presentado la noc1on de muestreo aleatorio con o sin
sustitucin de un conjunto finito de objetos o poblacin de objetos. Tenemos
que considerar una poblacin especfica de objetos (personas. artculos manu-
1.U

facturados, etc.) acerca de la cual queremos hacer inferencia n mirar ac.la objeto.
As muestreamos. E decir, tratamos de con iderar alguno objeto tpicos
de los cuales esperamos extraer alguna informacin que de algn modo ea a-
racter tica de la poblacin completa. Seamo m preci o .
Supngase que designamos con ecutivamente cada uno de lo elementos de
una poblacin finita, de modo que in perder generalidad una poblacin que consta
de N objetos puede repre entar e como 1, 2, . . . N. Elijamos ahora n artculos,
de la manera como vamos a de cribir a continuacin. Defnamo la iguiente
variable aleatoria.

X 1 = valor poblacional obtenido cuando se e coge el i imo artculo, i = 1. 2, . ... 11.

La distribucin de probabilidades de la variable aleatorias X 1, . , X,, depende


evidentemente de cmo vamo a mue trear. Si el muestreo es con u titucin,
cada vez e cogemos un objeto al azar, la variables aleatoria on independientes
e idnticamente di tribuida . E decir, para cada X;, i = 1, 2.... , n tenemo

P(X 1 =j) = l/N, j = 1,2, ... ,

Si el mue treo e in ustitucin, la variable aleatoria X 1 . . . , X,, ya no son


independientes. En este ca o, u di tribucin onjunta de pro abilidade est
dada por

P[X 1 =ji, . . .,X. =j.J = N(N -1)\ - n + I)'


en dondej, ... , j,, on n valore cuale quiera de (1, ... , N). (Podemo demostrar
que la distribucin marginal de cualquier X 1 independientemente de lo valores
tomados por Xi. ... , X 1_ ., x 1.. ., . , Xn. es la misma que la anterior cuando
el muestreo e hace con ustitucin).
En nuestra exposicin hasta ahora, hemo upue to que exi te una p blacin
principal, 1, 2, . . . N que e finita y acerca de la cual queremo tener una in-
formacin ba ada en una mue tra de tamao n < N. n mucho ca o no hay
una poblacin finita de la cual obtengamo mue tra ; en realidad podemo tener
dificultades al definir una poblacin principal de cualquier clase. Con ideremos
los ejemplo iguientes.
(a) Se lanza una moneda. Definamos la variable aleatoria X 1 = nmero de
cara obtenida . Bajo un solo a pecto podemo pensar que X 1 e una mue tra
de tamao uno de la poblacin de todo lo lanzamiento po ible de e a mo-
neda. Si lanzamos la moneda una egunda vez y definimos la variable aleatoria X 2
como el nmero de caras obtenidas con el egundo lanzamiento, X 1 , X 2 po ible-
mente pudo considerarse como una mue tra de tamao do de la misma poblacin.
(b) La precipitacin total anual en cierta localidad d.urante el ao 1970 podra
definirse como una variable aleatoria X 1. Durante lo aos siguientes la variables
aleatorias X 2 , . , X. pudieron definir e anlogamente. Podemo con iderar
13.2

nuevamente (X 1 . X nl como una muestra de tamao 11. obtenida de la po-


blacin de todas las precipitacione anuale posible en esa localidad e pecfica
y podra uponerse realsticamente que la X on variable aleatoria indepen-
diente e idnticamente di tribuida . .
(c) La duracin de una bombilla rabricada mediante cierto procedimiento
en una fbrica e e tudia escogiendo n bombilla y midiendo u duracin.
Ti. ... . Tn. Podemo considerar {T1 . . . , T,,) como una muestra aleatoria de la
poblacin de todas las duracione. po ible de las bombillas fabricada de e a
manera e pecifica.
Formalicemos esas nociones como igue.

Definicin. Sea X una variable aleatoria con cierta distribucin de proba-


bilidades. Sean X 1 . , X,, 11 ariable aleatoria independientes que tiene
cada una la mi madi tribucin que.\'. Llamamo entonce a (X 1 . X.)
una muestra aleatoria de la ('ariable a/1'aloria X.

Observaciones: (a) stablezcamos ms informalmente lo anterior: una mue tra aleatoria


de tamao 11 de una variable aleatoria X corresponde a 11 mediciones repetidas de X, hechas
bsicamenle bajo las mismas condiciones. 'orno lo hemos dicho anteriormente en otros
prrafos. la nocin matemticamente idealizada de una mue Ira aleatoria se puede aproximar
mejor lo por las condicione experimentales reales. A fin de que X, y X 2 tengan la misma
distribucin, todas las condiciones relevantes bajo las cuale se realiza el e perimento.
deben ser las mi ma cuando e ob erva X, que cuando se ob erva X 2 Las condiciones ex-
pcrimentale nunca e pueden duplicar idnticamente. por upue to. Lo importanle es que
e a condiciones, que on diferentes. deben tener poco o ningn efecto en el resultado del
experimento. Sin embargo. algn cuidado deber tener e para a egurarnos de que realmente
obtcngamo una mue trn aleatoria.
Por ejemplo, upngase que la variable aleatoria que e considera e X. el nmero de lla-
mada que llegan a una central telefnica entre las 4 p.m. y las 5 p.m. el mircoles. A fin de
obtener una muestra aleatoria de X . posiblemente deberiamo elegir 11 mircoles al azar y
anotar el valor de X 1. . , x . Tendramos que estar seguros de que todo los mirwles
son mircoles tpicos. Por ejemplo, podramos no incluir un mircoles particular si coincide
con avidad.
uevamente. tratemo de obtener una mue tra aleatoria de la variable aleatoria X defi-
nida como la duracin de un instrumento electrnico que e fabrica con determinadas espe-
cificaciones, deseariamo a egurarnos de que no e ha obtenido un valor muestra! de un
artculo producido durante un momento en que el proce o de produccin estaba fallando.
(b) Si X es una variable aleatoria continua con fdp f y i X . .. , X" e una muestra
aleatoria de X. entonce, g. la fdp conjunta de X 1 , , X n puede e cribir e como g(x 1, ... x.) =
f(x 1) f(xnl Si X e una variable aleatoria discreta y p(x1) = P(X = x;) entonces

P[X 1 = X . X. = x.,J = p(x 1 )' p(x,,).

(c) Tal como lo hicimos anteriormente. u aremos letra maysculas para las variable
aleatorias y letras min culas para el valor de la variable aleatoria. uego lo valor que toma
una mueslra (X 1 , X.) e denotarn por (x 1. x.). A menudo hablaremo del pumo
11111escra/ x 1 , Xn) . Con e to indicaremo implemente que consideramos a (x 1 . . x.)
como las coordenadas de un punto en un espacio euclidiano,. dimen ional.
ll4

13.3 Estadgrafos
na vez que hemo obtenido los a lorc de una mue Ira. habit ualmente
queremos u ar eso valores muestrales con el objeto de hacer alguna inferencia
de la poblacin representada por la mue tra que en el prrafo actua l repre enta
la di tribucin de probabilidade ' de la variable aleatoria que e e t muestreando.
Puest que lo diversos parmetros que caracterizan una distribucin de proba-
bilidades on nmer , e apena natural que queramo calcular cierta carac-
terstica numricas especfica que e obtienen de los valore muestrales. lo que
nos podra ervir para hacer propo ici ne apropiada acerca de los a lores de
lo parmetros que a menudo no on conocidos. Definamo el iguiente c ncepto
importante.

D fmicin. ea X 1 , .' ,X,, una muestra a leatoria de una variable aleatoria


X y ean x 1 . . , x,, los atores tomados por la muestra. ca Huna funci n
definida para el n tuplo (x 1 x,,). Se define que Y = 1-l(X 1 . X 11 )
ea un estadw4o. que toma el valor y= H(x 1 x,,).
n palabras: un estadgrafo es una funcin real de la muestra. Algunas
veces usa mo el trmino estadgrafo para referirno a l valor de la funcin.
Luego podemos hablar del estadgrafo y = H( - 1 x,.) uand rea lmente
deberamos decir que y es el alar del e tadgrafo Y = H( 1, X,,).
Obsen>acin: de acuerdo con la de micin ;rn1crior. un estadgrafo es una variable alea-
'loria ! Es muy importante recordar esto. Ser til ahora considerar la distribucin de pro-
babilidades de un estadigrafo, u cspcran7-a y su varianza. Cuando una ariable aleatoria es
realmente un estadgrafo. es decir, una funcin de una muestra. hablamos a menudo de su
distribud11 muestl'lll en vez de su distribucin de probabilidades.

'amo lo ugerimos al comienzo de este captul ~ aremo la informacin


obtenida de una muestra con el objeto de e 1imar ciertos par metros de con cidos
a ociados con una distribucin de probabildadc . ncontraremo que ciertos
e tadgrafo de empean un papel importante en la solucin de e te problema .
Ante de que e n idercmos esto con m detalle (en el captulo 14). estudiemo
algun e tadgrafo importante y u propiedades.

13.4 Alguno estadgrafos importantes


Hay cierto e tadgrafo que e ent:ucntran frecuentemente. Anotaremo
alguno de ello y e pondrcmo algunas de u propiedade importantes.

Definicin. ea (X .. ... X.,) una muc. lra aleatoria de la variab le aleatoria X.


Los iguientes e tadgrafos son de inters.
(a) X= (l / 11)'E'/ _ 1 X; e llama el n.ro111edio m1ws1ra/.

N. del T. El autor emplea la palabra s1mis1ics. que hem s traducido por e tadgrafo
por st:r la m comnmente empleada en espaol.
(b) S 2 = [ l/(11 - l)] :E' 1 (X; - X) 2 se llama la 1 arianza 111t1es1ra/. (
plicaremo brevemente por qu dividimo por (11 - 1) en vez de elegir
implemente n).
(c) K = min (X 1 . . . , X n) e llama el mllimo de la miwstra. (K repre en ta
implemente el valor observado ms pequeo).
(d) M = max (X, ... , Xn) e llama el mximo de la muestra. (M repre enta
el mayor valor ob ervado).
(e) R = M - K se llama el recorrido muestra/.
(f) X!/ 1 = j- ima ob ervacin mayor en la muestra. j = l. 2..... n.
(T nemo que X~ 1 > = M mientra que xl,"> = K).
Observaciones: (a) Las variables aleatorias X~ 1 .j = l. 2... , 11. se llaman estadgrafos
de orden asociados con la variable aleatoria Xi. .... X . Si X es una variable aleatoria con-
tinua podemos suponer que xin > x~2 > > ... > x~>.
(b) Los valores extremos de la muestra (en la notacin anterior, X~ 11 y x~ son a menudo
de inters considerable. Por jemplo, en la construccin de represas para controlar inunda-
ciones, la mayor altura que ha alcanzado un rio en lo 50 aos anteriore puede er muy im-
portante.
aturalmente hay mucho otro estadgrafo importantes como lo que en-
contramo pero evidentemente los mencionados desempean un papel importante
en mucha aplicacione e tadstica . E tablcceremos (y demostrarcm ) alguno
teoremas que e refieren a los estadgraos anteriores.

Teorema 13.1. Sea X una variable aleatoria con e peranza E(X) = t y


varianza V(X) = a 2 Sea X el promedio mue tral de una mue lra aleatoria
de tamao 11. Entonces
(a) E(X) = .
(b) V(X) = <J 2 /n.
(e) Para 11 grande. (X - t)/(<J/ n tiene aproximadamente la distribucin
N(O, t) .

Demostracin: (a) y (b) e deducen inmediatamente de la propiedade de


la e peranza y de la varianza e tablel'ida, anteriormente:

_
E(X) = E ( -' LX;
n )
=-1 Ln E(X;) = -1 11 = .
n ,., lli = I 11

Pue to que los X ; on independientes

V(X)
1 n
= V( - L. X,
)
= 21 L:n V(X;) =
J
2 na 2
02
= -.
n; = i n ;~ 1 n n

(c) se deduce de una aplicacin directa del teorema del lmite central. Podemos
escribir X= (l / n)X 1 + + (1/ n)X,, como la urna de variables aleatorias in-
Q_ependientemente d tribuidas.
U.4

Observaciones : (a) 'uando el tamao de muestra aumenta. el promedio mue tral X


tiende a variar menos y meno . sto e intuitivamente evidente y corre ponde a nuestra ex-
periencia con dato nun"iricos. onsidrese. por ejemplo, el conjunto iguiente de 18 nmeros
- 1.3. 2. - 4. - 5.6. 7.2. 0. 1. - 2. - 3, 8,9. 6. - 3.0. 5.
i calculamo el promedio de eso nmeros. tomando dos a la vez en el orden anotado, obte-
nemo el iguiente conjunto de promedios:
I, - 1, 0,5; 4,5; 0.5. - 2.5; 8,5; 1.5; 2,5.

Si promediamos el conjunto original de nmero . tomando tres a la vez. obtenemos


1.3. - l. 3. - 1.3. 7. 7, 0.7.
Finalmente. i promediamo los nmeros. tomando seis a la vez obtenemo
0.2. 0.8, 4, l.
La varianza en cada uno de e o conjuntos de promedio es menor que en el conjunto
anterior, debido a que en cada caso el promedio est ba ado en un nmero mayor de valore .
El teorema anterior indica precisamente cmo la variacin de X (medida mediante u va-
rianza) disminuye cuando aumenta n. (En relacin con esto vase la ley de lo grande n-
meros, seccin 12.2 y en particular la ecuacin 12.2).
(b) Si 11 no es suficientemente grande para a egurar la aplicacin del Teorema del lmite
central, podemo tratar de encontrar la distribucin exacta de probabilidades de X por un
medio directo (pero generalmente ms complicado). En la eccin 12.5, ugerimos un mtodo
mediante el cual podemo encontrar la distribucin de probabilidades de la suma de va-
riable aleatoria . n una aplicacin repetida de e te mtodo podemo obtener la distri-
bucin de probabilidades de X, especialmente si n e relativamente pequeo.
(c) El teorema 13. I indica que para un n suficientemente grande, el promedio muestra! X
est distribuido aproximadamente normal (con esperanza y varianza a 2/ rr).

ncontramos que no slo X sino Ja mayor parte de la funciones Con buen


comportamiento de X tienen e ta propiedad. En e te nivel de presentacin no
podemos dar un desarrollo ms explicalivo de e te re ultado. Sin embargo, el
resultado e de mucha importancia en muchas aplicaciones para ostener a lo
menos un argumento heurstico, intuitivo.
Supnga e que Y = r( ) y que r puede desarrollar e en una serie de Taylor
respecto a . Luego r(X) = r() + (X - )r ' () + R , en donde R e el trmino
del re to y puede expresar e como R = [(X - ) 2 /2]r"(z), en donde z e un valor
comprendido entre X y . Si n e suficientemente grande, X estar prxima a .
y por tanto (X - ) 2 er pequea comparada con (X - ) . Para /1 grande, po-
demo por tanto considerar que el re to es despreciable y aproximar r(X) como
sigue:
r( ) ~ r() + r' (t)( X - ).
Vemo que para un /1 suficientemente grande, r(X) se puede aproximar por una
funcin lineal de X. Puesto que X ser aproximadamente normal (para un n
grande), encontramos que r(X) tambin ser aproximadamenle normal , pue to
que una funcin lineal de una variable aleatoria di tribuida normalmente e t
tambin di tribuida normalmente.
llltl 13.4

e la e pre in anterior de r(X) enconlramo que


2
E(r(X)) ::.- r(), V(r(X)) _ [r'()]20"
11

A para un n uficentemente grande. vcmo que la distribucin de r(X) es apro-


ximadamente (r(. [r'(1t)] 2 u 2 /n) (bajo condicione muy genera le de la funcin r).

Teorema 13.2. Sea X una variable aleatoria continua con fdp f y fda F.
Sea Xi. .... X,, una muestra aleatoria de X y sea n K y M e l mnimo y
el mximo de la mue tra re pectivamente. Luego :
(a) la fdp de Me t dada por g(m} = n[F(m) n - 1 f(m).
(b) la fdp de K est dada por h(J.. l = n 1 - F(k)]n - 1 .f(k).

Demostracin: sea G(m) = P(M ::;:; 111) la fda de M . Ahora {M :::;; m} e equi-
valente al suceso {X; ::;:; m para todo ;: . Luego pue to que los X; on indepen-
dientes encontramo

G(m) = P[X 1 ::;:; m y X2 ::;:; /11 y ,, ::;:; m] = [f(m)]".


Por tanto
~(m = G'(m) = n[f(mJ]" - 1 f(m).

La btencin de la fdp de K se deja al lector. (Ver el problema 13.1 ).

EJEMPLO 13.l. Un in trumenlo e lectrnico tiene una duracin T que e t


distribuida exponencialmente con parmetro :x = 0,001; es decir, su fdp es f(t) =
0,001 e-o.ootr. Supngase que e prueban 100 de tales instrumento. que dan
valores ob rvado T 1 . Ti oo-
(a) ul e la probabilidad de que 950 < f < 1100? Pue to que el tamao
de mue tra e muy grande, podemo aplicar el teorema del lmite centra l y pro-
ceder como sigue:

E(T) = O.~I = 1000. V(T) = 1 ~ (0,001) - 2 = I0.000.


Como (f - 1000)/100 tiene aproximadamente la di tribucin (0.1). Por tanto

P(9 o< T- < 1100) = P ( -o.s < f - 1000 < 1)


(\. 100
= <l>(I) - <D( - 0.5)
= 0.532.
de la tabla de la distribucin normal.

Observacin: en el ca o presente podemo obtener inmediatamente la distribucin exacta


de T in recurrir al teorema del lmite central. Demostramos en el teorema 10.9 que la suma
de variables aleatorias independientes di tribuidas exponencialmente tiene una distribucin
gama; es de ir,
1 l.4

o.uu1,

en donde ge la fdp de T 1 + + Ti 00 . Luego la fdp de Te t d<ida por


(0, l)I OO'~'>e O.Ir
f(I) = 99! .

uego Tticnc una distribucin Gama con parmctros 0,1y100.

(b) Cul e la probabilidad de que el mayor valor observado sobrepase


7200 horas? ece itarno que P(M > 7200) = 1 - P( 1 ~ 7200). El va lor mximo
ser menor que 7200 si y lo si cada valor de mue tra es menor que 7200. uego
P( 1 > 7200) = 1 - [F(7200)] 10 .
Para calcular F(7200). recordemo que la ariable aleatoria distribuida expo-
nencialmente con parmetro O.OOL F(t) = l - e 0 0011 . Luego.
F(7200) = l - e0 001 <12001 = l - e- 1 2 = 0.99925.
As la probabilidad pedida e 1 - (0.99925lL 0 que e igual a 0.071.
(e) 'ul es la probabilidad de que el tiempo ms corto para fallar ea menor
que 10 hora? Pedimo que P(K < 10) = 1 - P(K ~ JO).
El mnimo de la muestra ahora es mayor que o igual a 10 si y lo i cada valor
mue tral e mayor que o igual a 10. Luego

P(K < 10) = 1 - [I - F(IO)J'.

U ando la expresin de F como se dio en el anterior (b). tcnemo


_ F(JO) = e 0.0011101 = e-o.o t = 0.99005.
Luego
P(K < 10) = l - (0.99005) 100 = 0.63.
La ltima parte del ejemplo anterior puede generalizar e como lo indica el teorema
iguiente.

Teorema 13.3. ea X di tribuida e poncncialmente con parmetro '.X y


sea (X 1 : .. Xn) una muestra a leatoria de X. ea K = min(X 1. Xnl
ntonces K e t tambin distribuida exponencialmente con parmetro 11r1..

Demosr racin: sea H la fd a de K . Luego

H(k) = P(K ~ k) = 1 - P(K > k) = 1 - [I - F(k )]n.

en donde F es la fda de X. Como F( ) = 1 - e -u_ ueg H(k) = 1 - e-n2 k


Derivando H(k) re pecto a k da. h(k) = m:xe - 2 k.
1 .4

Obse1tcui11 : eslc teorema puede generalizarse como sigue. Si X, , . .. , X n son variable


aleatorias independiente y si X; tiene una distribucin exponencial con parametro a 1,
i = 1 . ... n, entonces K = min (X t. .. . , Xn) tiene una di tribucin exponencial con par
metro oc 1 + + '
Para una demo tracin de e 10. ver el problema 13.2.

El teorema 13,4 nos da informacin acerca de la estad tica S 2

Teorema 13.4. Suponiendo que X 1, . X,, e una muestra aleatoria de


una variable aleatoria X con e peranza y varianza a 2 Sea

s2 = _ I _(X; - )z,
11 - l i= 1

en donde X es el promedio mue tral. ntonce e tiene lo siguiente:


2
(a) E(S = a 2 )
(b) Si X e t distribuida normalmente, [(n - l)/ a 2]S 2 tiene una distri-
bucin x cuadrado con (n - 1) grado de libertad.
Demostracin: (a) E cribiendo
"
L (X; - X) 2 = Ln (X - Ji + JI - .\') 2
i 1 i I

" [(X - 1) 2 + 2( - X) X; - JI)+ (Jl - X) 2]


1- 1

= 'f. (X ; -
i= 1
) 2 + 2(1 - X) i
1 I
(X 1 - ) + n( - X) 2

n
= 2: (X; - ) 2 - 211( - X) 2 + n(l - X) 2
i= I
IJ

= L. (X; - ) 2 - n(,\' - )2_


i= 1

Lueg

E - J-
( n - 1 1
Ln (X; - X)2 ) = -l - [ na 2 - n- (l2] == a 2
1 11 - 1 11

Observacin : i hubi emos dividido por " en vez de (n - 1) a l definir S 2 , la propiedad


anterior no habria sido vlida.

(b) No demostraremo (b} ino que slo hacemos po ible u validez a l con-
siderar el ca o especial siguiente: Considerando Li., 1 (X ; - X) 2 paran = 2. Luego

X) 2 = [X, - ~(X1
2
(X, - X ) + (X2 - + X 2 )]2 + [X2 - t(X, + X2)] 2
== !(2X, - Xi - X2] 2 + ![2X 2 - X 1 - X 2 ] 2

= t[(X 1 - X 2) 2 + (X 2 - X .) 2 ] = [X 1 - X 2 ]2
. 2
IJ.4

Puest que X 1 y X 2 c. tn di tribuidos indcpcndicnl 'mcnlc con distribucin


2
(1. a ). encontramo que (X 1 - 2 ) tiene di tribu in (0. 2tT 2 ). Luego

tiene distribucin x. cuadrado con un grado de libertad. (Ver el teorema 10.8).


La demostracin para un n general sigue una lnea semejante. Debemos demos-
trar que ~. 1 (X 1 - X) 2 / a 2 puede de componer e en la suma de (n - l) cuadrados
de variables a lea to ria independien tes, cada una con di tribucin N(O. l).
Obseri1acin : aun ,ue S2 e define como la suma de lo cuadrados de 11 trmino , e os ti
trmino no on independient.cs. En realidad, (X 1 - X)+ (X 2 - X) + + (X. - X) =
~7 1 X 1 - t1 = O. Luego hay una relacin lineal entre los 11 trminos lo que indica que tan
pronto como (n - 1) sean conocidos. el n simo est determinado.

Finalmente, establezcamos ( in demostracin) un resultado que e refiere


a la di tribucin de probabilidade del recorrido de muestra R.

Teorema l3.5. Sea X una variable aleatoria continua con fdp f. Sea
R = M - K e l recorrido de muestra basado en una mue tra a leatoria
de tamao n. Luego la fdp de R est dada por

EJEMPLO 13.2. Un voltaje aleatorio V e t distribuido uniformemente en


[O. l]. e obtiene una muestra de tamao n, V1 V,., y se calcula el recorrido
muestra! R. ncontramo que la fdp de R e
g(r)
g(r) = 11(n - 1) e=-' ,.- f (s).f(s + 1') ds.
2

Tencmo. /(s) = f (s + r) - 1 para cuulquicr


O :::;; s :::;; l y O :::;; s + r :::;; 1, l a~ que junta implican
que O ;::;; s ;::;; 1 - r. Luego

k(r) = 11(11 - l)J ~-r ,... - 2 ds r (n - 2)/ (n - 1)

= 11(11 - l)rn - l(I - 1'). O :S: r :S: l. FIGURA 13.2

Para 11 > 2. el grfico de la fdp de R tiene la forma que e indica en la figura 13.2.
bservc que cuando n _, el valor de,. en el cual ocurre un mximo e desplaza
a la derecha . Luego, cuando el tamao de la muestr3 se aumenta, llega a er m
y m posible que el recorrido R ea prximo a l , que e intuitivamente lo que
esperaramos.
284 Muestra< y dl!ttrlbudoo muestrales l .s
13.5 La transformacin integral
Una muestra de una variable aleatoria X puede usar e para obtener informa-
cin acerca de parmetros desconocidos asociados con la distribucin de pro-
babilidades de X. Sin embargo, podemos usar una mue tra con un objeto diferente.
Podramos tomar algunas observacione de una variable aleatoria cuya di tri-
bucin est completamente especificada y luego usar e o valore muestrales
para aproximar ciertas probabilidades que eran muy difcile de obtener con
un clculo matemtico directo. Por ejemplo, suponiendo que X tiene una distri-
bucin N(O, 1) y queremo e tudiar la variable aleatoria Y = e-x sen X. En es-
pecial, opongamos que queremo calcular P(O :::; Y :::; !). A fin de obtener la
re puesta exacta, nece itamo encontrar G, la fda de Y y luego calcular G{t) - G(O).
Encontraramos mucha dificultad para hacer esto. Sin embargo, podemo usar
otro enfoque que est basado en la idea de simular el experimento que da origen
a la variable aleatoria Y. Entonces usamos la frecuencia relativa como una apro-
ximacin a la probabilidad bu cada. Si esta frecuencia retativa se ba a en un
nmero de ob ervaciones suficientemente grande, la ley de lo grande nmero
ju tfica nue tro procedimiento.
E pecficamente, supngase que tenemos una muestra aleatoria de la variable
aleatoria anterior cuya di tribucin e t completamente e pecificada, X 1 , X n
Para cada X definimos la variable aleatoria Y1 = e - x, en X 1 Luego, evaluamos
la frecuencia relativa n.Jn en donde nA e igual al nmero de valore Y1, ean y;,
que ati facen O:::; y1 ::::;; !. Luego nAf n es la frecuencia relativa O ::;,; Y ::::;; t, y i n
es grande, esta frecuencia relativa e tar prxima a P [O : : ; Y :::; !] egn la
ley de los grandes nmeros.
Para aplicar el procedimiento anterior debemo encontrar un medio de
generar una mue tra aleatoria Xi. ... , X n de la variable aleatoria cuya di -
tribucin es N(O, 1). Antes de indicar cmo se hace esto, expongamo brevemente
una distribucin para la cual este trabajo ya se ha realizado debido a Ja dispo-
nibilidad de tabla . Supnga e que X est di tribuida uniformemente en el in-
tervalo [O, l]. A fin de obtener una mue tra aleatoria para tal variable aleatoria,
lo nece itamos ver una tabla de nmero aleatorios (ver el Apndice). Esas
tablas se han hecho de manera que sean tile para este propsito. Para u arla
sencillamente eleccionamo una ubicacin al azar en la tabla y luego obtenemos
nmero a lo largo de filas o columnas. Si queremos u ar e os nmero tabulados
para repre entar valores entre O y l , slo nece itamos poner una coma decimal
al comienzo del nmero. A , el nmero anotado 4573 e usara para repre entar
al nmero 0,4573, etc.
La di ponibilidad de esas tabla de nmero aleatorios hace la tarea de ob-
tener una mue tra aleatoria de una distribucin arbitraria relativamente encilla
debido al resultado contenido en el teorema siguiente.
Teorema 13.6. Sea X una variable aleatoria con fdp f y fda F. Se supone
t
que f(x) = O, x (a, b)]. Sea Y la variable aleatoria delinida por Y = F(X).
Luego Y e t distribuida uniformemente en [O, I] (Y e designa como la
transformacin integral de X).
1 .5 La lran fottn t 011 tnl r11 UlS

Demo 1raci11: puesto que X es una variable aleatoria continua. la fda F e


una funcin continua e trictamente montona con una inversa. F - 1 . decir.
Y= F(X) puede re olver e para X mediante Y: X = F - 1 (Y). (Ver la figura 13.3.)
[Si F(x) = O para x ~a, definimo F - 1 (0) = a. Anlogamente, i F(x) = 1 para
x ~ b. deftnimo F - 1 (1) = b.]
Sea G la fda de la ariable aleatoria Y definida anteriormente. Luego

G(y) = P(Y ~y)= P(F(X):;;; y)= P(X:;;; r 1


(y)) = F(F - 1
(y)} =y.

Por tanto la fdp de Y. g(y) = G'(y) = 1. to e tablece nue tra demo !racin.
Ob ervaciones: (a) omentemo brevemente cmo se examina realmente el valor de
una variable aleatoria Y. Dado un valor x de la variable aleatoria X . calculamo luego el valor
de Y = F(X) como y = F(x), en 'donde fe la fda de X (conocida).
(b) El teorema 13.6 enunciado y demo trado anteriormente para variable aleatorias
continuas tambin es vlido para variables aleatorias discretas. Hay que hacer un pequeo
cambio en la demo tracin pue to que la fda de una variable aleatoria discreta es una
funcin e calonada y no tiene una inversa nica.

y F(x)

IGURA 13.3

Podemo usar ahora el re ultado anterior a fin de generar una mue tra alea-
toria de una variable aleatoria con una distribucin e pecfica. on ideraremo
nuevamente slo el ca o continuo. Sea X una variable aleatoria continua con
fda F de la cual se ide una mue tra aleatoria. Sea y 1 un valor (entre O y 1) obtenido
de una tabla de nmeros aleatorios. Pue to que Y = F(X) est di tribuida uni-
rormemente en [O, l] , podemos consderii'ra ~como una observacin de e a
variable aleatoria. Re olviendo Y1 = (x1l para x 1 (lo que e po ible si X es
continua), obtenemos un valor de una variable aleatoria cuya fda e F. Conti-
nuando este procedimiento con lo nmero y 2 , . , Yn obtenido de una tabla
de nmero aleatorios, tenemo x;, i = l , ... , n, como olucin de la ecuacin
y; = F(x;), y por tanto. tenemos nuestros valore muestrales buscado .

EJEMPLO 13.3. Supngase que queremos obtener una mue tra de tamao
cinco de una variable aleatoria con di tribucin N(2 , 0,09) y supnga e que ob-
tenemo lo valore siguientes de una tabla de nmero aleatorio : 0,487; O, 722
0,661; 0.194; 0,336. Definamos x 1 como sigue :
28(, Mue;.lr 'I di trlbudue . m"' tralL-s l .s

0,487 = 1 f...
,J'Ei (O,J) _ exp - [ 21(t0,3
- 2) 2
]
dt
00

= --
l J(xi-2)/0.3 exp (-s2) (X _ 2)
- - ds = <I> - -
n -.., 2 OJ

De la tabla de la distribucin normal encontramos que (x 1 - 2)/0,3 = -0,03.


Luego x 1 = (-0,03)(0,3) + 2 = 1,991. _Este nmero repre enta nuestro primer
valor de muestra de la distribucin especificada. Continuando de la misma manera
con los otro valores obtenemo lo siguientes valores adicionales de muestra:
2,177 ; 2,124; 1,742; 1,874.
1 procedimiento anterior puede generalizarse como sigue. Para obtener un
valor de muestra x, de la distribucin N(, u 2) , obtenemos un valor muestra\ y 1
(entre O y l) de una tabla de nmeros aleatorios. El valor pedido x, est definido
por la ecuacin <l>((x, - )/u) = y 1
Observaciones : (a) Hay mtodos alternos al sugerido anteriormente, para generar
muestras aleatorias de una distribucin especfica. Ver el problema 13.8.
(b) Uno de los aspectos que hace til este enfoque de simulacin e la po ibilidad de
tener una muestra aleatoria muy grande. Esto es posible, e pecialmente, si se dispone de un
computador electrnico.

ErnMPLO 13.4. El empuje T de un propelente slido de un sistema de cohetes


es una funcin muy complicada de un nmero de variables. Si X = seccin de
la garganta, Y = factor tasa del encendido, Z = rea donde se quema el prope-
Jente slido W = densidad del propelente slido. n = coeficiente de encendido.
y C; =constante, i = 1, 2, 3, podemos expre ar T como sigue:

_
T - C 1 YWZ
(~)l /(n - 1) (~)l /(n -
X+ C2 YWZ
1) + C3 .

En exposicione anteriore las iguiente hiptesis posibles: X , Y, W y Z on va-


riables aleatorias independientes distribuidas normalmente con promedio y
varianza conocido . Cualquier intento para obtener la distribucin de proba-
bilidade de la variable aleatoria To an de expresiones exactas para E(T) y V(T)
fracasar debido a la relacin compleja entre X, Y, W, Z y T.
Si pudiramos generar una muestra aleatoria (grande) de X, Y, Z y W, por
ejemplo obtener cuaternas (X,, Y;, Z ;, W 1) , podramos luego generar una gran
muestra de T, llammosla (Ti, . .. , Tn) e intentar estudiar las caractersticas de
la variable aleatoria T empricamente (mediante la muestra). Supngase, por
ejemplo, que de eamos calcular P(a ;s; T :s; b). Para aplicar la ley de los grandes
nmero , simplemente necesitamos obtener la frecuencia relativa del suceso
{a ~ T ~ b} de nue tra muestra (grande), y luego poder tener una certeza razo-
nable de que la frecuencia relativa se diferencia muy poco de la probabilida4 te-
rica que est siendo buscada.
13.S

Hasta ahora no hemo intere ado lo en el problema de aproximar una


probabilidad exacta con una frecuencia relativa basada en un gran nmero de
observacione . Sin embargo, el mtodo que hemos ugcrido puede u ar e para
obtener soluciones aproximadas de problema que on de naturaleza comple-
tamente no probabil tica. Indica remo slo uno de los muchos tipos de problema
que pueden con iderar e de e ta manera. 1 enfoque general e designa como el
mtodo de Monte-Cario>). Una de cripcin muy buena de e te mtodo aparece
en Modern Mathematics for the Engineer, de E. F. Beckenbach, publicado por
McGraw-Hill Book Co., Inc., New York , 1956, captulo 12. 1 ejemplo 13.5 e
obtuvo de e te libro.

EJEMPLO 13.5. u pngase que de eamo ca lcular la integral J x dx in recurrir


a lo procedimiento triviale pa~a obtener su valor t. Se procede como e indica.
Se obtiene, de una tabla de nmeros aleatorios, una muestra aleatoria de la va-
riable aleatoria di tribuida uniformemente en [O, l]. Suponiendo que lo valore
mue trale on 0,69 ; 0,37; 0,39; 0,97; 0,66 ; 0,5 1; 0,60; 0,41; 0,76 y 0,09. Pue to
que la integral pedida repre enta a E(X). en donde X e la variable aleatoria
uniformemente di tribuida que se mue trea, parece razonable que podamo apro-
ximar E(X) u ando el promedio aritmtico de los valore muestra les. Encon-
tramo que X =O 545. (Si hubi emos tomado una mue tra mayor, tendramos
una buena razn para e perar una exactitud mayor).
Esta ilu tracin trivial indica la idea b ica tras muchos mtodo de Monte-
arlo. E tos mtodos han sido u ados exito ament para evaluar integrale ml-
tiples obre cierta regione complicada y resolver alguna ecuaciones dife-
renciales.
Obsercacin: los medios para obtener muestras de una distribucin arbitraria como e
describi en la eccin 13.5. pueden llegar a er muy complicados. ebido a la gran impor-
tancia de la distribucin normal, existen tablas disponibles (Ver la tabla 7 en el Apndice)
que eliminan una gran parte de lo clculos de. crito anteriormente. La tabla 7 da, directa-
mente, muestras de la distribucin N(O, 1). Estos valores mucstrale se llaman desviaciones
normales. Si se nece itan 11 valores mue trale x., ... x. de la distribucin N(O. I), e toman
directamente de la tabla 7 (escogiendo el punto de partida de alguna manera aleatoria po iblc,
como e describi para la tabla de lo nmeros aleatorios).
De una manera enclla, tambin puede usarse esta tabla para obtener mue tra de una
distribucin normal arbitraria (, u 2 ). Sencillamente se multiplica X, el valor escogido
de la tabla, por <T y luego se le suma . Es decir, se forma Y; = ax; + . Luego y; sen\ un valor
muestra! de la distribucin pedida.

PROBLEMAS
13.1. Deducir la ex pre in para la fdp del mnimo de una muestra. (Ver el teorema 13.2.)
13.2. Demo trar que si X 1 , , X. son variable aleatorias independiente . que tiene
cada una distribucin exponencial con parmetro !Xr, i = I, 2, ... 11 y si K = min (Xi, . . . , X.),
entonce K tiene una distribucin exponencial con parmetro a 1 ++(X . (Ver el teorema
13.3.)
13. upngase que X tiene una distribucin geomtrica con para metro/>. ca 1 , X.
una muestra aleatoria de X y sea M = max (Xi. .... X.) y K = min (X 1... , X n). ncontrar
la di tribucin de probabilidades de M y de K. [lmlicacin: P(M = m) = F(m) - F(m - 1).
"en donde Fe la fda de M.]
13.4. Se obtiene una muestra de tama 5 de una variable aleatoria con distribucin
(12,4).
(a) 'ul es la probabilidad de que el promedill muestra! exceda 13?
(b) Cul es la probabilidad de que el mnimo de la mue tra ea menor que 10?
(e) ,Cul es la probabi lidad de que el m:1x11nn dl 1:1 muestrn cxrcdu 1:'-'!
13.S. La duracin de un artculo (en hora~) est1 distribuida exponencia lmente con par-
metro fl = 0,00 l. e prueban eis artculos y se anotan sus tiempos para fallar.
(a) ;. 'ul es la probabilidad de que ningn articulo falle antes de ue hayan transcurrido
800 horas'!
(b) i. u1 I es la probabilidad de que ningn artculo dure ms de 3000 horas?
13.6. upngase que X tiene distribuci n (. 0,09). Se obtiene una muestra de tamao 25
de X ,. ea X 1. X is-, ul es la probabilidad de que l:f 5 1 X'f exceda LS?
13.7. tilizando una tabla de nmero aleatorios, obtener una mue tra aleatoria de ta-
mao 8 de una variable a leatoria que tiene las distribuciones siguientes:
(a) exp ncncial, con parmetro 2,
(b) x cuadrado con 7 grados de libertad,
(e) (4.4).
13.8. n la seccin 13.5 hemos dado un mtndo con el cual puede generarse una mue trn
aleatoria de una distribucin espccifi ada. Hay muchos mtodos distinto con lo cuales puede
hacer 'e e to. alguno de los cuales pueden preferir. e al dado, especialmente i hay in trumento
de cmputo di poniblcs. Uno de tale mtodos es el siguiente. upnga e que de eamo
tener una mue tra aleatoria de una variable aleatoria ..ue tiene una distribucin de x cuadrado
con 2k grado de libertad. Procederemos como sigue: se obtiene una mue tra aleatoria de
tamano k (con ayuda de la tabla de nmero aleatorio ) de una variable aleatoria que est
di tribuida uniformemente en (0,1), sea ., ... , Ut. Luego calculemo X 1 = -2ln(U 1
U 2 .. t) = - 2!:~ 1 In (U;). La variable aleatoria X 1 tendr entonces la distribucin pedida,
como lo indicaremos a continuacin. Luego, continuando con este esquema, obtenemos
otra muestra de tamao k de una variable aleatoria distribuida uniformemente y encontramos
a i el segundo valor muestra! X 2 te e que este procedimiento necesita k obse,rvacioncs de
una variable aleatoria distribuida uniformemente para cada ob ervacin de xjk Para verificar
la propo icin que e hizo anteriormente procederemos como igue.
(a) btener la funcin generadora de momentos de la variable aleatoria -2 In (U 1), en
donde es distribuida uniformemente en (0, 1).
(b) btener la funcin generadora de momentos de ta variable aleatoria -2l:~= 1 ln(U 1),
en donde las U; son variables aleatorias independientes cada una con la di tribucin anterior.
e compara esta fgm con la de la distribucin x cuadrado y luego se obtiene la conclu in
buscada.
13.9. U ando el esquema bo quejado en el problema 13.8. obtnga e una mue Ira aleato
ria de tamao 3 de la di tribucin xi.
13.10. na variable aleatoria continua X est di tribuida uniformemente en (-j- H
Se obtiene una muestra de tamao 11 de X y se calcula el promedio mue tral X. 'ul es la
desviacin estndar de ?
l'111hhmu' 289

13. 11. Se toman muestras independiente de la mao 10 y 15 de una variable aleat ria
distribui da normalmente con esperanza 20 y varianza 3. Cul es la probabilidad de que el
promedio de la dos muestras se diferencie (en valor absoluto) en ms de 0,3?
13.12. (Para este ejercicio y lo tres siguientes, lea la ob ervacin a l i nal del capi tulo 13.)
Use la tabla de las desviaciones normales (tabla 7 del Apndice) y obtenga una muestra de
tamao 30 de una variable alea toria X que tiene una di tribucin (l. 4). ar esta mue tra
para responder lo sigu iente:
(a) Comparar P(X ;:::; 2) con la frecuenca rela tiva de ese suceso.
(b) Comparar el promedio muestra! X y la varian7.a muestra! S2 con 1 y 4 re pcctivamentc.
(e) 'onstruir un grico de F(1) = P(X :::; 1). sando el mi mo sistema de coordenadas.
obtener el grico de la f1111cin de distribucin emprica F. definida como sigue:

Fn{I) =O si t < xm
= k/n SI X(kl :s; f < X(t+ I)

= 1 si 1 ;;:::: x<1,

en donde xm es la i-sima mayor obser acin en la mue tra (es decir. x<iJ e el e tadgrafo
de i- imo orden). (La uncin F. se usa frecuentemente para aproximar la fda F. Puede de-
mostrarse que bajo cond iciones muy generales lim. "' F.(1) = F(1).]
13.13. Tenga una di tribucin (O, 1). De la tabla 7en el Apndice.obtener una muestra
de tamao 20 de esta distribucin. ca Y = IXI.
(a) U ar esta mue tra para comparar P[I < Y ::;; 2 con la frecuencia relativa de ese
suceso.
(b) 'omparar E( Y) con el promedio muestra 1 Y.
(c) Comparar la fda de Y. F(t) = P(Y ::-:;; 1) con F,, la fda emprica de Y.
13.14. Supngase que X tiene distribuc n (2. 9). Sea X 1 , X 20 una mue tra alea-
toria de X obtenida con ayuda de la tabla 7. alcu lar

2 1 " - 2
S = - - L (X, - X)
n- l1 1

y comparar con E(S 2) = 9.


13.15. Tenga X una distribucin (0.1). ea X, ... , X 30 una muestra alea toria de X
obtenida, usando la tabla 7. a lcu la r P(X 2 ;:::; 0,10) y comparar este valor con la frecuencia
relativa de ese suce o.
14

Estimacin de los parmetros

14.1 Introduccin

n el captulo anterior sugerimos que una muestra de una variable aleatoria X


puede u ar e con el objeto de estimar uno o vario parmetro (de c nocidos)
a ociados con la distribucin de probabilidade de X. n e te captulo considera-
remos en detalle este problema.
A fin de de arrollar un ejemplo e pecfico, consideremo la situacin siguiente.
n fabricante no ha en iado 100.000 pequeos remaches. Un empalme perfecta-
mente remachado nece ita que cada remache ajuste perfectamente en un hueco y
por con iguientc e tendr alguna dificultad cuando el remache lo exceda. Antes
de aceptar e te cargamento, queremos tener alguna idea acerca de la magnitud
de p. la proporcin de remache defectuosos (es decir. lo que exceden el hueco).
y procedemos como sigue. Se inspeccionan /1 remaches escogido al azar en el lote.
Debido al gran tamao del lote, podemos suponer que e cogemo con ustitucin
_aunque realmente no procederamos a . Se definen la iguiente variable aleato-
ria : X;= l, si el i-simo artculo es dcfectuo o, y O de otro modo i = l. 2.... , 11.
Luego podemos considerar que X 1, , X" sea una muestra de la variable aleatoria
X cuya distribucin est dada por P(X = 1) = p, P(X = 0) = 1 - p.
- La di tribucin de probabilidade de X depende del parmetro desconocido p de
una manera muy encilla. ,Podemo usar la muestra Xi. ... , X,. de alguna manera
con el objeto de e timar el valor de p? Hay algn e tadgrafo H tal que
H(X., .... X,,) puede usar c como un estimador (puntual) de p'?
Debera er evidente que una muestra de tamao 11, en donde 11 < 100.000.
nunca puede permitirno reconstruir la verdadera composicin del cargamento
in importar cun hbilmente u emo la informacin obtenida de la muestra.
n otra palabra , a.no ser que in peccionemo cada uno de los artculos (es decir,
tomemos /1 = 100.000) nunca podremos conocer el valor verdadero de p. ( sta
ltima frase se refiere evidentemente a muestreo sin sustitucin.)
Luego, cuando proponemo a pcomo un estimador de p realmente no esperamo
quep ea i ual a p. (Recordamo que pe una variable aleatoria y, por tanto, puede
-toma~cho valores.) te dilema d-;-origen a dos pregunta imp rtante
(1) Qu caracter ticas queremos que posea un buen e timador?
(2) Cmo decidimos que un estimador es mejorn que otro?
290
14.2 Crlt rl@'j pr r Clmdor" 291

Pue to que esta puede er la primera vez que el lector encuentre pregunta de
esta cla e, vale la pena comentar brevemente la naturaleza general de e te problema.
A muchas preguntas matemticas, existe una re pue ta definida. ta puede ser
muy dificil de encontrar, puesto que implica mucho problema tcnicos y debemo
contentarno con una aproximacin. Con todo habitualmente es evidente cuando
tenemo una re pue ta y cuando no. {Por ejemplo, opongamos que nos piden
encontrar una raz real de la ecuacin 3x~ - 4x 2 + l 3x - 7 = O. Una vez que
hemos encontrado una solucin, es muy sencillo verificar si es la correcta: slo
necesitamos sustituirla en la ecuacin dada. Si tenemos dos re puesta aproxima-
das, r 1 y r 2 , e tambin sencillo decidir cul aproximacin e mejor.)
Sin embargo, el problema actual, particularmente la e timacin de p, no admite
un anlisi tan sencillo. En primer lugar pue to que nunca podemos conocer el
valor verdadero de p (en cualquier situacin real al menos), no tiene sentido decir
que nuestra e timacin p es correcta. egundo, si tenemo dos e timaciones
de p llammoslas p1 y p2 , debemo encontrar algn medio para decidir cul es
mejor. sto significa que debemo e: tablecer algn criterio que podamos aplicar
para decidir si una estimacin es preferible a otra.

14.2 Criterios para estimadores

Definiremos ahora algunos concepto importante que nos ayudarn a resolver


el problema ugerido anteriormente.

Definicin. ea X una variable aleatoria con una di tribucin de probabili-


dades que depende de un parmetro de conocido f). Sea X 1 , , X" una
muestra de X y sean x 1 , .. , Xn lo valores mue trale corre pondientes.
Si g(X., . . . , Xn) es una funcin de la muestra que va a ser u ada para
e timar O nos referimos a g como un estimador de O. El valor que toma g,
e decir g(x 1 , , Xn), er mencionado como una estima in de O y habi-
tualmente e e crito como 9 = g(x., ... , Xnl (Ver la observacin siguiente.)
Ob ervacin : en este captulo violaremos una regla que hemos observado muy cuidado a-
mente ha ta ahora : hacer una distincin cuidado a entre una variable aleatoria y su valor.
Es decir, a menudo hablaremos de O,contra la estimacin de O, cuando realmente deberamos
hablar del estimador g(X 1 , . . , X.). Tambin e cribiremo E(O) cuando, realmente. indicamos
E[g(X 1o Xn)J. Sin embargo, en la parte en la cual no tomemos esta libertad eliminaramos
cualquier ambigedad posible.

Definicin. Sea Ouna e timacin del parmetro de conocido 9 asociado con


la distribucin de la variable aleatoria X. Entonce 0 es un estimador inses-
gado (o estimacin in esgada ; ver la observacin anterior) para O i E~= (}
para cualquier e.
Observacin: cualquier e timacin buena debera ser prxima al valor que est e timando.
lnse gadura ignifica principalmente que el valor promedio de la estimacin estar prximo
al valor verdadero del parmetro. Por ejemplo. si el mismo estimador se u a repetidamente y
292 t~~ imacn de h" parm 1n1:. ,.,,2
promediamos esos valores. esperaramos que el promedio uera pr1dmo al valor verdadero
del parmetro. Aunque es deseable que un estimador sea insesgado, puede haber ocasione.~
en !amale podriamos preferir estimadores sesgados (ver m abajo). Es posible (y realmente
e fciQ encontrar m de un estimador in. esgado para un parmetro de conocido. A lin de
hacer una buena eleccin en tales casos pre en tamos el concepto siguiente.

Definicin. ea () una estimacin insesgada de O. Decimos que O e una


estimacin insesoada de parianza mnima de O si para toda las e timaci ne
0"' tales que E(O*) = O, tenemos V({)) ~ V(O*) para cualquier O. E decir,
entre todas la e timacione in e gadas de O, (} tiene la varianza ms pequea.

o 8

JURA 14. I F IGURA 14.2

Observaciones: (a La varianza de una variable ale<1toria mide la variabilidad de la


variable aleatoria respecto a su valor esperado. Por tanto, e intuitivamente atractivo pedir que
un e timador insesgado tenga una varianza pequea, porque as la variable aleatoria tiende a
aproximarse a su promedio, lo cual en el ca o de un estimador inse gado, signilica aproximarse
a l valor verdadero del parmetro. uego i 61 y 02 son dos estimacione de O, cuya dp est
bo quejada en la figura 14. l, po iblemente preferiramos 61 a 02 Ambas estimacione. son in es-
gada , y V(~) < V(0 2).
En el caso de las estimaciones 03 y 04 la dec isin no e tan evidente (figura 14.2) ya que
63 es insesgado mientras que 04 no es. Sin embargo. V(0 3 ) > V(04 ). E to significa que mientras
en promedio 03 e tar prxima a O. su mayor varianza indica que no erian sorprendentes
de viaciones considerable de O. por otra parte }4 tendera a ser algo mayor que O. en promedio
y podra an e tar ms prxima a Oque 03 (ver ligura 14.2.).
(b) xisten tcnicas para encontrar stimaeioncs insesgadas de varianza mnima en general.
Sin embargo no podremos pre entarlas aqu. H;iremos uso de este concepto principalmente
con el objeto de elegir entre dos o nxi e timacio~es inses!ada disponible . s decir, si 01 y 02
son ambas estimaciones insesgadas de O, y si V(IJ 1) < V(0 2 ). prefcririamos 0 1.

Otro criterio para di e rnir entre estimaciones es algo m dificil de formular


y se basa en la igui nte definicin.

Definicin. Sea O una e timacin (basada en una mue tra X 1 X nl del


parmetro O. e dice que Oes una estimacin convergente de O. si

lim Prob 10 - 91> E] = 0 para todo E >O


14.2 ( 'rllerk)Oi P r tlmlldor 29.l

o equi a lcntcmente, si

lim Prob [111 - OI ~ E = 1 para todo E > O.

Observaci0t1es : (a) la definicin establece que una e timacin es convergente si aumenta


el tamao de muestra, j converge en el sentido probabilstico anterior a O. Nuevamente, esta
e una propiedad intuitivamente atractiva que debe poseer una estimacin. Porque dice que
cuando aumenta el tamao de muestra (lo que ignificara, en circunstancias muy razonables,
que e dispone de ms informacin) la estimacin llega a ser mejorn en el sentido indicado.
(b) s relativamente cil verificar si una estimacin es insesgada o no. Tambin es muy
elemental comparar la varianzas de do estimaciones insesgadas. Sin embargo, verificar la
convergencia aplicando la deinicin anterior, no es tan encillo . El teorema siguiente es alguna
veces muy til.

Teorema 14.l. Sea O una estimacin de() ba ada en una muestra de tamao n.
Si lim" E() = O, y si limn ~ V() = O, entonces (j e una estimacin
convergente de O.

Demostracin : usaremos la desigualdad de 'heby hev, ecuacin (7.20). Luego


escribamo :

P[J - OI ~ E] :s; 4E[O -


E
0] 2 = _!2 E[O - E()
E
+ E() - 0] 2

= \_. E{[6 - E(0)] 2 + 2[d - E(B)][E(O) - fJ


E
+ [E() - fJ] 2 }

= _; {VarfJ +O+ [E(O) - O 2 }.


E
uego haciendo que n oo y utilizando la hiptesis del teorema, encontramos
que lim" _ P 8 - OI ~ E] :s; O e igual!lmos as a O.
Obsernacin : si el e timador Oes insesgado. la primera condicin se satisface autom-
ticamente.

Un criterio final que e aplica a menudo para estimar puede formular e como
sigue. uponiendo que X 1 , . X" es una muestra de X y() es un parmetro de co-
nocido. Sea 6 una funcin de (Xi. ... , X").

Definicin. Decimos que 8 es el mejor estimador in esgado de O si:


(a) E() = fJ.
(b) O= l:' .. 1 a1X 1 s decir, /j es una funcin lineal de la muestra.
(c) 110) :S: V(O*), en donde(}* es cualquier otro estimador de O que sati face
las relacione (a) y (b) anteriores.
Posteriormente, con ideraremo un mtodo muy general que nos dar buena
estimacione para un gran nmero de problemas, dado que ellas sati farn uno o
294 Estimcin d lo ' pullm tro 14.3

ms de los criterios anteriores. Antes de hacer e to, con ideraremos sencillamente


algunos e timadore que intuitivamente son muy razonables, y luego verificaremo
precisamente qu tan buenos o qu tan malos son mediante lo criterio anteriore .

14.3 Algunos ejemplo

Lo criterio anteriores de inse gados. varianza mnima, convergencia y lineali-


lidad no dan al meno una pauta para juzgar un e timador. Consideremos ahora
algunos ejemplos.

EmMPLO 14.J. Reconsi.deremos el problema anteri r. Hemo muestreado n


remac:hes y encontrado que la muestra (X 1 . .. , X") produce exactamente k
defectuoso ; es decir, Y = r. . 1 X = k. Debido a nuestras bipte is, Y e una
variable aleatoria distribuida binomialmente.
El e timador intuiti~amente m suge tivo del parmetro p e p = Y/n. la
proporcin de defectuo os encontrado en la mue tra. Apliquemos alguno de los
criterio anteriores para ver qu tan bueno es un estimador p.

E(p) = J:)
L\ 11
=~n(np) = p.

Luego pes un e timador insesgado de p.

V(p) = v(~) = ~ {np)(I - p)


p{ 1 - p)
11

Luego V(p) - O cuando n - co, y por tanto pe e timador convergente. mo lo


hemo ealado anteriormente, puede haber mucho estimadores in esgad para
un parmetro, alguno de los cuales pueden ser muy malos, adem . Por ejemplo,
considerando en el contexto del ejemplo pre ente el estimador p* definido a :
p* = l si el primer artculo elegido e defectuo o, y O en otro ca o. E decir, es
evidente que no es muy buen e timador cuando ob ervamo que u valor e una
funcin slo de X., en vez de Xi. ... , X n Sin embargo, p* e in e gado, porque
E(p*) = IP(X = !) + OP(X = O) = p. La varianza de p es p{! - p). la que se
compara muy mal con la varianza de p considerada anteriorment e. e to es
p{ 1 - p)/n especialmente i n es grande.
1 re ultado obtenido en el ejemplo anterior e un ca o especial de la iguiente
proposicin general.

eorema 14.2. Sea X una variable aleatoria con esperanza fin ita i y varianza
a 2 . Sea X el promedio mue tral, obtenido en una muestra de tamao n.
Luego X es un e timador in e gado y convergente de .

Demostracin : sta e deduce inmediatamente del teorema 13. l donde demos-


tramo que E( X ) = y V(X ) = a 2 /n que tiende a O cuando n _.
14.J

Observacin: que el re ultado demo trado en el ejemplo 14. l e un ca o e pccial del teore-
ma 14.2, se deduce cuando observamo que la proporcin de defectuo o en la mue tra, Y/11,
puede escribir e como ( L/ n){X 1 + + X.), en donde lo X toman lo valores uno y cero.
segn que el artculo in peccionado sea o no defectuo o.

El promedio muestra! citado en el teorema 14.2 e una funcin lineal de la


mue tra. E decir, e de la forma a 1 X 1 + a2 X 2 + + a,,Xn, con a, = = an =
l/11. clmente e ob erva que = i = 1 a1X 1 e un e timador inse gado de
para cualquier eleccin de lo coeficiente que sati facen la condicin :E7 " 1a 1 = l.
Surge la iguiente pregunta interesante. Para qu eleccin de \.o a1 ( ujetos a
:E7 = 1a 1 = l) e m pequea la arianza de :I:f .. 1a,X;? Re ulta que la varianza e
minimizada i a; = l/ n para todo i. decir. X, e el estimador lineal in e gado de
varianza mnima.

Para verificar e to, consideremo

11 = I a 1X 1 I 1= t.
i l ia 1

Luego
n
Var ii. = u2
i 1
ar
pue to que lo X 1 on variable aleatorias independiente con varianza comn u 2 .
E cribimos
n
I al = (a1 - 1/ n) 2 + :t- (a" - l/ 111 2 + (2/ 11Xa 1 + + an) - 11(1 /11 2)
i= 1

= (a 1 - l/n)2 ++(a. - l/ 11) 2 + l/n (pue toque ,t 1


a,= 1)-

Luego esta ex pre in e minimizada e identemente i a1 = l/ n para todo .

EJEMPLO 14.2. Supnga e que T. el tiemp para fallar de una c mponente,


e t di tribuido exponencialmente. s decir. la fdp de Test dada por f(l) = /Je - 111
t ;::: O. Supnga e que probamos n componentes. anotando el momento en que falla
cada una, ean T" .... T,,. Deseamos una e timacin in e gada del tiempo esperado
para fallar E(1) = l / {J, ba ada en la muestra (Ti. .... T,,). Uno de tale e timadores
e f = (l / n) !:7 = 1 'f. Del teorema 14.2 sabemos que E(f) = l / [J. Puc to que V(T) =
l /{J 2 el teorema 13.1 no afirma que V(T) = l / (J 2 11. Sin embargo, fno e el nico
estimador insesgado de 1//!. onsideremo . en efecto, el mnimo de la mue tra.
Z = min ( T1 .. , T,,). De acuerd con el teorema 13.3. nue amente Z e t distri-
buida exponencialmente con parmetro n/J. Luego el e timador nZ tambin e un
e timador in e gado de l /{J.
1-t.3

Para evaluar la varianza calculamos


2 ' 2 1
V(11Z) = n V(Z) = /1 (n/ff = fl 2 .

As. aunqu lo do e limadores 11Z y Tson insesgado . el ltimo tiene una varianza
mil pequea y por tanto debera preferirse.
Sin embargo, en esta situacin especial hay otra con ideracin que p dria
inluir en nuestra eleccin enlre lo dos e timadores sugeridos. Las n componentes
podran probarse simultneamente. (Por ejemp lo, podramos poner 11 bombillas
en /1 portalmparas y anotar el tiempo en que se queman.) Cuando usamo 11Z como
e timador. la prueba puede terminar e tan pronto como la primera comp nente
falle. Al usar Tcomo e timador debemos esperar hasta que todas la componentes
hayan fallado. s muy po ible que transcurra mucho tiempo entre la primera y la
ltima falla. Di indolo de una manera distinta, si Les el tiempo necc ario para
probar los 11 artculo y ca lculamos la e timacin para 1/ ff, u ando nZ, tenemo
L= min (T1, . T,,), mientras que al usar T. tenemos L = max (T1, . , T,,). Luego,
i el tiempo necesario para efectuar la prueba es de cualquier efecto serio (digamo
en trminos de costo). podramos preferir al e timador con mayor varianza.
~JEMPLO 14.3. Suponiendo que se desea un estimador inse gado de la varianza
a 2 de una variable a lea toria, ba ada en una mue Ira X 1, . . . , Xn.
Aunque podramo considerar (l / n) i: 1 (X - X) 2 , resulta que e te estadgrafo
tiene un valor esperado igual a [(n - l)/ n]a 2 . (Ver el teorema 13.4.) Luego un esti-
mador in esgado de a 2 se btiene al tomar

'2
<1 =- 1 L" (X -
-
X) .
2
11 - l j 1

Ob. ervacio11es : (a) Aunque dividir por (11 - 1) en vez de 11 e distinto cuando 11 es relativa-
mente pequeo. para un 11 gnmde la diferencia es pequea cualquiera que sea el estimador que
e use.
(b) l ejemplo 14.3 ilu tra una ituacin muy comn: puede suceder que un estimador ti,
de un parmetro ft, sea se. gado en el sentid o E(fi). = kft; en tal ca o con idcramos simplemente
al nuevo estimador /l/k. que ser insesgado.
(e) Puede demostrarse. aunque no lo haremos aqu, que el estimador anterior de (J 2 es con-
vergente.

JEMPLO 14.4. n la tabla 14.1 reproducimos los datos obtenidos en el fa-


moso experimento realizado por Rutherford [Rutherford y Geiger, Phif. May.
6, 20. 698 (1910) obre la emi in de partculas !l' por una fuente radiactiva.

ABLA 14. l

k o 1 2 3 4 5 6 7 8 9 IO 11 Total
-f--- - - ~ ~ -
111 57 203 383 525 532 408 273 139 49 27 10 6 26 12
14.3

n la tabla, k e el nmero de partcula observada en una unidad de tiempo


(unidad = i minuto), mientra que nk e el nmero de intervalos en los cuales
k partcula fueron ob ervados. Si hacemo que X ea el nmero de partculas
emitida durante el ntervalo de tiempo de i (minuto) de duracin. y uponemo
que X sigue la di tribucin de Poi on, tenemo
e- <118>l(!J.)k
P(X = k) = k!

Puesto que E(X) = !...l.. podemo u ar el promedio mue tral para obtener un
e timador in e gado de k.t Para ;., obtenemo entonce el e timador i = 8X.
Para calcular X implemente evaluamo

!:l 1 o knk .
li = 3,87part1culas.
k =o llk

Por tanto un estimador in e gado de .t basado en el promedio muestral e igual


a 30,96 (que puede interpretarse como el nmero esperado de partculas emiti-
das por minuto).

EJEMPLO 14.5. n la fabricacin de explo ivos pueden ocurrir cierto n-


mero de inlamaciones al azar. ca X el nmero de inlamaciones por da. Su-
poniendo que X tiene una di tribucin de Poisson con parmetro J.. La tabla 14.2
da algunos dato que e an a emplear para la estimacin de A..

TABLA 14.2
mero de inlamaciones, k o 1 2 3 4 5 6 Total

Nmero de dias con k inflamaciones, " 75 90 54 22 6 2 1 250

U ando nuevamente el promedio mue tral para la e timacin de J., obte-


nemo
i
A= - -
I:k knk = l , 22 numero
. . fl amaciones
d e in . por d'1a.
I:k nk
EJ MPLO 14.6. Se ha establecido que el contenido de ceniza en el carbn
e t distribuido normalmente con parmetros y cr 2 . Lo datos de la tabla 14.3
repre entan el contenido de ceniza en 250 mue tras de carbn analizadas. [Dato
obtenidos de . S. Grummcl and A. . Dunningham (1930); Brilish Standards
lnstilution 403, 17.] 11" e el nmero de muestra que tienen un porcentaje x de
ceniza.
A fin de e timar lo parmetro 11 y u 2 , u aremo lo estimadore in e gados
pre entado ante :
L" XII.., 2 1 2
= 250 = 16,998, <I =
249
~ nx(X - ) = 7,1.
2"18 lima in de lo parmelros 14.4

TABLA 14.3
Contenido de cenit.a en el carbn

X 9,25 9,7 5 10,25 10,75 11 ,25 ll ,75 12,25 12, 75 13,25 13,75
1 o 2 l l 2 5 4 7 6
"
X 14,25 14,75 15,25 15,75 16,25 16,75 17,25 17,75 18,25 18,75
llx 13 14 15 13 24 15 19 23 22 12

X 19,25 1975 20,25 20,75 21,25 21 ,75 22,25 22,75 23,25 23,75
11% 12 7 6 8 6 4 2 2 o 3

X 24,25 24,75 25,25


llx o o 1

Total
de muestras 250

Observaci11 : supngase que tenemo un estimador insesgado O, de un par.imetro O. Puede


suceder que e ternos interesado lo en estimar una funcin g(O), de O. [ Por ejemplo, si X e t
distribuida exponencia lmente con parmetro O, posiblemente estaremos intere. ado .en 1/ 0.
es decir,E(X) . Debe.ria supone rse que todo lo que neccsitamo hacer es considerar 1/0 o (0) 2,
por ejemplo, como el e timador insesgado apropiado de 1/0 o (1:1) 2 nfticamente esto no es
as. En realidad, una de la desventajas del criterio de inse gamiento e que i hemos encontrado
un e timador insesgado de O, en general debemos partir del comienzo para encontrar una
estimacin para g(O). Slo si g(O) = aO + b, es decir, si g e una funcin lineal de O. e cierto
que E[g(O)] = g[E(tJ)]. n general, E(g(O)] 'f. g[E(O)]. Supnga e por ejemplo. que X es una
variable aleatoria con E(X) = y V(X) = o 2 Hemos vi to que el promedio muestra! X es un
est imador in e gado de . X2 un estimador insesgado de () 2? La re puesta es no como
lo indica el clculo siguiente. Puesto que V(X) = E(X) 2 - (E(X)}2. tenemos

E(X) 2 = V(X) + (E(X)) 2 = 2


0 / 11 + () 2 =F () 2
Aunque los ejemplos anteriores demuestran muy convincentemente, que en general

E[g(Ol] # g[E(O)],

resu lta que en muchos casos la igualdad e vlida. aproximadamente al menos, especialmente
si el tamao de muestra es grande. A , en el ejemplo anterior encontramos que E(X) =
=
y E(X) 2 = l + cr 2 /n, [con 8 X y g(z) = z2], que aproximadamen te es igual a 2 si n es
grande.

14.4 Estimadores de mxima verosimilitud

Slo hemos con iderado ciertos criterios con lo cuale podemo j uzgar un es-
timador. Es decir, conocido un estimador que se propone para un parmetro de -
conocido, podemos verificar si es insesgado y convergente, y podemos calcular
14.4 Eslimadon: de mbl.~I! t 1;11.Jlll,llllud 2W

(al menos en principio) su varianza y compararla con la varianza de otro e tima-


dor. Sin embargo, no tenemo an un P-rocedimiento general con el cual poda-
mo encontrar un estimador razonable;. Varios de tales procedimiento exis-
ten, y expondremo uno de ellos, llamado el mtodo de la mxima verosimilitud.
En muchos ca o e te mtodo da estimadore razonables.
A fin de evitar la repeticin de nuestra expo icin para el caso discreto y el
continuo, convengamo en la terminologa siguiente para lo propsitos de la
exposicin pre ente.
cribiremos f(x ; 8) tant para la fdp de X (calculada en x) como para
P(X = x) i X es di creta. Incluimo O (en la notacin} a fin de acordarno que
la distribucin de robabilidade de X depende del parmetro O en el cual esta-
mos interesado .
Sea X i. .. . , X. una muestra aleatoria de la variable aleatoria X y ean
xi, ... , x. los valores muestrale . efinamos la funcin de probabilidad L como
la iguiente funcin de la muestra y de O.
L(X 1, . . . X. ; O) = f(X 1; fJ)f(X z; O) f(X.; O). ( 14.1)
i X es di creta, L(x 1 , , x. ; O} representa P[X 1 = xi. .. . , X. = x.] mien-
tra que si X e continua, L(x., . .. , x.; O) representa la fdpconjunta de (X" . .. , X.).
Si se ha obtenido la mue tra (X" ... , X.), los valore mue trales (x., ... , x.)
son conocido . Puesto que O e de conocido, podramos hacerno la siguiente
pregunta. Para qu valor de O er mayor L(xi. . . . , x.; fJ}? Poniendo distinta-
mente, supongamos que tenemos do valores de O, ean 8 1 y 02 Supongamos
adems que L(xi. .. . , x. ; 0 1) < L(xi. . .. , x.; 0 2). Preferiramos entonces 02 a 8 1
para lo valores muestrales dados (X, . .. , x.). Porque, si 0 2 es realmente el
valor verdadero de O, entonce la probabilidad de obtener valores mue trales
tale como los que tenamos es mayor que si 0 1 fuese el valor verdadero de O.
Informalmente, preferimo el valor del parmetro que hace tan probable como
,_ea po ible que el uceso en realidad ocurri. E decir, descamo elegir el valor
m probable de O despus de obtener los datos, oponiendo que cada valor de O
fue e igualmente posible antes que los datos fuesen obtenidos. Hagamos la si-
guiente definicin formal.

Definicin. El e timador de mxima verosimilitud de 8, llamado 8, ba ado


e
en una muestra aleatoria X 1 , , X'lt es el valor de que maximiza a
L(X 1, . . . , X. ; fJ), considerando como una funcin de O para una muestra
dada Xi. . . . , X"' en donde L est definida por la ecuacin (14.1). (Este
habitualmente se designa como el e timador ML.)
Observacione : (a) Oser naturalmente un estadgrafo y por tanto una variable aleatoria
oon
pue to que su valor depender de la muestra (X 1 , , X.). (No ideraremos como solucin
una con lante.)
(b) n la mayor parte de nuestros ejemplo fJ repre enlar un solo nmero real. Sin embargo,
puede suceder que la distribucin de probabilidades de X dependa de dos o ms valores para-
mtricos (como se hace en la distribucin normal, por ejemplo). En tal caso 8 puede representar
un vector, (} = (a, {J) o 8 = (a, p, y), etc.
300 F tima illn de los p1mmelru~ 14.4

(e) A fin de encontrar el e timador M L debemo. determinar el valor mximo de una funcin.
As, en muchos problemas podemos aplicar algunas de la tcnicas estndar del clculo para
encontrar este mximo. Pue to que In x es una funcin crecie11le de x. '

lnL(X1 .. . ,X.;0)

obtendr u valor mximo para el mismo valor de O que lo obtendr L(X 1 X. ; 0). Luego
bajo condicione muy generales, suponiendo que O es un nmero real y que UX 1.. x.: O)
e una funcin difcrenciable de O, podemo obtener el e timador ML Oal re olver lo que se
conoce como la et11acin de uerosimiliwd.

a
aO In L(X 1, . , X.- O) = O (14.2)

i O = (a, {J). la ecuacin anterior debe sustituirse por las ecuaciones de probabilidad simul-
tneas

(14.3)

a
il{ In L(X . . .. X 0 ; -x, fJ) = O.
1
Nuevamente e in istir en que el enfoque anterior no siempre es til. Sin
embargo, en un gran nmero de ejemplos importante (algunos de lo cuate
pre entaremo brevemente) e te mtodo proporciona el e timador M L pedido
con relativa facilidad.
Propiedades de lo eslimadores de mxima verosimilitud:
(a) El estimador ML puede er esgado. Muy a menudo tal se go puede evi-
tar e multiplicando por una con tante apropiada.
(b) Bajo condiciones muy generale , los estimadores ML son convergentes.
Es decir, si lo tamaos de mue tra obre los cuale se basan e grande. el e ti-
mador ML e tar prximo al valor del parmetro que e e tima. (Los estima-
dore ML poseen otra propiedad muy importante, la propiedad del gran ta-
mao de muestra que e expondr posteriormente.)
(c) Lo estimadores ML po een la muy importante propiedad de invarianza.
Supnga e que (} es el e timador ML de (}. Puede demo trarse que el e timador
ML de g(O) es g(O). E decir, i el estadstico A toma us medida en pe 2 y el e -
tad tico B mide en pie y i el estimador ML de A es O, entonces el de B era
O. Recordamo que e ta propiedad no la tienen lo estimadore in e gados.
onsideraremo ahora ciertas aplicacione importante de los e tmadores ML.

EJEMPLO 14.7. Suponiendo que el tiempo para fallar T, de una componen-


te tiene una distribucin exponencial con parmetro [J. La fdp de T por lo tanto
est dada por
f(t) = fJe - fl, t ~O.
14.4 E timadores de m xlm11 ~trO\imllltud .101

upnga e que se prueban n de tales componente , dando lo tiemp s de falla


T 1, . , Tn.
La funcin de vero imilitud de esta muestra por lo tanto est dada por

Luego 1n L = t1 l n {J - {J 1:~. 1 T ;. Por tanto.

In L t1
-=-- L:n y. y ~= 0
iJ/J fJ 1 r a11
da fl = 1/ T donde T es el promedio muestra! de los tiempo de falla. Pue to que
el valor esperado de T. el tiempo promedio para fallar, e t dado por 1//J, usando
la propiedad de invarianza de los estimadore ML, encontramos que el e ti-
mador ML de E(T) e t dado por T , el promedio mue tral. abemos que E(T)
l /{J y por tanto f , el e timador ML de E(T), es in e gado.

Observacin : en general, no e fcil encontrar la di tribucin de probabilidades de los esti-


madore ML, e pccialmente si el tamao de muestra es pequeo. (Sin es grande, encontraremos
que e po ible una solucin general.) Sin embargo, en el ejemplo actual podemos obtener la
di tribucin de lo e timadores ML. Del corolario del teorema 10.9 cocontramo ' que 211/lf
tiene distribucin Xln Luego P(T :S: 1) = P(2nPT ~ 211/31). Esta probabilidad se lee directa-
mente de la tabla de la distribucin de X cuadrado si n, {J, y r son conocidos.

JeMPLO 14.8. Se sabe que cierta proporcin (fija), p, de detonantes, es de-


fectuo a. e una gran partida, e eligen n al azar y e prueban. efinamos las
variable aleatorias siguiente .

X 1 = 1 si el i- imo detonante es defectuo o y O en otro caso, i = 1, 2, ... , n


Por tanto (X., . .. , X n) e una muestra aleatoria de la variable aleatoria X que
tiene la di tribucin de probabilidades P(X = O) = f(O ; p) = 1 - p, P(X = 1) =
/(1 ; p) = p. decir, f(x , p) = p (1 - p) 1 -~. x = O, 1. Luego

en donde k = Lf"' 1 Xi = nmero total de defectuosos. Luego 1n L(X I . ' X n; p)


= k In p + (n - k)ln (1 - p). Por tanto

iJ lnL k n- k k n- k
- - = - + - - ( - !) = - - - .
i)p p 1- p p 1- p

Si k = O o n encontramos directamente, al con iderar la exprc in de L. qoe el


valor mximo de L e obtiene cuando p = O J. respectivamente. Para k # O
o
o 11, ha cerno 1n L/a p = O y encontramos corno solucin jJ = k/ n = X. el pro-
302 E timacio de los parmetros 14.4

medio muestra!. Luego nuevamente encontramos que el e timador ML da un


estimador in esgado del parmetro buscado.
EJ MPLO 14.9. Supnga e que la variable aleatoria X e t distribuida nor-
malmente con e peranza y varianza l. Es decir, la fdp de X e t dada por

/( X ) -- -1- e - (1 / 2)(:c - J)2


.
2n
S (X 1 . , X,,) e una muestra aleatoria de X la funcin de vero militud de
la mue tra e

1 exp [ - l[ ;~
L(X , , ... , X.;) = ( n)"' 2
2
n
(X 1 - )
2 J

Por lo tanto
= - -2n In (21t) - l n
L: 1) 2
oIn L "
In L -
2; = 1
(X 1 - y -- =
o ,..L:. (X, - ).

Luego ato L/o = o da = X, el promedio mue tral.


EJEMPLO 14.10. Hasta ahora hemo considerado situaciones en la cuales
pudimo encontrar el valor mximo de L al derivar simplemente L(o ln L) con
re pecto al parmetro y hacer esta derivada igual a cero. Que esto no iempre
e efectivo, se ilustra con el ejemplo siguiente.
Supnga e que la ariable aleatoria X e t di tribuida uniformemente en el
intervalo [O, ex] en donde ex es un parmetro de conocido. La fdp de X e t dada
por
f (x) = l/ cx, O 5 x 5 ex,
= O, para cualquier otro valor.
Si (X 1 , , X,,) es una mue tra de X, su funcin de vero imilitud est dada por

L(Xi. .. . , X,,;cx) = (1 /cx)", O!",; X; 5 ex para.todo i,


= O, para cualquier otro valor.
on iderando L como una funcin de ex para (X 1 , . . . , X,,) dada, e ob erva que
debemo tener ~ X 1 para todo i a fin de que L sea di tinta de cero. to e equi-
valente a pedir que ex :2:: max(X., ... , X,,). Luego, si dibujamo L como una
funcin de a obtenemos el grJco que e muestra en la figura 14.3. De este gr-
lico, es inmediatamente evidente qu valor de ex maximiza L, e decir
a=max(X 1 , . X,,).

studemos algunas propiedade de este estimador. Del teorema 13.2 obtenemos


a:
la fdp de g() = n[F(a)] - 1 f(a). Pero F(x) = x/a, O ;::;; x ;::;; et y f(x) estn dado
anteriormente. Luego obtenemos

. []n-1 (1)-
g(o:) = n - n(ii),,-
= - -,
1
ex a ex"
14.4 Estimadores de mblm11 ~,rolm lltud 303

L(Xi. .. . , X,,, u)

max (X1. ... X,,)

FIGURA 14.3

Para encontrar E(a) calculamos

Luego ano es un estimador in esgado de a; tiende a sube limarn o:. S queremo


un estimador nsesgado, podemos usar

n + l
o:= - - max (X 1 . . , X,,).
n

Observemos que aunque E(a) # o: tenemos que lim. ..,E(a) = ix. As, para veri-
ficar la convergencia debemos demostrar an que V(&) O cuando n -+ . (Ver
el teorema 14. l.) Debemos calcular E(a)2 ;
1
E(a) 2 = f" (a) 2g(&) d2 = 2
(a)2 ri(a): - da
Jo Jo a
n (~)'1 +21 n 2
=!Xn 11+20 =n + 2.
Luego
V(a) = E(a)2 - (E(a))z = _ n_ az _
n+2
[-n
+
n
-a.] 1
2
= a2 [
(n
n
+ 2)(n + 1)2
] .

Luego V(&) -+ O cuando n --+ y por tanto ta convergencia est demostrada.


EJEMPLO 14.l J. 'onsideremos un ejemplo en el cual los dos parmetros
(ambos desconocidos) especifican la distribucin. Supngase que X tiene distri-
bucin N(, q 2 ). Luego la fdp de X es

! [~] ) .
2

f(x) = l exp ( -
2n q 2 O'
304 Estimacin de los parmetros 14.4

Si (X 1 . Xn) es una muestra de X , u funcin de verosimilitud est dada por

L(X l> .. ' Xn; ,a) = (21t0' 2


)- "
12
exp {- ~ i~I [X;: T}.
Luego
ln L = ( - -") In (2na 2 )
2
- -1
2i=I
(X. - )2
.L" - ' -
O"

Debemos resolver simultneamente

o ln L =O y o In L= O
Tenemos
a .
aln L ~ (X; - ) _ O
-a;- = i;-1 u2 - '

lo que da = X, el promedio muestra!. Y

olnL= - ~+ ': (X; ~ ) 2


= O,
00' a i t a
que da
~2 J n 2 1 n - 2
(/ = - L (X - ) =- L (X, - X) .
n i=i ni =

Ob erve que el mtodo ML produce un estimador sesgado de a 2 , puesto que


ya hemos vi to que un estimador in esgado es de la forma l/(n - l)L'. 1 (X; - X')2.

EJ MPLO 14.12. Anteriormente consideramo (Ejemplo 14.7) el problema de


e timar el parmetro P en una ley exponencial de falla, al probar n artculos y
anotar u tiempo de falla, T., ... , T n Otro mtodo podra ser el siguiente.
Supnga e que sacamos n artculo , los probamo , y de pus que ha transcurri-
do cierto tiempo, T 0 horas, sencillamente con tamo el nmero X de artculos
que han fallado. Nue tra muestra consiste en X" ... , X"' en donde X 1 = 1 si
el i- mo artculo ha fallado en el perodo e pecificado, y O de otra manera.
Luego la funcin de verosimilitud de la muestra es

en donde k = :Ef= 1 X 1 = nmero de artculo que han fallado y p = Prob (el


artculo falla). Ahora p es una funcin del parmetro que se est estimando; es
decir,
p = P(T:::;; To) = 1 - e - flTo.

Utilizando el resultado del ejemplo 14.8, encontramos que el e timador ML


de p es p= k/ n. Aplicando la propiedad de invarianza del estimador ML (ob-
14.4 Estimador s de m. hn11 ~ o~lmllllud 30!5

er ando que p es una runcin creciente de /J), obtenemo el estimador M L de


{J sencillamente a l resolver la ecuacin 1 - e - fiTo = k/n. Un clculo cil da
1
P= - -T tn(!!....=...!5.).
0n

o, para la estimacin de I/{J el promedio de tiempo para fallar,

(~) = In (~~ k)/n].


0

n todo lo ejemplo pre entado , el mtodo ML da ecuaciones que eran


relativamente encilla de .re olver. No es lo mi mo en muchos problemas y a
menudo debemo recurrir a mtodo numrico (apro imado ) a fin de obtener
1 e timadore . 1 ejemplo iguiente ilu tra tale dificultarle .

EJEMPL 14.13. orno ya lo ob ervamos, la di tribucin ama tiene apli-


cacione importantes para probar la duracin. Supongamo por ejemplo. que
el tiempo para fallar de un generador elctrico tiene una duracin X cuya fdp
est dada por
A.'x' - 1 -
f (x) = r(r} e ' X~ O,

en donde r y A. son do parmetros positivos que de camo e timar. upngase


que e posible una muestra (X i. . . . X n) de X. ( s decir, e han probado n ge-
nerad re y anotado u tiempos para fallar.) La funcin de vero imilitud de
la mue tra e
L(X X . A. ) = (A.)"'(ni'.. 1X1Y- 1 exp ( - l 7=1 X)
., - - ., '" ',. r(r)]" '

In L = nr In A. + (r - 1) L" ln X - ..l L" X - 11 In r(r).


i=J l= I

Luego debemo re olver simultneamente, o ln L/oJ,. = O y o In L/ ar = O.


Esas cuacione llegan a er
oln L
-- = - - L
nr "
X = O,
i)). A I

0 ~n L =
vr
11 l n A. + E l n X; -
1= 1
n r'(r)) = O.
r(r

Luego o l n L/aA. = O da directamente i = r/ X. Por tanto , de pu de u tituir A.


o
por l, encontramos que 1n L/or = O da
r '(r) - 1 n
l n r - - - = 1n X - - L l n X 1
r(r) ll i=I

E evidente que debemo re olver la ecuacin anterior para r, obtener ; , y


luego l = r/X. Afortunadamente la runcin f'(r)fr(r) ha sido tabulada. Un m-
306 Estimacin de los parmetros 14.4

todo muy rpido para obtener las soluciones pedidas ha sido presentado en un
artculo por D.G. Chapman (Annals of Mathematical Statistic, 27, 498-506, 1956).
Este ejemplo muestra que la solucin de las ecuaciones de vero imilitud puede
conducir a dificultades matemtica considerables.
Como lo hemos mencionado anteriormente, los estimadores ML poseen otra
propiedad que los hace muy apreciados, especialmente si las e timaciones se
hacen en una muestra muy grande.
Propiedad asinttica de los ~timadores de mxima verosimilitud. Si es un e
estimador ML para el parmetro fJ, definido sobre una muestra aleatoria X , ... ,
X. de una variable aleatoria X , entonces paran suficientemente grande, la varia-
ble aleatoria 6 tiene aproximadamente la distribucin

N((J~) B= nE[:91nf(X;fJ) 2
en donde ; (14.4)

aqu f es la funcin d~ probabilidad puntual o fdp de X , dependiendo i X es


discreta o continua y en donde fJ e upone que es un nmero real.
Observaciones: (a) La propiedad anterior, por cierto, es mucho ms fuerte que la pro-
piedad de convergencja que hemos mencionado antes. La convergencia expre a que si n es sufi-
cientemente grande, 8 es151r prximo a 8. Ahora esa propiedad no describe cu l es la con-
ducta probabilistca de 8 para una n grande.
(b) No demostraremos esta afirmacin, sino que simplemente ilustraremos su uso con
un ejemplo.

ErnMPLO Reconsideremo el ejemplo 14.7. Encontramos que P= l /T


14.14.
es el estimador ML de /3. La fdp de T fue dada por f(t; P> = pe - P1, t > O. La pro-
piedad anterior nos dice que si n es suficientemente grande, j = l/ f tiene apro-
ximadamente la distribucin N({J, 1/B), en donde B est dado por la ecuacin
(14.4).
Para encontrar B, consideremos lnf(T ; (3) = ln {J - {JT. Luego

(o/ofJ) tnf(T ; fJ) = (t/ {J) - T.


Por tanto
o . ] 2
_
fJ12 2T
7f + T 2.
[ ap ln f(T , {3) - -

Pue to que
E(T) = l/ {J y E(T 2 ) = V(T) + [E(T)] 2 = 1//3 2 + 1/ {3 2 = 2/{3 2 ,
tenemo
2
1 2 l
E[
i)
ap ln f(T; {J)
]
= 11 2 - ji+ p22
p l
= pi
P
Luego encontramos que tiene aproximadamente la distribucin N({J, {3 2 / n), para
un n grande. (Esto verifica la propiedad de convergencia del e timador puesto
que {3 2 / n -+ O cuando n -. oo.)
14.5

TABLA 14.4

X (altura, m) Y (temperatura, C) X (altura m) Y(tempcratura. C)

1142 13 1008 13
1742 7 208 113
280 14 439 14
437 16 1471 14
678 13 482 18
1002 11 673 13
1543 4 407 16
1002 9 1290 7
1103 . 5 1609 6
475 11 910 9

. 1049
566
995
10
15
10
1277
410
1
14

14.5 El mtodo de los mnimos cuadrados


EJEMPLO 14.15. Estamo familiarizados con el hecho de que la temperatu-
ra del aire di minuye con la altura del lugar. Los dato dado en la tabla 14.4 y
el diagrama de disper in asociado (grfico de puntos) (figura 14.4) lo refuerzan.
El grfico de puntos no slo indica que la temperatura Y disminuye con la al-
tura X, sino que una relacin lineal es evidente.
Las observacione representan la altura (metro ) y la temperatura (grados
centgrado ) en la primera horas de la maana en cierto nmero de pue tos de
ob ervacin en Suiza. Lo datos provienen del bservatorio Basel-St. Marga-
rathen.
'ul e un modelo razonable para los datos anteriores? Supondremos que
Y es una variable aleatoria cuyo valor depende, entre otra cosas, del valor de X .
Supondremo , e pecficamente, que

Y = a.X+ p +E,
y










FIGURA 14.4
X
308 tima In de los parmelro~ 14.5

en donde a y fJ son con tante (desconocidas), X es la altura (c nocida) de de


la cual e mide Y, y E e una variable aleatoria. El anlisis de este modelo lineal
depende de las hiptesis que hagamos acer1.:a de la variable aleatoria E. (E encial-
mente decimo que la temperatura es un resultado aleatorio cuyo valor puede
descomponerse e trictamente en una componente aleatoria ms un trmino que
depende de la altura X de una manera lineal.) La hipte is que haremo acerca
de E e la siguiente:
E(E) = O; V(t) = a2 para todo X.

E decir, el valor esperado y la variancia de E no dependen del valor de X. Luego


E( Y} = aX + f3 y V( Y} = u 2 Observemos que el modelo que hemos e tableci-
do depende de los tre parmetro a, f3 y a 2 No podemos u ar el mtodo de la
mxima verosimilitud para estimar esos parmetros a no er que hagamos ms
hiptesi acerca de la distribucin de t . Nada se ha supue to acerca de la dis-
tribucin de la variable aleatoria E; slo e formul una hiptesis acerca de u
valor esperado y su varianza. (Posteriormente mencionaremos una modificacin
de este modelo.}
Antes de e tablecer cmo estimar lo parmetros respectivos, digamos unas
poca paJ.ilbras acerca del significado de una muestra aleatoria en el contexto
pre ente. Supongamos que se e cogen n valore de X, x., ... , x". (Recorderno
otra vez que aqu X no e una variable aleatoria.} Para cada x;, ea Y; una ob-
servacin independiente de la variable aleatoria Y de crita anteriormente. Por
tanto (xi, Y 1 ), , (xn, Y n) puede ser considerada como una muestra aleatoria
de la variable aleatoria Y para los valores (x 1, ... , Xn) de X dado~
Defmicin. upngase que tenemos E( Y) = aX + [3, en donde a, fJ y X on
como e expre anteriormente. Sea (xi. Y 1) , (x", Y,,) una mue tra alea-
toria de Y. o estimadores de cuadrados mnimos de a y f3 son los valore
er: y fJ que minimizan

L" [Y; - ( X;+ /3)] 2


i= !

Observacin: la interpretacin del criterio anterior es muy evidente. (Ver la figura 14.5.)
Para cada par (x,, Y1) calculamos la discrepancia entre Y,, el valor observado, y ax 1 + fl, el valor
perado. Puesto que slo estamos interesados en la magnitud de esta discrepancia elevamos
al cuadrado y sumamos todos los puntos de muestra. La lnea buscada es aquella para la cual
esta urna e ms pequea.
E(Y)
A fin de obtener los estimadores pedido para
a. y /J procedemos como sigue. ea S(a, /J) = ,. 1
[Y - (a.X; + {J}]1. Para minimizar S(a., /J}, debemos
re olver las ecuaciones

as= 0 y
iJS
iJ[J =O.
FIGURA 14.5
14.S El mtodo de IO!i 111lnln10 u1drados JO'J

Derivando S respecto a ex y a {J, obtenemos


as = L"
- 2[Y; - (exx; + /J)](-x,) = -2 L:" [x; Y; - axl - /Jx;],
aa I l I= 1

as n n
- = L: 2[Y1 -(exx; + {J)]{ - 1) = -2 L: [Y; - cxx; - /J].
a{J i= I i= I

Luego asaex = Oy asap = O pueden e cribirse, respectivamente, como sigue:


n n
ex L: xl. + fJ L: ; = L: x;Y;, (14.5)
i !!!l l i= I i= 1

n n
a L X1 + n/J = L: Y;. (14.6)
i= 1 /a l

Tenemos as do ecuacione lineales en las incgnitas ex y /J. La o lucin


puede obtenerse de la manera corriente, o por una eliminacin directa o u ando
determinante . enotando la olucione por y j, encontramos fcilmente que a
L7 1 y ;(X - X) 1 n

ex = '<"" ( X v\2 '


en donde X= - LX, (14.7)
L. . - XJ n ;.
- l n
J = y - ax, en donde y =-
n
L Y;.
i ;c t
(14.8)

La oluciones anteriore on nica y iempre se obtienen dado que

(x, - x) 2 # o.
i= I

E ta condicin, in embargo, se satisface cada vez que todos lo x 1 no son iguales.


1 estimador del parmetro u 2 no puede obtener e por los mtodos ante-
riores. tablezcamos simplemente que el estimador corriente de u 2 , mediante
lo e timadores de mnimos cuadrados y i, e
2 l n A 2
u = - - L:[Y;-(CXX+p).
n - 2; .. 1
Observaciones: (a) a es evidentemente una funcin li11eal de los valore muestrales
Y., .. . ,Y.
(b) j tambin es una funcin lineal de Y1 , , Y. como lo indica el clculo iguientc:

P=Y- ax
1 n - 111

= - L Y - x zL (xi - i)Y
llr s 1 ~r . 1(X;-X) i I


=L:Y J _
1 -- x
(X - X) J .
1 n r. 1(x1 - x) 2
(c) E un ejercicio sencillo demostrar que E(a) = a y que E(Pl = /J. (Ver el problema 14.34.)
As, ay i son ambo estimadore in esgados.
14.6

a
(d) La~ Vllrianzas de y f) tambin e pueden calcular fcilmente. (Ver el problema 14.35.)
Tenemos
V(a) -- ..... (
al
-2
L,i IX - X

V(/J) = - + [1 X- 2
n l:i= 1(x1 - x)
z
J"2
(14.9)
ap
(e) Los estimadores y son realmente los mejores estimadores lineales in sesgados de a y p.
Es decir, entre todo los estimadore insesgados lineales, stos tienen la varianza mnima.
ste es un caso especial del teorema general de GaussMarkoff, que establece que bajo ciertas
condiciones los estimadores de cuadrados minimos y lo mejores estimadores lineales inses-
gados son sempre lo mismo .
(O El mtodo de los cuadrados mnimos puede aplicar e a modelos no lineales. Por ejemplo,
si E(Y) = aX 2 + {JX +y, podemo estimar a. {J y y de modo que
n

L [Y; - (axt +ax;+ y)] 2


i I
e minimiz.ada.
(g) Si hacemo la hiptesis adicional de que la variable aleatoria E tiene distribucin
N(O, o 2 ). podemo aplicar el mtodo de la maxima verosimilitud para estimar los parmetros
a y p. Esos estimadores on lo mismo que los e timadores de cuadrados mnimos obtenidos
anteriormente. ( to no siempre es cierto, es una consecuencia de la hiptesis de normalidad.)

EJEMPLO 14. l6. ste ejemplo e presentado por Y. V. Linnik en Metlzod of


Least Squares and Prin iple of the Tlieory of Observations, Pergamon Prcss,
New York, 1961. Lo dato de este ejemplo fueron obtenidos por Mendeljev
y pre entados en Foundations of Chemistry. (Ver la tabla 14.5.) Relacionan la
solubilidad de nitrato de sodio ( aN0 3 ) con la temperatura del agua (" ). A
la temperatura indicada, las Y partes de NaNOl se disuelven en 100 parte de
agua. Grafcando e o dato e obtiene el diagrama de disper in que e mue Ira
en la figura 14.6. T

TAB A 14.5

T y T y

o 66,7 29 92,9
4 71,0 36 99,4
10 76,3 51 113,6
15 80,6 68 125,I
21 85,7

Este ugiere un modelo de la forma E(Y) = bT +a. Usando el mtodo de


los cuadrado mnimo bosquejado anteriormente, encontramos que b = 0.87
Y a= 67,5.

14.6 El coeficiente de correlacin


n la seccin anterior estuvimo interesado en pares de valore (X, Y), pero.
como lo hemo ealado repetidamente. X no iba a er considerada como una
14.7 hit nak;o; lk conl 11111 11

variable alealoria. Sin embargo, hay variable aleatoria bidimen ionales (X, Y)
que dan origen a una mue tra aleatoria (X., Y.), .. . , (X., Y.). Uno de los par-
metro ms importante a ociado con una variable aleatoria bidimensional es
el coeficiente de correlacin p,,,,.

TABLA 14.6

X(velocidad, km/seg) 11,93 11,8 1 11,48 l0,49 10,13 8,87

Y(altura, km) 62S6 57,78 53,10 48,6 1 44,38 40,57

El e timador que se acostumbra u ar para p es el coeficiente de correlacin mues-


tra/, definido como igue:

Ntese que para prop itos computacionale , es ms fcil calcular r como


sigue:

r=

EJEMPLO 14.17. Lo dato anolados en la tabla 14.6 repre entan la velocidad


(km/ eg) y la altura (km) de la e trella fugaz nm. 1242 como e inform en la
Smith onian 'ontributions to A trophysics en el Proceedings of the Symposium
on Astronomy and Physic of Meteors. Cambridge, Mass., ago to 28-septiem-
bre 1 1961. Un clculo directo da r = 0,94.

14.7 Intervalos de confianza

Hasta ahora slo nos hemos intere ado por la obtencin de un estimador
puntual para un parmetro desconocido. Como lo in inuamos al comienzo de
este captulo, exi te otro enfoque que conduce a menudo a resultados muy sig-
nificativos.
Supngase que X tiene di tribucin N(, a 2 ), donde u 2 e supone conocido,
mientra que e el parmetro desconocido. Sea X 1> , X. una muestra alea-
toria de X y ea X el promedio muestra!.
Sabemos que X tiene di tribucin N(, a 2 /n). Por tanto Z = [(X - )/a] n
tiene una distribucin N(O, 1.) Ntese que aunque Z depende de , su distribu-
cin de probabilidades no. Podemos usar este hecho a nue tra conveniencia
como sigue.
14.7

'onsiderar

2<I>(z) - l = P ( - z ~ !.._; n ::;; z)


= P( - -!fn - X ~ - ~ + z: -x)
- za
=P ( X--:;,~~X+Tn_
- za)

ta ltima propo icin probabil tica debe interpretar e muy cuidadosamente.


No significa que la probabilidad que el parmetro caiga en el intervalo men-
cionado sea igual a 2<1>(z) - 1; es un parmetro y est o no en el intervalo an-

IG RA )4.7

terior. n u lugar, lo anterior debera ser interpretado como sigue: 2<ll(z) - l


e igual a la probabilidad que el intervalo aleatorio (X - za/ 11, X + za/ n
contenga a . A tal intervalo se le llama intervalo de confianza para el parmetro
~ Pue toque z queda a nuestro criterio, podemos elegirlo de modo que la pro-
babilidad anterior sea igual a l - et. Por tanto z est definida por la relacin
<l>(z) = l - a/2. se valor de z, denotado por K 1 _ ,,_12 , puede obtener e de las
tablas de la distribucin normal. (Ver tambin la figura 14.7.) Es decir, tenemos
<I>(K 1 - ..12) = 1 - a/2.
Para resumir: el intervalo (X - n 112<TK i - ..12 , X+ n - 12 aK 1 ,.12 ) es un in-
tervalo de confianza para el parmetro con coeficie11te de confianza (1 - ),
o un (1 - et) 100 por ciento de intervalo de confianza.
Supnga e que X representa la duracin de una peza de un equipo. Supn-
gase que se probaron 100 piezas, que dieron una duracin promedio de X = 501,2
horas. Se sabe que a es 4 horas y que deseamos tener un intervalo del 95 por cien-
to de confianza para . ncontramo por tanto el iguiente intervalo de confianza
para = E(X):

501.2 - -to( 1.96), 501,2 + -Ai< 1.96), llega a er (500.4; 502.0)

Nuevamente es til un comentario. Al establecer que (500,4; 502,0) es un intervalo


de 95 por ciento de confianza para . no estamos diciendo que el 95 por ciento
de las veces el promedio muestra! 4uedar en ese intervalo. La prxima vez que
saquemo una mue tra aleatoria. X ser po iblemente di tinto. y por tanto los
extremos del intervalo de confianza :cn n diferente.. E tamo diciendo que el
lJ5 por ciento de la s veces 11 e tar contenido en el intervalo (X - l.96u/, / n. X +
14.8 L11 di lrlbm 111 1 de Sludenl 30

l,96u/ n . 'uando hacemos la afirmacin de que 500,4 < 11 < 502,0 sencilla-
mente estamo adoptando el criterio de creer que algo es a i cuando sabemos
que es verdadero la mayor parte del tiempo.

Obser11acin : el intervalo de confianza construido no es nioo. Precisamente hay tantos


como estimadores {puntuales) del parmetro, as que podemos construir muchos intervaloo
de confianza. Aunque no discutiremos el problema de lo que podramos designar por un n-
tervalo de confianza mejorn, establezcamos sin embargo un hecho obvio. Si se comparan
dos ioterva!os de confianza que lienen el mismo coeficiente, preferiramos el que tiene menos
longitud.
La longitud L del intervalo de C(Onfianza considerado anteriormente puede escribirse
como
L = (X + n - 12 uK 1 - .n ) - (X - ,.- 112 1TK 1 - . 12) = 2cm - 112 K1 -1z

Luego L es una constante. Adems, resolviendo la ecuacin anterior para n da


11 = (2<FK 1 - . 12/L) 2 .
Luego podemo determinar 11 (para a y CJ dadas) de modo que el intervalo de confianza tenga
una longitud prefijada. n general, (como se ilustr en el ejemplo anterior), L ser una funcin
decreciente den: cuanto ms pequeo deseemos tener a L ms grande debe tomarse a 11. n
el caso anterior especialmente debemos cuadruplicar 11 a fin de dividir a L ,

14.8 La djstribucin t de Student


t anli is del ejemplo anterior dependa mucho del hecho de que la varianza
u 2 era conocida. Cmo debemo modificar el procedimiento si no conocemos
el valor de a 2?
Supongamos que estimamos u 2 utilizando el estimador inscsgado
A2
(1 = -1-. L /J -
(X - X) .
2
n- I 1.. 1

Consideremos la variab le aleatoria

t = (X - Jl) n (14.10)
q
Debera ser intuitivamente evidente que la di tribucin de probabilidades de la
variable aleatoria tes considerablemente m complicada que la de Z =(X - )
n/a. Ya que en la definicin de e tanto el numerador como el denominador
son variables aleatoria , mientras que Z sencillamente e una funcin lineal de
x lJ . . . , Xn. Para obtener 1a distribucin de probabilidades de t u emo los
11e~hos siguientes:
(a) Z = (X - ) n/a tiene distribucin N O, 1 .
(b) V= 1:7,,, 1 (X; - X)2 /u 2 tiene una distribucin de x cuadrado coa (n - 1)
g@dos de libertad. (Ver el teorema 13.4.)
(e) Z y V son variables aleatorias independiente . (E to no es muy fcil de de-
mostrar, y no lo verificaremo aqu.) Con ayuda del teorema iguiente podemo
obtener ahora la fdp de t.
314 E..~limadn de los parm uus 14.8

Teorema 14.3. Suponiendo que las variable aleatoria Z y V on independiente


y tienen respectivamente di tribucione N(0,1) y xi, Definimo
z
( V~/c=;'
t = ----;=' k )''

Luego la fdp de t est dada por

- r[(k + 1)/ 2] ( ,2)-(k +112 </< (14.11)


hk(t) - (k/2) jk 1 + k ' - 00

Esta distribucin se conoce como la distribucin t de Student con k grado de


libertad.
Observaciones : (a) La demostracin de e te teorema no es dada aqu pero se sugiere en
la seccin de problemas. (Ver el problema 14. 17.) Tenem las herramienta di ponibles con
las cuales podemos encontrar /1l(1) muy fcilmente. Primero nece itamos determinar la fdp
de V/ k. que e obtenida fcilmente conociendo la fdp de V. Slo nece itamo aplicar el
teorema 6.5 que da la fdp del cociente de dos variables aleatorias independiente .
(b) 1teorema anterior puede er aplicado directamente para obtener la fdp de t = (X - )
n/, la variable aleatora considerada anteriormente. sta variable tiene la di tribucin
1 de Student con (11 - 1) grados de libertad. otc; que aunque el valor de 1 depende de 11, u
distribucin no. -
(c) El grfico de /A es simtrico. como se indic en la figura 14.' . n realidad . ...sJL_emeja_
al rfico de la di tribucin normal, y el lector puede demostrar que

lim ht(I) = ( 1/ 2n)e - ' 112


k- >

(d) Debido a su importancia esta di tribucin ha sido tabulada. (Ver el apndice.) Para
un a dado, 0,5 <a < 1, los valores de lt .~ sati faccn la condicin

J_ :~t(I) lil = a.

estn tabulados. (Ver la figura 14.9.) (Para los valores de a que atisfac.en O < a. < 0,5, pode-
mos u ar los va lores tabulados debido a la simetra de la distribucin.)
(e) Esta di tribucn se llama as en honor del estadstico ingls W. S. Go set, quien pu-
blic u trabajo bajo el p eudnimo de Studcnt.

. 11(1)

[e. (
IOURA 14.9

Volvamos ahora al problema presentado al comienzo de e ta eccin. Cmo


obtenemos un intervalo de confianza para el promedio de una variable aleatoria
distribuida normalmente si la varianza ~sconocida?
14.9

e una manera completamente anloga a la usada en la ecci n 14.7, btenemo


el siguiente intervalo de confianza para . con coeficiente de confanza ( 1 - a):
- - 112 - . - 112
(X - n CTtn - 1, 1 -4/ 2 X+ ti CTln - l,l -41/2).

Luego el intervalo de confianza anterior tiene la misma estructura que el previo,


con la diferencia importante de que el valor conocido de a ha sido sustituido .e.or
a
el estimador y la constante K i -a 2 obtenida anteriormente de la tablas de la
distribucin normal, ha sido su tituida por ln - i, 1 - 2 , obtenida de las tablas de la
distribucin t.
Obserntci11 : el largo L del n'tervalo de conllanza anterior e igual a
112
L = 211 - 1. _ 1.1-2120-.

Luego L no es una constante puesto que depende de aque a u vez depende


de los valores muestrale (X 1. . . . . Xn) .

EJEMPLO 1'4.18. Se hicieron diez medicione obre la re i tencia de cierto


tipo de alambre. que dieron los valore X 1 . . . X 10 . Supngase que X = L0,48
ohm y = ~ L.;'2 ~ (X 1 - X) 2 = l,36 ohms. upongamos que X tiene distri-
bucin N(i. o-l ) y que de eamos obtener un intervalo de confianza para con
coeficiente de confanza 0.90. Luego a = 0.10. De las tablas de la distribucin t
encontramo que t 9 ,0 95 = 1,83. Luego el intervalo de confianza pedido es

(10,48 - -Jrn (l .36)(1,83), 10,48 + +o (l,36)(1 ,83)) = (9,69, 11 ,27).

14.9 Ms sobre los intervalos de Confianza


unque no intentemo dar U!Ja presentacin general de e te tema, de eamos
continuar considerando algunos ejemplos importantes.
Algunas veces deseamos obtener un intervalo de confianza para una funcin
particular de un parmetro desconocido, conociendo un intervalo de confianza
para eJ_parmetro mismo. Si la funcin e montona esto puede atisfacerse como
lo ilustra el ejemplo iguiente.

R(I ; ) R(r ; )

=1= FIGURA 14. 10



R.--------

FIG RA 14.11
16 1 madoo d lo parim~lms 14.9

EJEMPLO 14.19. Suponiendo que la duracin X de un artculo tiene distri-


bucin N(, q 2 ). Se supone que q 2 es conocdo. La confiabilidad del artculo para
un tiempo de servicio de t horas es dado por

R(c;) = P(X > t) = l - <I>c ~ ).


Puesto que aR(t; )/() > O para todo , tenemos que para cada l fijo, R(t; )
es una funcin creciente de. (Ver la ligura 14.10.) Luego podemos proceder como
sigue para obtener un intervalo de conlianza para R(t; ). Sea(, ji.) el intervalo de
confianza para 11 obtenido en la seccin 14.7. Sean B y R respectivamente los
extremos inferor y superior del intervalo de conlianza pedido para R(t; ). Si
definimos a B y R por las "Telaciones

~ = 1 - <I>
~ (t--;;=
- ) y -
R = 1 - <I> - " -
(l - )
encontramos que P(R :::::; R ::::; R) = P( :::::; :::::; i) = 1 - a, y que por tanto
(R, R) no representa un intervalo de confianza para R(t; ) con coeficiente de
confianza (1 - a). (Ver figura 14.11 .) .
Usemos los valores muestrales obtenidos en la seccin 14.7 para ilustrar este
procedimiento. Supngase que deseamos un intervalo de confianza para la con-
fiabilidad de la componente cuando e u durante t = 500 horas. Puesto que
encontramos = 500,4 y ji = 502,0, obtenemos

500 - 500,4)
R = 1 - <I> ( = O 6554
- 4 ' '
Ha ta ahora slo hemos considerado intervalos de confianza bilacerales. Es
decir, hemos obtenido dos e tadgrafos (llamados algunas veces cota superior e
inferior de confianza), sean L(X l> ... , X") y (U(X i. . . . , X"), tales que P[ L ~ () :::::;
U] = 1 - a, en donde 6 es el parmetro desconocido.
A menudo estamos interesados slo en obtener intervalos de confianza uni late-
rales de la forma sigui en re:

P[B ~ U] = 1 - o: o P[L::::; 8] = 1 - rJ..

Ilustremos lo anterior con ejemplos.


E.rEM.P Supngase que X tiene distribucin N(, cr 2) y deseamos
o 14.20.
obtener un intervalo de confianza unilateral ara el armetro desconocido cr 2.
Sea Xi. ... , X" una muestra aleatoria de X.
Del teorema 13.4 sabemos que Ej. 1(X 1 - X) 2 /q 2 tiene distribucin X; _1, Por
tanto de las tablas de la distribucin de X cuadrado podemos obtener un nmero
x;-1, l-o tal que

p[
" (X; _ i)2
L 2 :::::; X n2 - l. 1 - o:
J
=1 - a.
i ~ 1 O'
14.9 Mb !l(lbre lo lnlrrHlo dt oofh11111 .117

(Ver la figura 14.12.) La probabilidad anterior h,. _1(x2)


puede escribirse como sigue:

2
!:7=1 (X1 - X)
P[ u
2
~ 2
Xn - 1,l - a
]
=1-cx.

Luego (I:f.. 1 (X, - X) 2lx.;- 1,1 - ..., oo) es el in-


tervalo de confianza unilaLeral pedido para a 2
con coeficientes de confianza (1 - ex). FIGURA 14.12

ErnMPLO 14.21. Supnga e que la duracin X de un in trumento electrnico


e t distribuida exponencialmente con parmetro l /p. Luego E(X) = {J. ea
Xi. ... , X" una mue tra de X. Hemo encontrado en el ejemplo 14.7 que
I:1 1 X,/n es el estimador de {J. Del colorario del teorema 10.9 encontramo que
2nX/ {J tiene distribucin ;dn Luego P[2nX/ {J ;;?; xin. 1 _ ,,] = ex, en donde el n-
mero xin.i - a se obtiene de la tablas de di tribucio x cuadrado.
Si de eamos un intervalo de confianza (inferior) para la confiabilidad R(r ; /J) =
P(X > r) = e- 1111 procedemos como igue. Se multiplica la desigualdad anterior
por ( - t) se reagrupan lo trminos, y se obtiene

P[( - t/{J) ~ - tX~n. 1 - a/X2n] =1- ex.


Esto a su vez implica que, pue to que e" es una funcin creciente de x ,

/ ;;?; exp [ -
P { R(t ; p) = e- '" tX x2n
~" 1 - ... . =l-
}
.

Luego (exp - tX~ n. i - JX2n], oo) es un intervalo de confianza unilateral para


R(t ; {J) con coeficiente de confianza (1 - ex).
Como una ilustracin final de un intervalo de confianza, encontramo un inter-
valo de confianza para el parmetro p asociado con una variable aleatoria X
distribuida binomialmente. Slo con ideraremo el caso en donde n el nmero de
repeticiones del experimento que da origen a X e bastante grande de modo que
Rodamos usar la aproximacin normal.
Repre entemos por X /n = h la frecuencia relativa de un suceso A en n repeti-
cione de un experimento para el cual P(A) = p. Por tanto, E(h) = p y V(h) = pq/n,
en donde q = l - p.
U ando la aproximacin normal a la distribucin binomial, podemo e cribir

p - PIn ~
[lh pq xJ = P[lh - PI ~ K pq/n] ::::

= 2cJ>(K) - 1,
en donde, como siempre <l>(K) = (1/ 2n)f~ 00 e- 212 dt. Luego, si hacemo igual a
( 1 - a:) la probabilidad anterior, podemos obtener el valor de K de la tabla de
"" lo\1hn11dc'>n de lo~ p11r'mtlrc" 14.\1

la distribucin normal. , decir, 2<1>(K) - 1 = l - ex implica K = K i -aii Pue lo


que estamos intere ados en obtener un intervalo de confianza para p, debemo
volver a escribir la desigualdad anterior : 111 - PI ::; K pq/ n} como una desigualdad
en p. 'orno {lh - PI ~ K pq/n} es equivalente a {h - p) 2 ~ K 2 (1 - p)p/11}. Si
e n ideramos un istema de coordenadas (/J p) la desigualdad anterior repre enta
el contorno y el interior de una elipse. La forma de la clip e e determinada por
K y n: a mayor n, m fina e la elipse.
Considre e un punto Q(h , p) en el plano hp. (Ver la figura 14.13.) Q er un
punto aleatorio puesto que su primera coordenada h ser determinada por el
resultado del experimento. Pue to que Q quedar dentro de la elipse i y lo i
{lli - PI~ K pq/n}, la probabilidad de que esto ocurra ser 2<1>(K) - l. Si
,,

h =c

FIG RA 14.J

deseamos tener esta probabilidad igual a ( 1 - ex) debemo elegir adecuadamente


a K , es decir K = K 1 - ~1 2
Actualmente p es de conocido. ( ste, naturalmente, e nuestro problema.)
La recta h =e (con tante) cortar la elip e en dos lugare , ean p =Pi y p = p2 .
(Fcilmente puede verificar e que dado IX y h siempre habr dos valore distintos
de p.)
o valores Pi y p2 pueden obtenerse como solucin de la ecuacin cuadrtica
(en p): (Ir - p) 2 = K 2 (l - p)p/n. La olu ione on:

lm + (K 2/ 2) - K[h(l - h)n + (K 2/ 4)]1 12


Pi = n + K2 ,

hn + (K 2 / 2) + K[/r( 1 - /r)n + (K 2 /4)]" 2


P2 = n + Ki --. (14.12)

Por tanto {llr - vi ;: ; K pq/ 11} e equivalente a {Pi ~ p ~ Pz}. Luego i e e coge
K de modo que el suceso anterior tenga probabilidad (! - o:), obtenemos un
intervalo de confianza para p, ca (p., p 2 ), con coeficiente de confianza (1 - a).
Para re umir: con el objeto de obtener un intervalo de confianza para p = P(A)
con coeficiente de confianza (1 - ex), realit:ar el experimento 11 veces y calcular la
frecuencia relativa del suceso A, !lamrnosla h. Luego e calculan Pi y p2 de acuerdo
con las ecuaciones (14.12). en donde K se determina de la tabla de la distribucin
l'rublcmMs 19

normal. Recordamos ue este procedimiento e vlido lo i n e uficientemente


grande para justificar la a roximacin normal.
Observacin: recurde e que en la ecuacin ( 14.12), h = X /11, en donde X = nmero de
ocurrencias del suceso A. Luego X = nh y n - X = n(l - Ji). Si adem1s de n, tanto X y 11 - X
son grandes, p 1 y p2 pueden aproximarse respectivamente, por
K K
Pi~ h - - J'ii(l=/r), P2 :::::: h + - Jh(l - h).
11 11

EJEMPLO 14.22. n cierto proce o de produccin se fabrican 79 artculos


durante cierta semana. e e os e ~ncontr que 3 eran defectuosos. Luego h =
3/79 = 0,038. sando el procedimiento anterior, obtenemos (0,013; 0,106) como
un intervalo de confianza para p = P(el articulo es defectuoso) con un coeficiente
de confianza 0,95.
EJEMPLO 14.23. Una fbrica tiene un gran almacenamiento de artculos,
algunos de los cuale provienen de un mtodo de produccin considerado jn ati -
factorio actualmente mientras que otros provienen de un proce o moderno. Del
almacenamiento e e cogen al azar 3.000 artculo . Se encuentra que de tos
1.578 se han fabricado segn el proce o insatisfactorio. Utilizando Ja aproximacin
anterior para p 1 y p2 , el clculo siguiente da un intervalo de confianza de 99 por
ciento para p = proporcin de artlculos del proceso insatisfactorio.
1578
h =3000 = 0,526, K = 2,576,

= o526 - 2,576 (0,526)(0,474) = 0,502


Pi ' J3000
2,576
P2 = 0,526 + J 30DO {0,526X0,474) = 0,550.

PROBL MAS

14.1. Supngase que e mide un objeto independientemente con dos procedimiento


de medida diferentes. Sean L1 y L 2 las longitudes medidas obtenidas con el primer y segun-
do mtodo respec tivamente. i ambos mtodos son correctamente calibrados podemos su-
poner que E(L 1) = E(L 2 ) = L, la longitud verdadera. Sin embargo, la exactitud de los m-
todo no es nece ariamente la misma. Si medimos la ex.actitud mediante la varianza, enton-
ces V(L1) 'i' V(L 2 ). i u amos la combinacin lineal Z = aL 1 + (1 - a)L 2 como nuestro
estimador de L inmediatamente tenemos que E(Z) = L. Es decir, Z es un estimador inses-
gado de L. ;,Para qu valor de a, O <a < J, es mnima la varianza de z

14.2. Sea X una variable aleatoria con esperanza y varianza q 2 Sea (X 1, .. , X n)


una mue tra de X. Hay muchos otros estimadores de q 2 que se sugieren adems del ya pro-
puesto. Demostrar que et: : (X+ l - X) 2 es un estimador insesgado de a 2 para un valor
apropiado de C. Encontrar el valor de C.
20 i.:.. tinumon de los putm~ tros

14.3. Supngase que e obtienen 200 observac iones independiente Xi- .. . , X 200 de
una variable aleatoria X. Se dice que 'f.f2?X 1 = 300 y que I:r? Xr = 3754. sando esos
valores obtener un estimador insesgado de E(X) y V(X) .
14.4. na variable a leatoria X tiene fdp f(x) = (p + l)xi', O < x < l.
(a) Obtener el estimador ML de P. basndose en una mue tra X ., .. . . X .
(b) Evaluar la estimacin si los valores muestrale son 0,3; 0.8 ; 0,27 ; 0,35 ; 0,62 y 0.55.
14.5. Lo datos de la tabla 14.4 se obtu ieron de la distribucin del espesor de la ma-
dera en los postes telefnico . (W. A. Shewhart. Economic Conrrol of Qualil J' of Man11fac1ured
Produc1s. Macmillan and Co, New York, 1932. p. 66.) Supngase que la variable aleatoria
que e considera tiene distribucin N(, a 2) obtener el estimador ML de y a 2

TABLA 14.4

Espesor (pulg.) FrecucnciI spe or (pu lg.) Frc..:u..:ni.:ia

1,0 2 3.7 123


1,3 29 4,0 82
i
1,6 62 43 48
1,9 106 4,6 27
22 153 4.9 14
2,5 186 5,2 5
'
1
2,8 193 5.5 1
3,1 188
Total frecuencia : 1370
1 3,4 151
1

14.6. Supngase que T , el tiempo para fallar (en horas) de un instrumento electrnico,
tiene la siguiente fdp:
/(t) = {Je - #~t - oJ l > l o > O,
= O, para cualquier otro valor.
(T tiene una distrib ucin exponencial truncada a la izquierda en L0 ). Supnga e que se
prueban n articulos y que se anotan los tiempos para fal lar T 1 , . . . , T .
(a) uponiendo que t 0 es conocido, obtener el e timador ML de /J.
(b) Suponiendo que t 0 e de conocido, pero {J es conocido, obtener el est imador ML
de L0

14.7. Considrese la misma ley de falla descrita en el problema 14.6. sta vez se prueba n
N artculos durante T 0 horas (T 0 > lo) y se anota el nmero k de artculos que fallan. Res-
ponder la pregunta (a) del problema 14.6.
14.8. Supngase que X est distribuida uniformemente en ( -a:, u. ncontrar el est i-
mador ML de a:, basndose en una muestra aleatoria de tamao 11, X 1 . . , X,,.
14.9. (a) e efecta un proceso hasta que un uceso A ocurre por primera vez. n cada
repeticin P(A) = p. Se supone que son necesarias n 1 repeticiones. Luego se repite el expe-
rimento y esta vez son necesarias n 2 repeticiones para producir el suce o A. Si se hace esto k
veces, obtenemos la muestra 11 1 , .. , nk. Basado n esta muestra, obtener el estimador M de p.
(b) Supngase que k es muy grande. Encontrar el valor aproximado de E(ii) y V(}) en
donde pe el e timado r ML obtenido en (a).
14.10. e prob una oomponente que e supone que tiene una distribucin exp neneial
de fallas y se observaron las siguiente duraciones (en horas): 108, 212. 174, 130, 198, 169,
252, 168, 143. Usando esos valores mue trales, obtener una estimacin ML para la confia
bilidad de la componente cuando se usa durante un perodo de 150 horas.
14.11. Lo datos siguientes representan la duracin de bombilla elctricas (en horas):
1009, 1085. 1123. 1181, 1235, 1249, 1263, 1292, 1327, 1338, 1348,
1352, 1359, 1368, 1379, 1397, 1406, 1425. 1437, 1438, 1441. 1458,
1483, 1488, 1499, 1505, 1509, 1519, 1541, 1543, 1548, 1549. 1610.
1620, 1625, 1.638, 1639, 1658, 1673, 1682, 1720, 1729, 1737, 1752.
1757, 1783, 1796, 1809, 1828, 1834, 1871 , 1881. 1936, 1949, 2007.
De los valores de la muestra anterior obtener la e timacin ML para la confiabilidad de tales
bombilla elctricas cuando se u an durante 1600 horas, suponiendo que la duracin est
distribuida normalmente.
14.12. Supngase que se u an dos bombillas tal como se describieron en el proble
ma 14.11 en (a) una oonexin en serie y (h) en una conexin en paralelo. En cada uno de lo
casos encontrar la estimacin ML de la confiabilidad durante una operacin de l 600 horas
del sistema, basndo e en los valores muestrales dados en el problema 14. l l.
14.J3. Supngase que una uente radiactiva emite partculas ex de acuerdo con una dis
tribucin de Poisson. Es decir, si X es el nmero de partcula emitidas durante un intervalo
de t minutos, luego P(X = k) = e- Ar(,l.1)'/k ! En vez de anotar el nmero rea l d partculas
emitidas upngase que observarnos el nmero de ve<:e que no ue emitida ninguna particu
la. E pecficamente, supngase que e ob ervan durante 50 minutos 30 fuentes radiactivas
que tiene la misma potencia y que en 25 ca os al meno una partcula fue emitida. Obtener
la estimacin ML de A. con ba e en e ta informacin.
14.14. na variable aleatoria X tiene distribucin N(, 1). e toman veinte ob ervacio-
nes de X, pero, en vez de anotar su valor ob ervamos slo i X era negativa o no. upo-
niendo que el suceso {X <O} ocurri exactamente 14 veces, utilit.ar esta informacin para
obtener la estimacin ML de .
14.15. Suponiendo que X tiene una distribucin gamma; es decir, la fdp est dada por
A(..tx)' - 111 - .i..
f (x) = ----r(r)- - X> O.

Supnga e r conocido. Sea X 1 , , x. una muestra de X, obtener el e timador ML de ,l.


ba ndo e en e ta muestra.
14.16. opngase que X tiene una distribucin de Wei bull con dp
/(x) = (Aoi)x" - 1 11-~"'". x > O.
upnga e que a es conocido. Encontrar el estimador ML de A basado en una muestra de
tamao n.

14.17. Demostrar el teorema 14.3. [Jndicacn: ver la observacin (a) que igue a e te
teorema.]
14.18. omparar el valor de P(X ~ 1), en donde X tiene distribucin N(O. 1). con P(t ~ 1~
en donde 1 tiene una distribucin t de tudent con:
(a) S gl. (b) 10 gl. (c) 15 gl . (d) 20 gl. (e) 25 gl.
. 22 Estimdn d los parm ""
upngase que X tiene una distribucin (fi.o- 2 ). Una mue tra de tamao 30.
14.19.
sea X., ... X 30 da lo valore siguiente: !.l21 X;= 700,8; !.?21 X t = 16.395,8. Obtener
un intervalo de confianza de 95 por ciento (bilateral) para JL
14.20. Supnga e que X tiene una di tribucin N(,4). Una muestra de tamao 25 pro-
duce un promedio muestra! X = 78,3. Obtener un intervalo de confianza de 99 por ciento (bi-
lateral) para .
14.2 t. Supngase que la duracin de una componente tiene una distribucin nonnal
N(, 9). Se prueban 20 componentes y se anot;in sus tiempos para fallar X., ... , X io Su-
pnga e que X = 100,9 horas. Obtener un intervalo de confianza de 99 por ciento (bilateral)
para la confiabilidad R(JOO).
14.22. Obtener un intervalo de confianza unilateral de 99 por ciento (inferior) para
R(IOO) del problema 14.21.
14.23. Supnga e que X tiene distribucin N(. a 2 ) en donde y a 2 son desconocidos.
Una muestra de tamao 15 ha producido los valores !:.J! 1 X; = 8,7 y r,s 1 X f = 27,3. Ob-
tener un intervalo de 95 por ciento de confianza (bilateral) para a 2
14.24. Se probaron cien componente\ y 93 funcionaron ms de 500 hora . Obtener
un intervalo de confianza de 95 por ciento (bilateral) para p = P (una componente funciona
ms de 500 horas). [Indicacin : use la ecuacin 14.12.]
14.25. Supngase que X , la longitud de un perno. tiene distribucin N(J1, 1). Se fabrica
un gran nmero de pernos y posteriormente e separan en dos grande lotes. 1 lote 1 con-
tiene slo aquellos perno para los cuales X > 5, mientras que el lote 2 contiene el resto.
Una muestra de tamao n se aca del lote 1 y se miden las longitudes de los pernos elegidos.
Asi obtenemos una muestra Y., ... , Yn de la variable aleatoria Y que es una variable alea-
toria distribuida normalmente y truncada en 5 a la izquierda. scribir la ecuacin que debe
resolverse a fin de obtener el e timador M L de basado en la muestra (Y 1 , , Y.), median-
te las funciones <P y~ tabuladas, en donde </J(x) = (l /,J'I)e -" 212 y <Des la da de la distribu-
cin N(O, 1).
14.26. (La distri bucin F). Sean X y Y variables aleatoria independientes con distri-
x:
buciones 1 y i; 2 , respectivamente. Sea definida la variable aleatoria F como sigue : F =
(X/ n 1)/(Y/ n 2 ) = 11 2 X /n 1 Y. (Esta variable aleatoria desempea un papel importante en mu-
chas aplicaciones e tadsticas.) Demo trar que la fdp de F est dada por las expresiones
siguientes:
h(f) = r[(111 + n2)/ 2) (~)1/2 p1121 - 1(1 + (111/n2)f-012)<1+. f > O.
f(111 / 2)f(112/2) n2
[Esta e llama di tribucin F (Snedecor) con (11 1.11 2 ) grados de libertad. Debido a su impor-
tancia, e han tabulado la probabilidade asociadas con la variable aleatoria F.] [Indica-
ci11 : para derivar la fdp anterior. u ar el teorema 6.5.]
14.27. Dibujar el grfico de la fdp h como se da en el problema 14.26, suponiendo que
n 1 > 11 2 > 2.
14.28. Una razn para la importancia de la distribucin F es la siguiente. uponiendo
que X y Y son variables aleatorias independiente con distribuciones N(Jlx, u;) y N(,, u:i
respectivamente. Sean X., . .. , X e Y 1> , Y ni muestras aleatorias de X y Y respectiva-
mente. Luego el estadigrafo cr.7! 1 (X 1 - X) 2/!.7!: 1 (Y 1 - Y) 2 tiene una distribucin F para
una eleccin apropiada de . Demo trar esto y determinar C. Cules son los grados de li-
bertad asociados con esta distribucin?
Probl~m 323

14.29. Supngase que la variable aleatoria r t iene una distribucin 1 de Studcnt con 1
grado de libertad. Cul es la distribucin de 1 2? Identifiquela.
14.30. Supngase que X est distribuida normalmente. Se o btiene una muestra aleato-
ria de tamao 4 y se calcula X el promedio mues tra!. Si la suma de los cuad rado de las de -
viaciones de esas 4 medicones de X es igual a 48, obtener un intervalo de 95 por ciento de
confianza (bilateral) para E(X) mediante X.
14.31. La muestra siguiente de tamao 5 se obtuvo de la variable a leatoria bidimen-
sional (X, Y). Usando esos valores, calcular el coeficiente de correlacin mue tral.
X 2 3 4 5

y 4 5 3 2
14.32. Supngase que E(Y) = a.X + /J. Una muestra de tamao 50 e t disponible, sea
(X, Y,), i = 1, ... , 50 para la cual X= y = O, 'Er2. xr
= 10, r..~2 . Yr2 = 15 y El. X ; Y = 8.
(a) Determinar lo estimadores de cuadrados mnimos de los parmetros a. y p, e decir
a. Y p.
(b) CUl es el valor mnimo de la urna de cuadrados Lf~ 1 [Y - (ri.x; + /i)]2.
14.33. Se podra suponer (erradamente) que siempre puede encontrarse un estimador
in e gado, para un parametro desconocido. Que esto no e as, e ilust ra con el ejemplo si-
guiente. Supngase que se hacen n repeticiones de un experimento y un suceso especial A
se verifica exactamente k veces. Si hay una probabilidad constante p = P(A) por hiptesis
de que A ocurra cada vez q ue se hace el experimento, podramo e tar intere adosen estimar
la razn r = p/(I - p). Para verificar que no existe un estimador inse: gado de r = p/(I - p)
[basado en la observacione de kA y (n - k)A , suponemos que en realidad existe tal esti-
mador. Es decir, supngase que i = li(k) es un estadigrafo para el cual E(r) = p/(I - p). Es-
peclicamente, supngase que n = 2 y por tanto k = O, l. 2. Desgnense lo tres valores co-
rrespondientes de F por a, b y c. Demostrar que E(r) = p/(l - p) conduce a una contradic-
cin al obseTVar lo que sucede a la izquierda y a la derecha de esta ecuacin cuando p.....,. l.
14.34. Verificar que lo e timadore de cuadrados mnimos a y p como se dan en las
ecuaciones (14.7) y (14.8) son insesgados.
14.35. Verificar las expresiones para V(ci) y V(P) como se dan en la ecuacin (14.9).
14.36. Supongamos que E(Y) = aX 2 + PX + y, en donde X es preasignada. Basado
en una muestra (xi. Y1) , i = 1, .. . , n determinar los estimadores de cuadrados mnimos de
los parmetros a, P y -,.
14.37. Con ayuda de la tabla 7, obtener una muestra de tamao 20 de una variable alea-
toria que tenga distribucin N(2, 4).
(a) Supngase que esta muestra s.e obtuvo de una variable aleatoria que t iene la distri-
bucin N(a, 4). U ar lo valores muestrales para obtener un intervalo de 95 por ciento de
confianza para a..
(b) Lo mismo que (a) excepto que se supone que la muestra proviene de la distribucin
N(rx, p2) con p2 desconocido.
(c) Comparar las longitudes de los intervalos de confianza en (a) y (b) y comentar.
15
Docimasia de hiptesis

15.1 Introduccin
n este captulo presentaremos otra manera de abordar el problema para hacer
una afirmacin acerca de un parmetro desconocido asociado con una distribucin
de probabilidades, ba ndose en una muestra aleatoria. n vez de encontrar un
estimador para el parmetro a menudo encontraremos c nveniente formular
una hiptesi obre un valor para ste y luego usar la informacin de la mue tra
para confirmar o rechazar el valor de la hiptesis. Los concepto que e van
a pre entar en e te captulo pueden formularse en una ba e terica muy pro-
unda. Sin embargo, no continuaremo e te tema de un punto de vista formal.
En su lugar, consideraremos cierto nmero de mtodo que on intuiti amen-
te atractivo . studiaremos algunas propiedades de los mtodos sugerido-,
pero no intentaremos indicar por qu deberan preferirse algunos mtodos
propuestos en vez de uno alterno. El lector interesado puede obtener un fun-
damento ms terico de alguno de estos procedimientos al consultar alguna
de las referencias sugeridas al final del captulo.
e n ideremos el ejemplo siguiente.
EJEMPLO 15. l. Un fabricante ha e tado produciendo tijeras que se usarn
bajo cierta condicione de esl.lerzo. S ha encontrado que la duracin (horas)
de esos artculos est distribuida normalmente N(I00,9). Se ha diseado un nuevo
sistema de fabricacin cuyo objetivo es alargar su duracin. E decir, se e pera
que Ja duracin de vida X (correspondiente a los artculos producidos por el
nut:vo mtodo) tenga una distribucin N(, 9), en donde > 100. (Supongamos
que la varianza permanece igual. Principalmente, e' to ignifica que la variabi-
lidad del nuevo proceso es la misma que la del antiguo).
Luego el fabricante y el. comprador en potencia tn interesado en docimar
la iguiente hipte i :
H 0 :p = 100 contra H 1 : > 100.

(Estarna haciendo la supo icin tcita de que el nuevo proceso no puede ser
peor que el antigu~.) H 0 se llama la hiptesis nula, y...!:! 1 J!...hip1esis alterna.

E encialmente estamos encarando un problema similar a uno discutid en


324
15,I lntrod11 In

el captulo 14. E tamo e tudiando una variable aleatoria y no c nocemos el valor


de un parmetro asociado con u di tribucin. P driamos resolver este problema
~orno lo hicimos anteriormente. al estimar simplemente. Sin embargo, en mucha
ituacione realmente e tamos interesados en naceruna eCISIO/I espec1 ICG ." e-
berarnO aceptar o rechazar la hipte is H0 ? As, no volveremos a tratar los w"-
ceptos previo de estimacin, no que procederemos a de arrollar algunos con-
cepto que on e pecialmente apropiado para re olver el problema e pecifico
que tratamo .
Empezamos por obtener una mue tra de tamao /1 de la variable aleatoria X.
E decir , elegimos al azar, n artculo fabricado por el nuevo proceso y an tam
cunto tiempo funciona cada uno, all obtenemo la muestra Xi. .. . , X n Luego
calculamos el promedio aritmtico de esos nmeros, sea X. Puesto que e abe
que X es un buen estimador de , parece razonable que ba emos nuestra de-
ci in de aceptar o rechazar H 0 en el valor de X. Puesto que estamos interesados
en la discriminacin entre i = 100 y valores de mayores que 100, parece razo-
nable que debamo rechazar H 0 si (X - 100) es muy <<grande.
As, llegamo al iguiente procedimiento, ( o re una base intuitiva estricta-
mente) llamado corrientemente una dcima de la hipte i : e rechaza H o_i
X - 100 > C' o , equivalentemente, i X > C, (en d nde Ces una con tante para
ser determinada) y e acepta en cualquier otro caso.
tese que la forma particular de la dcima que e tamo u ando fue sugerida
en parle por .la hip le i alterna H 1 Este es un punto al cual nos referiremos
nuevamente. Si en la situacin anterior hubi emo e tado intere ado en docimar
H 0 : = 100 ver u H 1 : # 100. habramos usado la dcima : rechazar H 0
i IX - 1001 > C. Ahora, e tamo en una posicin anloga a la que no encon-
trbamo cuando con truimo un e timador () para el parmetro O. os pregun-
tbamos: qu tan bueno e el estimador? Qu propiedades de eable tiene?
Podemo formular pregunta similare acer a de la dcima que hemo construido.
mo es de buena la d cima? Qu propiedade po ee? Cm0 la podramo
comparar con otra po ible dcima?
A fin de re p nder tale preguntas debemos verificar primeramente que no
existe solucin, en el sentido corriente, para el problema que e tamo propo-
niendo. s decir, por una simple inspeccin de algunos de lo artculo que estn
siendo fabricados nunca podemos e tar eguro de que = 100. (Ntese nueva-
mente la analoga al problema de e timacin: no e peramos que nue tro estimador
iJ sea igual a O. Sencillamente esperamos que e t prximo>> a O.) Lo mismo e
cierto aqu: una dcima no conducir siempre a la decisin correcta, pero una
uena dcima conducira el mayor nmero de vece a la deci in correcta.
Seamos m preci os. B icamente hay dos tipo de error que podemos co-
meter. Podemo rechazar H 0 cuando rea lmente Ho e verdadera ; e decir, cuando
la calidad de la tijeras no ha sido mejorada. E to puede ocurrir debido a que
aconteci que e cogimo una pocas tijeras m resistentes en nue tra muestra
que no on tpicas de la produccin completa. O, alternamente, podemos aceptar
H 0 cuando realmente H 0 es fal a ; es decir, cuando la calidad de las tijeras ha sido
mejorada. Hagamo formalmente la siguiente definicin.
326 Ducima~ia de hipk~I . IS. I

Definicin. Error tipo 1: rechazar H o cuando es verdadera .


Error tipo 2: aceptar H 0 cuando e fal a.

Debe ser evidente que no podemo evitar completamente el cometer e o


errores. Trataremos de mantener pequea la probabilidad de cometerlo .
Para aprehender este problema presentaremos la nocin muy importante
de funcin de operacin caracterstica de la dcima, sea L , que e la iguiente
funcin del parmetro (desconocido).

Defmicin. La funcin de operacin caracterstica (funcin OC) de la dcma


anterior est definida como
L() = P (aceptar H 0 1 ) = P(X ::;; C 1).
Es decir, L() es la probabilidad de aceptar H 0 considerada como una
funcin de..;_ -
Observacin : otra funcin , muy relacionada con la funcin OC, es la fun cin de potencia
definida por
H() = P[rechazar Ho I.]
Luego H() = 1 - L(). Usaremos la funcin OC para describir propiedades de la dcima
aunque esto se podra hacer fcilmente mediante la funcin de potencia.
En el caso especfico que se e t considerando, podemos obtener la iguiente
expre in explcita para L: si es el valor verdadero de E(X), entonce X tiene
distribucin N( , 9/ n). Luego,

L()
-
= P(X ::;; C 1) =P
(XJn
- : ; e -Jn) = <ti [(C -

/
) n
31 3 3
en donde, como siempre,
"'(S) -_
'V
1 f$ e - x
r-.=
1
/2 dX.
v 2rt -oo
Las siguientes propiedades de L() son verficadas fcilmente :
(a) L( -oo) =l.
(b) L( + oo) =O.
(c) dL/d < O para todo (Luego Les una funcin e trictamente decreciente
de).
Luego el grfico de la funcin L tiene en general la apariencia de la curva de
la figura 15.1. (La forma especfica depender naturalmente, de la eleccin de la
constante e y del tamao de muestra n).
L()

l()= I~
- ... IOURA 15. I
15.1 lniroducci6t1 "l1

'on idre e 1 - L(lOO). te nmero representa la probabilidad de rechazar


H 0 cuando H 0 es verdadero. Es decir, 1 - L(IOO) representa la probabilidad de
un error del tipo l. i se dan n y C, entonce 1 - L(IOO) e t determinado com-
pletamente. Por ejemplo, i tomamos n = 50 y C = 101 , obtenemo

1 - L(IOO) = 1 - <I> .!.Q!_ =-IOO


3
50 J
= 1- <D(2.37) = 0,009 .
. Luego esta dcima particular no conducira a rechazar H 0 errneamente alre-
dedor del 0,9 por ciento de las vece .
A menudo con ideramo el problema de de un punto de vi ta ligeramente
diferente. Supnga e que se da el tamao de mue tra n y que la probabilidad de
un error del tipo 1 est especificada, es decir, 1 - L(lOO) = a o, equivalentemente,
L(lOO) = 1 - a. Cul era el valor de C!
pecficamente, i tomamo n = 50 y elegimo a = 0,05, obtenemo como
solucin de la igu iente ecuacin:

o.95 = 11>(c - too so}


3
De la tabla de la distribucin normal esto da

1,64 = - ~ IOO 50.


Por tanto
= 100 + 3(1.M) = 10069.
50

Luego i rechazamos la hiptesis cada vez que el promedio muestra! e mayor


que 100,69, e tamo garantizando que el error del tipo 1 ocurrir, con una pro-
babilidad de 0,05. Pue to que ahora e conocen n y la funcin OC est comple-
tamente e pecificada. u grfico e muestra en la figura 15.2. 1 valor 0,05 se llama
nivel de ignificacin de la dcima (o alguna vece tamao de la dcima). n la
mayor parte de lo problemas e supone que e e te valor menor que 0.1).
te e que al e pecificar a y el tamao de la muestra n, lo debe ser deter-
minada la con tante a fin de e pecificar completamente la dcima. Hicimos
esto insistiendo en que el grfico de la funcin O pa e a trav de un punto espe-

L()

L() ~ 1

100 FIGURA 15.2


328 Doc ma la d hip1e 1 1 .1

cificado, tal como (100, 0,95). (Debe ser evidente cmo e modificara el proce-
dimiento anterior si hubi emos escogido un valor distinto a 0,05 para el nivel
de ignificacin).
Ahora que la funcin OC est completamente especificada podemos encontrar
las coordenadas de cualquier otro punto. Por ejemplo, cul e el valor de L(102)?

L(l0 2) = <1>(100,69 - 102


3
fi)
= <l>( - 3,1) = 0,00097.
Luego para la dcima que se considera, la probabilidad de aceptar H 0 : = 100
cuando en realidad = 102 es igual a 0,00097. Por tanto la probabilidad de un
error del tipo 2 es muy pequea si = 102. Puesto que L es una funcin decre-
ciente de , observamos que L{) < 0,00097 para todo > 102.
Si queremos escoger a n y C, debemos especificar dos puntos a travs de los
cuales pase el grfico de la funcin OC. De esta manera podemos controlar no
slo la probabilidad de error de l tipo l. sino tambin la probabilidad de error
del tipo 2.
L()

L( )= 1

.. 102 FIGURA 15.3

Supngase que en el ejemplo que estamos considerando deseamos evitar el


rechazo de H 0 cuando ~ 102. Luego podemos hacer L(l02) = 0,01 , por ejemplo,
puesto que L es una funcin decreciente de , se deduce que L() ~ 0,01 para
> 102. (Ver la figura 15.3). Si pedimos tambin un nivel de significacin de 0,05,
obtenemos las siguientes ecuacione para la determinacin de n y e:
L(lOO) = 0,95, L(l02) = 0,01.
Estas ecuaciones se reducen a

0,95 = <l> (e - 3 100 v n r) ,

De las tablas de la distribucin normal encontramos que estas expresiones son


equivalentes a
e - ioo .,,n,
r... e- 102
1,64 =
3
-2,33 = 3 Jn.
A fin de eliminar n, dividimos una ecuacin por la otra. Luego
(C - 102)(1,64) = (- 2,33)(C - 100).
IS.2 Frmula general: dslrlbucio normal con varian.1:11 ooocld1 ~

de la cual obtenemo
e = (102)(1 ,64) - (100)( - 2,33) = rno,s.
1,64 - ( - 2,33}
Una vez que e conoce , podemo obtener n elevando al cuadrado cualquiera
de la ecuaciones anteriore :
Por lo tanto
n = ~~~~ J = 34,6 ~ 35.

15.2 Frmulacin general; distribucin normal con varianza conocida

Hemos considerado con algn detalle un ejemplo relacionado con una hip -
tesi que implica el promedio de una variable aleatoria di tribuida normalmente.
Mientra alguno de los clculo e tn an fre cosen nue tra mente, generalicemo
este ejemplo como igue.
Supngase que X es una variable aleatoria con distribucin N(p, 0' 2 ) en donde
q
2
e supone conocida. Para docimar H 0 : = 0 versus H 1 : > 0 proponemos
lo iguiente: obtener una mue tra de tamao n, calcular el promedio mue tral X,
y rechazar H 0 i X > C, en donde C e una con tante que se ha de determinar.
La funcin O de esta dcima est dada por

L{) = P( X ~ C) = t1> ( C ~ n . L()

La forma genera l de la funcin O es


como e indica en la figura 15.4.
La propiedades generales de L() e
e tablecen fcilmente. (Ver el problema
15.4):
IG RA 15.4
(a) L( - ) = l.
(b) L(+ oo) = O.
(c) L'() < O y por tanto Les una funcin estrictamente decreciente de. (15.1)
(d) L.:' () = o para = e, y por tanto el grfico tiene aqu un punto de inlexin.
(e) El aumento de n motiva que la curva llegue a tener mucha pendiente.

A fin de proceder, debemo considerar dos casos.

Ca so 1 . Si se da n y e pecificamos el nivel de ign ificacin (es decir, la roba-


bl!_idad del error del tipo 1) con algn valor o:, podemo obtener el valor de C al
re olver la iguiente ecuacin:
:iJO Docimasia de hiptesi 15.l

Definiendo Km en la relacin 1 /~ f~ "' e - 1212 di = a, podemos e cribir lo anterior


como
K1 - a =
e- o
n,
(j

en donde K 1 -a puede obtener e de la tabla de la di tribucin normal. Luego


rechazamos H 0 si
- (J
X > i0 + - K 1 - a
n

Caso 2. Si vamos a determinar n y C, debemo e pecificar dos puntos sobre


el grfico de la curva O : 1 - L( 0 ) = o:, el nivel de ignificacin, y L() = P.
la probabilidad del error del tipo 2 para .:=_ 1 . Luego debemos resolver la
ecuaciones iguente para n y C: ~

1-o:=<l> ( r:.)
e -a vn;

Estas ecuaciones pueden resolverse para C y n como se indic anteriormente.


Obtenemos
C = 1K1-a - 110K11
Ki-a-KfJ '
n=
. e - o
2
, [<JK1-a]
en donde Ki-m y Kp ya se han definido.

En el mtodo bosquejado hemos tratado la hiptesis alterna H 1 : > 100


(o, en el caso general, >o). En otro contexto podramos considerar H 0 : = 0
versus H'1: <o o Ho: = 0 ver us H': .,,. 0 . Debe er evidente cmo
modificamos la dcima anterior para tal hiptesis alterna. Si con ideramos
H : < o, rechazaramos i X < C y la funcn OC sera definida por

L{)
-
= P(X ~ C)
. (C- cr-
=J- -
<I>

Si consideramos H'{: -./= 110 , rechazaramo H 0 cada vez que Ji - 0 J> C y,


por tanto, la funcin OC e definira

L() = P(IX - ol ::;; C)

= <D (e +;o - n) _<t> ( - e+;o - Jn).


Si escogemos el mismo nivel de significacin a para cada una de las dcimas
anteriores y dibujamos los grfico de las respectiva funcione O en el mismo
is tema de coordenadas, obtenemo lo siguiente: (A corre ponde a H 11 B a H'i.
y D a H ').
15.1 Fnnuh1 :c11cral; tJi,tribuci6n normwl con 111rio111i. co11ol"id1A .B 1

L()

= 110

IG RA 15.5

La figura 15.5 nos da un medio para comparar la tre dcima que es tamos
considerando. Toda la dcimas lienen el mi mo ni el de ignilicacin. (Debe
comprenderse claramente que C es slo un smbolo genrico de una con tante
y no er la mi ma en cada uno de los ca os. Lo importante e que en cada uno
de los ca os se ha escogido de mod que la dcima tendr el nivel de signifi-
cacin :x).
i > 0 , c,ntonces la dcima A es mejor que las otras dos puesto que dar
un valor m pequeo para la probabilidad del error del tipo 2. Sin embargo.
si < 0 la dcima A es la peor de hs que estn siendo considerada., mientras
que la dcima Bes la mejor. Finalmente, la dcima Des aceptable genera lmente
y an puede ser mejorada en cualquier caso especfico con la dcima A o la d-
cima B. Por tanto. ob ervemo que es muy importante tener una hiptesi alterna
especfica en mente debido a que la dcima que escojamos puede depender de
esto. (Slo comparamos las dcimas que tienen el mismo nivel de significacin;
e to no e nece ario en ab oluto y la comparacin resulta algo vaga si usamo
dcimas que tienen niveles de significacin diferente . Ntese la emejanza con
nue tra comparacin de ciertos e timadore : lo comparbamos las varianza
de lo cstimadorc que eran insesgado ).
n mucho casos es evidente cul hiptesis alterna deberamos cons iderar.
n el ejemplo anterior, posiblemente abemo que el nuevo proceso de fabrica-
cin producira tijeras de la misma durabilidad o bien aumentada y, por tanto.
u aramo la dcima A como ugeramos. ( i el nuevo proceso fuese a producir
tijeras de calidad inferior nuestra dcima sera muy mala. Si no se garantiza nin-
guna de tales hiptesis sera mejor u ar una dcima tal como D: rechazar H0
i IX 0 I > . Las dcima tale como A y B e llaman dcima unilaterales mien-
tra que una dcima tal como D se llama dcima bilateral.
Al considerar hiptesi alternas podramo encontrar la siguiente analoga
til. Supngase que una persona se pierde de un lugar M y sabemos que el indi-
viduo ha ido bien a la izquierda o a la derecha de M, mantenindo. e en una tra-
yectoria rectilnea. M

Si lO personas estn disponibles para la bsqueda, cmo deberan disper-


arse esa persona '? Si nada se sabe con relacin a la ubicacin del individuo,
podra ser razonable enviar un grupo de 5 personas en cada una de esas direcciones,
luego de pachar un grupo de bsqueda muy efectivo. pero no muy fuerte, tanto
12 Ooclma la de hip1 ..,1, 15.2

a la izquierda como a la derecha. in embargo, si hay alguna indicacin de que


la pcr ona ha caminado a la izquierda, po iblemente entonce todo o la mayor
parte de los hombre di ponibles deberan ser enviado a la izquierda, haciendo
una bsqueda muy efectiva pero una muy inefectiva a la derecha. Otra con i-
deracione podran tambin influir en el u o de lo recur o disponible . Por
ejempl upnga e que la trayectoria a la izquierda conduzca a un terreno plano
con bo que mientras que la trayectoria a la derecha igue el borde de un preci-
picio profundo. n este caso obviamente la mayor bsqueda se concentrara
a la derecha debido a que las probabilidade de estar perdido de e te lado son
mucho mayore que la de la izquierda.
La analoga debera er evidente. Al docimar hipte i debem e tar tambin
intere ado en las con ecuencia de nue tra deci in de rechazar o de aceptar H 0 .
Por ejemplo, es el error que cometemo al aceptar alguna tijera que onde mala
calidad (creyendo que no lo on) tap importante como no aceptar la tijera que
on de buena calidad (creyendo que n on)?
Observacin: en el desarrollo anterior sugerimo que a menudo preasignamos el nivel
de ignificacin de la dcima. to e hace frecuentemente. in embargo. exi te otro enfoque
del problema que es muy comn y que deberamos discutir.

Volvamo alejemplo 15.1 endondedocimamo H 0 : = lOOversu H1: > 100.


Supngase que obtenemos slo una muestra de tamao 50, calculamos el pro-
medio muestral i y encontramo que es igual a 100, 7. Deberamo aceptar o
rechazar H0 ? Podemo argumentar como sigue: i = 100 entonce i tiene
distribucin (100, 9/ 50). Luego podemos calcular,

P(X ;::: i00,87) = P ( x ~ ioo J5o;::: ioo,s13 - too so)


= l - '1>(2,06) = 0,019699.

Pue to que 0.01 < 0.019699 < 0.05 direm s que el va lor ob ervado X es igni-
licativo al nivel del 5 por ciento pero no al nivel del 1 por ciento. decir, i u a-
mo et = 0.05 rechazaramos H 0 , mientras que al mi mo tiempo si usamos et = 0,01
no deberamos rechazar Ho
icindolo de un modo diferente. i ~1 = 100 obtenemos un re ultado que
ocurrir lo alrededor del 1 9 por iento de la vece . Si creemos que a fin de
aceptar H 0 un resultado debera tener a lo meno una probabilidad de ocurrir
de 0,05, luego la rechazamo . Si estamo ati fechos con una probabilidad de 0,01 ,
la aceptamo .

Obser11aci11 : la dcima anterior estipul que H 0 debera er rechazada siempre que X > C.
u poniendo que el tamao muestral 11 = 2. el t.:riterio anterior e reduce a (X 1 + X 2)/2 > C
o. equivalentemente. (X 1 + ?l > k. Luego el conjunto de valores muestra le posibles (x 1
x 2 ) ha sido dividido en do regiones: R = {(x 1 x 2 )jx 1 + x 2 > k} y R.
La regin especfica R depende naturalmente del valor de k, que a u vez depende del nivel
de ignilicacin de la dcima R, la regin de rechazo e llama alguna veces reyin crlica de
la dcima. (Ver la igura 15.6.)
1 .3 mplc 1dl 1>n11k lrl


' - - - - - ---X

FIGURA 15.6

Generalmente, una dcima puede de cribir e mediante u regin crtica R.


decir, rechazamo Ho i y slo si (xi. .... x,,)E R.

15.3 jemplos adicionale

n vez de formular una teora general para la docimasia de hipte i (que


exi te y e muy exten a), continuaremo con iderando alguno ejemplos. En cada
uno de lo ca os. la dcima que propondremo er intuitivamente atractiva.
o e har ningn e fuerzo para indicar que una d cima e pedal es mejor en
algn entido.

EMPLO 15.2. Se comparan do proce os de produccin. 1 resultado del


proceso A puede caracterizar e como una variable aleatoria X con di tribucin
(Jlx, u;) mientras que el re ultado del proceso B puede cara terizarse como una
variable aleatoria Y con distribucin (r, u;).
Supondremo e conoce la va-
riabilidad intrn cea en cada uno de los proce os, medida por la varianza. De-
eamo docimar las hipte i H 0 : x = >, ver u la hipte i alterna H1: x -
JI.y> o.
Obtenemo una muestra de tamao 11 de X, ea Xi. ... , Xn. y una mue tra
de tamao m de Y, ea Yi, ... , Y"'. Calculemo los re~pectivos promedios mues-
trale X y Y, y propongamos la dcima siguiente para doci111ar las hipte i an-
teriores.
Rechazamo H 0 i X - Y > en donde C es una constante e cogida de
modo que la dcima tenga un nivel de ignificacin e peclico igual a '.X.
La variable aleatoria Z = [(X - Y) - (x - i.y)]/J <J;/11 + ui/m tiene di -
tribucin N(O, 1). Deliniendo = x - >.,podemos expre ar la funcin O de
de la manera siguiente

L() = P( x - Y ~ e 1) = P (z : ; J <1x/nc-+ <Jy/m


2 2 )

= <I> (Ju;~n-+a;tm}
334 Docimasi11 de hiptesis IS.

Ahora ,, = 1 es equivalente a = O. Luego para determinar debemos re-


olver la ecuacin
L(O) = 1 - a
o
1 - a=<l>
( J u;/ne+ a;/m) .
Por lo tanto
e
K 1- a = J <1;/n + <1;/m
2n)J~" e- 12 dt.
12
en donde K ,, est definida como ante p r la relacin a = (1/
Luego
e= Ki -(! aVn + a;;m.
(No continuaremos el problema de determinar ptimamente a n y m.. Una expo-
sicin de este problema se encuentra en Derman and Klein, Probability and Sta-
tistical Iriferen cefor Engineers. Oxford University Pres, ew York, 1959).

EJEMPLO 15.3. Un fabricante entrega fusibles de lo cuate el 90 por ciento


aproximadamente funcionan bien. e inicia un nuevo proceso con el objeto de
aumentar la proporcin de fu ibles que funcionan bien. As, deseamos docirnar
la hipte i H 0 : p = 0,90 ver u H 1 : p > 0,90, en donde p es la proporcin de
fu ible que funcionan correctamente. (E decir, estamos docimando la hiptesis
de que no e ha producido ninguna mejora sobre la hiptesis de que el nuevo
proceso es superior). Obtenemos una mue tra de 50 fu ible fabricados con el
nuevo proceso y contamos el nmero de fusibles que funcionan correctamente, X .
Propongamos la dcima iguiente:

Rechazar Ho iempre que X > 48 y aceptarla en cualquier otro caso.

Suponiendo que la variable aleatoria X tiene una distribucin binomial con


parmetro p (que es una supo icin realista si la muestra se toma de un lote muy
grande), obtenemo la iguiente expresin para la funcin OC

L(p) = P<X ~ 48) = l - P(X ~ 49)

= 1- ~ (
5
k ~ 49 k
) p(1 - p) 50 - k = 1 - p49(50 - 49p)

despus de alguna simpliftcacione algebraica . Por lo tanto tenemos lo siguiente

(a) L(O) = l. (c) I:(p) < Opara todo p, O < p < l.


(b) L(l) = O. (d) L"(p) = Osi p = 48/49.
15.3 1'.jt'm plo~ 1d le lonal4l. 3.JS

Las propiedade (e) y (d) se verifican L(p)


fcilmente con una derivacin directa.]
Luego el grfico de la anterior funcin L
tiene la forma de la curva que e muestra
en la figura 15.7. 1 nivel de significacin
a de esta dcima se obtiene al calcular
1 - L(0,9). Obtenemos
a= 1 - L(0,9)
= (0,9) 49 [50 - 44,l]
= 0,034. F10 RA 15.7

Observacio11es: (a) El ejemplo anterior puede generalizarse como sigue. upngase que X
es una variable aleatoria distribuida binomialmente, basada en 11 repeticiones de un experi-
mento con parmetro p. Para docimar la hiptesis Hv: p =Po versus H 1 : p > p0 , propone-
mos la dcima siguiente.
Rechazar H0 siempre que X > C, en donde es una constante para ser determinada.
(Por tanto aceptar H 0 siempre que X ~ C.)
La funcin O de esta dcima ser de la forma

(15.2)

Las siguientes propiedades de L on verificadas fcilmente. (Ver el problema 15.5).


(l) L(O) = 1; L(l) = O.
(2) I:(p) < O para todo p, p < O < l. Por tanto L es estrictamente decreciente).
(3) I:'(p) = O si p = C/(n - 1). [Luego L tiene un punto de inflexin en C/ (n - 1).]
(b) Hemos dicho que en algunos casos podemos aproximar la distribucin binomial con
la distribucin de Poisson. Es decir, si 11 es grande y pes pequeo, P(X = k) ~ e-~np'f!t!
Usando esta frmula de P(X = k), enco1mamos que Ja funcin OC para la dcima propues-
ta anteriormente se reduce a
e e np(np)'
R(p) = L ( 15.3)
t =O kf
Las propiedades siguientes de R tambin se pueden verificar fci lmente. (Ver el proble-
ma 15.6)
(4) R(O) = t ; R(I) = O.
(5) R'(p) < O para todo p, O < p < t.
(6) R"(p) = O si p = C/11.
(7) R(C/n) es una funcin solamente de C y no de 11.

Reconsideremos el problema de docimar H 0 : = 0 versus H 1 : > 0 ,


en donde X tiene distribucin N(, a 2}. Previamente suponamos que a 2 era
conocido. Levantemos ahora esta re triccin.
uestra dcima anterior rechazaba H 0 siempre que (X - 0 ) n/q > C;
C estaba determinada considerando el hecho de que (X - 0) jn/11 tiene dis-
tribucin N(O. 1) i = o.
JJ/i Doclmasl11 d hiple\ ISA

Tal como construimos un intervalo de confianza para cuando a z era des-


a
conocida, estimemos ahora a 2 mediante 2 = [l /(n - L)] I:/. 1 (X; - X) 2 . Usemos
una dcima anloga a la propuesta anteriormente: rechacemo Ho siempre ue
(X - ) n/u > C. Para determinar C usemos el hecho de que (X - 0 ) n/a
tiene una distribucin t de Student con (n - l) grados de libertad si = 0 .
(Ver el teorema 14.3).
Sea rx., el nivel de signiicacin prefija<lo. Luego a = P[(X - 0 ) ...flit > C]
implica que e = tn - 1. i - ... es obtenida de la tabla de la distrihucin t de Student.
(Ver la igura 15.8). Rechazamos Ho cad1 \'CZ que X> at. -
l. l -2
112
+o. as
obtenemos nuestra dcima.
,,,, (t)

~ - 111 - l .I

EJEMPLO 15.4. Supnga e que X. la lluvia cada anualmente en cierta zona,


F10 RA 15.8

e t distribuida normalmente con E(X) = 30,0 pulgadas. (Este valor ha ido


obtenido de un gran registro histrico de datos meteorolgicos.) n ao recientes,
ciertos cambio de clima parece que evidentemente afectan, en otras cosas, la
precipitacin anual. Se establece la hiptesis de que en realidad la lluvia cada
anualmente ha aumentado. speclicamente, deseamos docimar H 0 : = 30,0 ver-
sus H t : > 30;0. La varianza se supone desconocida puesto que el cambio cli-
matolgico ospechado tambin puede afectar la variabilidad de la lluvia cada.
y, por tanto, lo datos anteriores sobre la varianza no son significativos.
Supongamos que los 8 ao anteriores han dado la siguiente precipitacin
anual (pulgadas):
34,1; 33,7 ; 27,4 ; 31 , l ; 30,9 ; 35,2; 28,4; 32, 1.

' lculos directo dan X= 31 ,6 y 6' 2 = 7,5. De la tabla de la distribucin l en-


contramo que
h :0.9 5 = 1.89.

ut7:o. 9 s/ 8 + 30.0 = 31 ,8 > 31,6.


Por tanto no rechazamos H 0 al nivel de signiicacin de 0,05.

15.4 Dcima para la bondad de ajuste

En la mayora de nue tras discus.iones upusimos que la variable aleatoria


que se considera tiene una distribucin e pecica. En el captulo anterior y en las
primeras secciones de e te, hemos aprendido cmo resolver el problema de tener
un parmetro de conocido a ociado con una distribucin de probabilidades.
15.4 Ddmu para la bolld1d de Ju te J7

Sin embargo, puede acontecer que an no e temo seguros acerca de la forma ge-
neral de la di tribucin que se tiene. Con ideremos alguno ejemplos.

EJEMPLO 15.5. Lo buque mercante de cierto tipo e tuvieron expue to


durante 400 das a riesgo de accidentes de tormenta hielo, incendio, avera de
mquina , etc. 1 nm ro de accidente X de cada barco, puede con iderarse
como una variable aleatoria. Se regi traron lo iguientes datos:

Nmero de accidentes (X): o 2 3 4 5 6

mero de barco con X accidente 1448 805 206 34 4 2

Justifican lo dato anteriore que X tiene una distribucin de Poi on?

EJ MPLO 15.6. upnga e que se tienen 20 mue tra de una cla. e e pecial
de cable y que e miden la re i tencia s en ohm y e obtienen lo valores si-
guiente :
9,8; 14 5; 13,7; 7,6; 10,5 ; 9.3; 11 ,l; 10, 1; 12,7 ; 9,9 ;
10,4; 8,3 11,5; 100; 9,J; 13,8; 12,9; 10,6 ; 8,9 ; 9,5.

Si R e la variable aleatoria de la cual e obtiene la mue tra anterior, tenemo


razn al suponer que R e t distribuida normalmente?

EJEMPLO 15.7. Se probaron veinte tubo electrnico y e anotar n la du-


raciones (en horas):
72 37,8 ; 49,6 21,4; 67,2: 41 ,l; 3,8 8,J ; 23,2; 72,J;
11,4; 17,5; 29,8 57,8; 84,6 12, ; 2,9; 42,7; 7,4; 33,4.

Son lo dato anteriore con i tente con la hipte i de que la ariable alea-
toria T, que est iendo mue treada, e t di tribuida exponencialmente?

Lo ejemplo anteriores son tpicos de una gran cla e de problema que


aparecen frecuentemente en aplicaciones. Hay varias tcnica e tad tica dis-
ponibles con las cuale se pueden analizar tales problemas; consideraremo a
continuacin alguna de ella .
El problema de docimar la hiptesi de que una variable aleatoria tiene cierta
distribucin e pecfica puede con iderar e como un ca o e pecial del iguiente
problema general.
Con idren e nuevamente la condicione que dan origen a la distribucin
multinomial (Ver la seccin 8.7). Se efecta un experimento & n vece . Cada una
de la repeticione de e da origen a uno y lo uno de lo uce o A, i = l. 2, ... , k.
Supngase que P(A 1) = p 1 Sea n el nmero de vece que ocurre A; entre la n
repeticiones de e, n 1 + + nk = n.
De eamos docimar la hiptesis H 0 : p = p; 0 i = 1, . .. , k, en donde p10 e
1."I Doclm 11 d hlptri. 15.4

un valor cspccfco. Karl Pear on (1900) introdujo la iguiente dcima de bondad


de aju te para docimar la hipte is anterior:
. 2 k (n; - np;o)2
Rechazar H0 1empre que D = I: > (15.4)
1 .. 1 npio
en donde e una constante que e va a determinar.

Observaciones : (a) Puesto que E(n;) = 11p10 si p 1 = p1~ e te criterio para docimar tiene
mucho atractivo intuitivo. Exige que rechacemos H0 iempre que la discrepancia entre los
valore observado n1 y los valores esperado 11p1o sea <<muy grande. Alguna veces el es-
tadgrafo D 2 anterior se escribe de una manera muy sugerente como :I:t=1 (o; - e1) 2/e1, en donde
o1 y e1 representan respectivamente el valor observado y esperado de n;.
(b) importante establecer que D2 es un estadgrafo (e decir, una funcin de lo a-
lores ob ervados n 1 . . , nAl y e , por tanto. una variable aleatoria. En realidad, D2 es una
variable aleatoria discreta que toma un gran nmero finito de valores. La distribucin actual
de D2 es muy complicada. Afortunadamente, hay una aproximacin di ponible para la dis-
tribucin de D2 , vlida si /1 es grande, y que hace muy til el procedimiento ugerido.

Teorema 15.1. i n es sufcientemente grande, y i p; = p10 , la di tribucin


de D2 tiene aproximadamente la di tribUcJn de X cuadrado con (~-=- ! )
grados de libertad.
Demostracin; el argumento iguiente no e una demostracin rigurosa. lo
e un intento de hacer aceptable el re ultado.
Consideremo un caso e pecal, es decir, k = 2. Luego
2 2
D2 = (111 - l1P1 0) + (n 2 - l1P20)
np, "P20
Usando el hecho que 11 1 + 11 2 = n y que P10 + p2 = 1, podemos escribir
2
D2 = (111 - npu) (n - 11 1 - 11(1 - P10))2
l1P10 llP 20
(111 - llP10>2
- -np-to- - + (n - l1P10)
llP20
2
(
= 111 -
.
llPto
)2
--
1
11p 1o
+ --l
nP20
J
2
_ ( _ )2 ["P20 + t1P10J - (n1 - n1P10)
- 111 nP1a 2 - .
n P10P2() l1P100 - P10)
Como n 1 = L.j. 1 Y 11, en donde
Y 1 = l i A 1 ocurre en la j- ima repeticin,
= O, en cualquier otro caso.
A 11 1 puede expre ar e como la urna de n variables aleatorias independiente
y de acuerdo con el teorema del lmite central, tiene aproximadamente una di -
tribucin normal si n e grande. Adems, E(n) = np 10 y V(n 1) = 11pio(l - P10)
i P10 es el valor verdadero de p 1. Por tanto si p 1 = p 0 , para un gran valor de n,

'".:-:__ ;, ...
15.4 Ocima para la bondad de 1ju..l .UY

entonces, la variable aleatoria (n 1 - np 10)/Jnp 1o(l - Pio) tiene aproximada-


mente la distribucin N(O, 1). Luego, de acuerdo con el teorema 10.8 para un n
grande, la variable aleatoria

tiene aproximadamente la distribucin xi.


Hemo demostrado que i n es suficientemente grande, D 2 (con k = 2) tiene
aproximadamente la distribucin xi. Pero preci amente e e to lo que o tenamo
en el teorema. La demo tracin para un k en general sigue la misma lnea: de-
bemos demostrar que D2 puede expre arse como la suma de cuadrados de (k - 1)
variables aleatoria independiente cada una con distribucin N(O, 1) sin e grande
y i Pi = p10 y, recurriendo al teorema 10.8, encontramo que se deduce el resul-
tado anterior.

FIGURA 15.9

Podemos usar el re ultado ya e tablecido para re ponder a la pregunta de


qu tan grande debera er D2 a fin de rechazar la hiptesis H 0 : p; = Po
Supngase que queremos obtener una probabilidad del error del tipo 1 (e
decir, el nivel de ignilicacin) igual a 0,05. Esto i nilica que esperamos rechazar
H0 alrededor del 5 por ciento de la vece , CUado en realidad H0 e verdadero.
i.uego etegimo e para satisfacer ---
P(D 2 > C 1p; = P10) = 0,05.
Pue to que D2 tiene distribucin xt- 1 si p1 = p10 podemos obtener el valor de C
de la tabla de la di tribucin x cuadrado ; es decir, C = xt - 1>0,9 5 ; en donde
xt-1. o,9s e t definida por la relacin
~ Yt - 1 (x) dx = 0,05,
JXt - '"'
en donde 9k - 1 (x) es la fdp de una variable aleatoria con distribucin xt - 1 (Ver la
figura 15.9 .)
U emos las ideas que desarrollamos para re ponder alguna preguntas ur-
gida al comienzo de esta seccin: podemos encontrar una dcima para decidir
si se acepta o e rechaza la hiptesis de que se tom una muestra particular de
una variable aleatoria con una distribucin e pecfica?
En este punto debemo hacer una distincin entre los dos tipos de problemas.
Simplemente podramo formular la hiptesi de que la variable aleatoria que se
muestrea tiene una di tribucin normal sin especificar los parmetros implicado .

..J.. "~.[;~
~-' _ _ _ __
340 Docim~I de hlpte-.1\ IS.4

O podramos ser ms explcitos y formular la hiptesis de que la variable aleatoria


que se considera tiene una distribucin normal con promedio y varianza espec-
fico . Los dos problemas pueden er tratados de una manera semejante, pero la
ltima (cuando especificamos comple1amente la di tribucin hipottica) e un
poco ms simple y la consideraremo primero.

Caso 1. Docimacin para una distribucin completamente e pecificada.

EJEMPLO 15.8. Supngase que creemos que la duracin T de bombillos


elctrico est di tribuida exponencialmente con parmetro {J = 0,005. ( decir,
el tiempo esperado para fallar es de 200 hora )Saquemos una mue tra de 150 bom-
billos, probmo lo , y anotemo sus tiemp para quemar e, T., ... , T 150 .
Con ideremo los cuatro uce o mutuamente excluyente :
A 1 : O ~ T < 100 ; A 2 : 100 ~ T < 200:
A3: 200 ::S: T < 300; A4 : T ~ 300.
Supngase que registramos 11, el nmero de veces (entre los 150 tiempo de falla)
que ocurri el uceso A;, y encontramo n 1 = 47, n 2 = 40, 11 3 = 35. y n4 = 28.
A fin de evaluar el estadgrafo D2 debemos calcular Pi. = L 2. 3, 4.
Ahora
P1 = P(T ~ 100) = 1 - e - o.oos<1001 = 1 - e - o.5 = 0,39.
0 0051200
Pi = P( 100 :;;; T < 200) = 1 - e >- 0.39 = 0.24.
p
3
= P(200 ~ T < 300) = _ e - 0.0051 .1001 _ (1 _ e - 0.005<2001) = 0.1 5,
p4 = PCT > 300) = e - o,oos1Joo1 = 0,22.
Ahora podemos calcu lar

D2 = ~ (n; - np,,}2
i- 1 np;,,
2 2 2
= (47 - 58,5) + (40 - 36) + (35 - 22,5) + (28 - 33) 2 = 11 56
58.5 36 22.5 33 . .
n las tabla de la distribucin x cuadrado encontramos que P(D 2 > 1J,56) < 0,0 1.
en donde D1 tiene aproximadamente la distribucin x cuadrado con 4 - 1 = 3
grado de libertad. Por lo tanto rechazaramo (al nivel del 1 por ciento) la hi-
pte i de que lo dato repre en tan una muestra de una distribucin exponencial
con parmetro P = 0,005.
1 ejemplo anterior ilustra el procedimiento general que u amo para docimar
la hiptesis de que X 1 , . . , X,. repre en ta una mue Ira de una variable aleato-
ria con una distribucin completamente especificada:
(a) Dividir la recta real en k intervalos mutuamente excluyentes, A, ... , A~.
(b) ea ; el nmero de valore mue trales que caen en A;, i = I, 2, .. . , k.
(c) Sea p;0 = P(A 1). E o valores e pueden calcular pue to que la hiptesis
especifica completamente la distribucin.
15.4 Deima pu la bond d d( 11 "'"' l41

(d) Calcular D 2 y rechazar la hiptesis i D 2 > en donde se obtiene de


la tabla de la distribucin x cuadrad i se requiere un nivel de signifi-
cacin ix, e = xl - 1. 1 - ~

Observacin : no discutiremos cmo se deben escoger los intervalos A, o cuntos deberan


e coger e. tablezcamos slo la regla iguiente : si 11p0 < 5 para cualquier A1 combinar lo
dato con A 1+ 1 o A1- 1 Es decir, no de eamo ubdividir el espacio muestra! de la variable
aleatoria en partes tales que el nmero esperado de ocurrencias en cualquier ubdivisin
particular sea menor que 5. (Una expo icin amena de este problema puede encontrarse en
un artculo de W. G. ochran, titulado The x2 -Test of Goodne s of Fit que apareci en
Ann. Maih. Stal. 23, 315-345 (1952).]

Caso 2. Docimaci11 para una di tribucin i deben estimarse lo parmetros.

En muchos problema lo tenemo razone para uponer que la variable


aleatoria que se est muestreando tiene una distribucin de cierto tipo sin que po-
damo e pecificar lo parmetro . Por ejemplo, abemo que ciertas hipte i
que hemo formulado pueden condu irnos a una distribucin de Poi on, a una
di tribucin exponencial, etc. A fin de aplicar la tcnica ugerida en la eccin
anterior debemos conocer lo valores de lo parmetros de la di tribucin.
~i no conocemo e o valores, el enfo ue obvio es estimarlo rimero lue o
ar e a e timaciones a fin de evaluar la probabilidades p;. Aparecen dos interro-
gante .
(a) 'mo deberan estimar e los parmetro ?
(b} Si e usa p; (e decir, el parmetro estimado) en vez de p,. en la expresin
de D 2 , cmo afecta e to la di tribucin de D 2? ( 1 he ho de que afectar la di tri-
bucin debe ser evidente i comprobamos que originalmente lo Pio eran con tan-
tes, mientras que ahora lo p; son ella mismas variable aleatorias, dando a
una e tructura mucho m complicada a Ja variable aleatoria D :)
Daremo ( in demostracin) algunas respue tas a las interrogante anteriores.
(a} o e timadore usado corrientemente para lo parmetro on lo obte
nidos por el mtodo de la mxima verosimilitud.
(b} Si el nmero de parmetros e timado e igual a r < k, entonce para un
gran n, la variable aleatoria D 2 tiene nuevamente una distribucin x cuadrado,
e ta vez con n - k - r grado de libertad.

Observa in : este ltimo hecho es muy notable. ignilica que 0 2 tiene la misma distri-
bucin fundamental x2 que ante , la nica diferencia es que se pierde un grado de liberlad
por cada parmetro que debe estimarse. -

EJEMPLO 15.9. Se con idera11 los dato del contenido de ceniza en el carbn
tal como aparecen en el ejemplo 14.6. Supngase que deseamo docimar la hip-
te is de que esos dato fueron obtenido de una variable aleatoria di tribuida nor-
malmente. Primero debemos estimar Jos parmetro correspondientes y a 2
342 Dodm11,l11 de hlpte~ ~ 15.4

Previamente obtuvimos la e timaciones M.L. = 17,0 y 0- 2 = 7, t. Dividamos


lo valore po ibles de X en cinco categora :
A 1 : X < 12; A2 : 12 S: X< 15; A3 : 15 S: X< 18
A4: 1 :s; X < 21 ; As: X ;;=: 21.
Sea n; el nmero de vece que ocurre A;. Encontramo que

n 1 =7; n 2 =49: n 3 = 109; n4 = 67; ns = l


Debemos calcular a continuacin p; = P{A;}, u ando lo alore e timados de
y 8 2 ya obtenido
. Tenemo
X - 17 12 - 17]
p1 = P(X < 12} = P (
, < , = <I>( -1,85) = 0,03
27 27
P2 = P(l2 S: X < 15) = <I>( - 0,74) - <I>( - 1,85) = 0,20,
p 3 = P(l5 s: X < 18) = <I>(0,37) - <I>(-0,74) = 0,41,
p4 = P(l8 s; X< 21) = <l>(l ,48) - <I>(0,37) = 0,29,
Ps = P(X 2! 21) = 1 - <I>(l.4 ) = 0,07.
Ahora podemos calcular
5
(n - 250p') 2
oz = L: ' '
i= J 250p;
(7 - 7,5) (49 - 50) 2 (109 - 102,5) 2
= 7,5 + 50 + 102,5
(67 - 72,5) 2 (l - 17,5) 2
+ 72,5 + 17,5
= 0,82.
Puesto que D 2 tiene 5 - l - 2 = 2 grado de libertad, encontramo en las
tabla de la dist ribucin de x cuadrado que P(D 2 ;::::: 0.82) ~ 0.65. y que, por tanto,
deberamo aceptar la hipte i de normalidad.
EJEMPLO 15.10. Con ideremos lo dato pre entados en el ejemplo 15.5.
Tiene la variable aleatoria X = nmero de accidente durante el perodo e pe-
cificado de 400 da , una distribucin de Pois on?
Estimemo primero el parmetro A. de la di tribucin. En el captulo 14 encon-
tramos que el e timador ML de ,l e t dado por el promedio mucstral. Luego
i = 0(1448) + 1(805) + 2(206) + 3(34) + 4(4) + 5(2) + 6(1)
1448 + 805 + 206 + 34 + 4 + 2 + 1
1351
= 2500
= 0,54.
l'roblem11 34.,

Sea A 1 : X= O; A 2 : X= 1; A3 : X = 2; A4 : X = 3; As: X = ~ 4. Lueg n 1 =


1448; n 2 = 805; n3 = 206; n4 = 34; ns = 7, y obtenemo
Pi = P(X = O) = e- <0 541 = 0,5 y np 1 = 1450
P2 = P(X = l) = e - 0 54
(0,543) = 0,31 y nfJi = 775

p3 = P(X = 2) = ;3)2 = 0,08


e- 0 54 (0, 5 y np3 = 200
3
5 3
p4 = P(X = 3) = e- 054 (0. : l = 0,01 y np4 = 25
Ps = P(X ~ 4) = 1- P(X < 4) = 0,02 y np 5 = 50
Ahora podemos calcular
s (n; - np;) 2 (1448 - 1450) 2 (805 - 775) 2
2
D + L np = 1450 + 775
i= I
2 2
(206 - 200) 2 (34 - 25) (7 - 50) - 42 2
+ 200 + 25 + 50 - ' .

Pue to que hay cinco categoras y estimbamos un parmetro, la variable alea-


toria D2 tiene la distribucin aproximada ;d. Encontrarnos en la tabla de la
di tribucin x cuadrado que P(D 2 ;;::;, 42,2) ~O y, por tanto, deberamo rechazar
la hiptesis.

PROBLEMA

15.t. Se supone que X tiene distribucin N(. ui) con u 2 conocida. Para docimar H 0 :
= 0 versus H 1 : < 0 se propone el mtodo siguiente: una mue tra de tamao 11 y recha-
zar H 0 siempre que el promedio muestra! X < , en donde Ces una constante que debe de-
terminarse.
(a) Obtener una expresin para la uncin L() mediante la di lribucin nolllllal
tabulada.
(b) Si el nivel de significacin de la dcima es rx = 0,01, obtener una expresin para .
(c) Supnga e que u 2 = 4 y supngase que se e t docimando H 0 : = 30 ver u H 1 :
< 30. Determinar el tamao muestra! n y la constante C a fin de ati facer las condiciones
L(30) = 0,98 y L(,27) = 0,01.
(d) upngase que e obtienen lo iguientes valores de muestra de X :

27,l; 29,3; 31.5 ; 33,0; 30.l : 30,9; 28.4; 32,4 ; 31 ,6 ; 28,9; 27,3; 29, 1.

Rechaz.ara H 0 (versusH 1) como se estableci en (e) al nivel de significacin del 5 por ciento?

15.2. onsiderar la situacin descrita en el problema 15. I exceptuando que la hiptesis


alterna ea de la forma H 1 : # 0 . Por tanto rechazamo H 0 siempre que IX - 0 1 > C.
Responder las preguntas (a) y (b) an teriores.
15.3. Supngase que X tiene una distribucin de Poisson con parmetro ).. Para doci-
mar H 0 : A. = A.0 versus H 1 : l > .l0 se propone la iguiente dcima. acar una muestra de
lamafio 11, calcular el promcxlo muei;tral X. y rechazar J/ 0 siempre que X > , en donde e
es una constante para ser determinada.
(a) Obtener una expresin para la funcin O de la dcima an teror, L{J). [ J11dicaciri:
use la propiedad reproductiva de la distribucin de Poisson.]
(b) Grafcar ta funcin O .
(c) Supngase que se est docimando H 0 : A. = 0.2 versus H 1 : .t > 0,2. Se obtiene una
muestra de tamao n = 1O y rechazamos 1 0 si X > 0,25. 'ul es el nivel de significacin
de esta dcima'/
15.4. Establecer las propiedades de la ecuacin (15.J) para la funcin OC, L(t) = (l>[(C -
JI) n/q).
15.5. Verificar la propiedades para la funcin OC, L(p), como e delinieron en la ecua-
cin (15.2).
15.6. Verificar las propiedade para la funcin O , R p), como se definieron en la ecua-
cin ( 15.3).
15.7. Se sabe que una gran reme a de voltmetros contiene cierta proporcin p de defec-
tuosos. Para docimar H 0 : p = 0,2versusH 1 : p > 0,2 se usa el siguiente mtodo. e saca una
muestra de tamao 5 y se cuenta X, el nmero de voltmetros defectuosos. Si X :5: 1, se acepta
H 0 ; s1 X > 4, se rechaza lf 0 ; y si X = 2, 3, 4 se saca una segunda muestra de tamao 5. Sea
Y el nmero de instrumentos defectuosos en la segunda muestra. Se rechaza H0 si Y :2:. 2 y
se acepta en otro caso. (Se supone que el lote muestreado es sulicientemente grande de modo
que pueda suponer e que X y Y son variables aleatoria independientes distribuidas bino-
mialmente.)
(a) btener una expresin para L(p), la funcin OC de la dcima anterior, y dbu ar su
grMico.
(b) Encontrar el tamao de la dcima anterior.
(e) Cul es la probabildad del error del tipo 2 si p = 0,5?
15.8. Si 11 = 4 y k = 3, cuntos valores posibles puede tomar la variable aleatoria D 2 ,
como e defini en la ecuacin (J 5.4)?
15.9. (a) alcular el valor esperado de la variable aleatoria D 2 como se defini en la
ecuacin ( 15.4).
(b) Cmo se compara este \1alor con el valor esperado (asin ttico) de 0 2 obtenido con
la distribucin X cuadrado que puede usarse para aproximar la distribucin de D2 cuando n
es grande?
15.10. Mediante un nuevo proceso se preparan tres cla es de lubricantes. Cada uno de
los lubricantes se prueba con cierto nmero de mquinas, y el resultado es luego clasilicado
como aceptable. Los datos de la tabla 15.1 representan los resultado de e t experimento.
Docimar la hiptesis de que la probabilidad p de que un lubricante tenga un resultado acep-
table es la misma para los tres lubricantes. [Indicacin: estime primero p de la muestra.

TABLA 15.J
lubricante l Lubricante 2 Lubricante 3
Aceptable 144 152 140
Inaceptable 1
56 48 60

Total 200 200 200


l'roblem11' 34S

15. J l. Al usar varias leye de falla hemo encontrado que la distribucin exponencial
desempea un papel muy importante y que por tanto intere a poder decidir si una muestra
particular de tiempos de falla proviene de una distribucin exponencia l bsica. Supngase
que e han probado 335 bombillas y el re umen siguiente de u duracin T (en horas) e t
disponible:

Duracin
(en horas) O~ T < 100 100 ~ T < 200 200 ~ T < 300 300 5 T < 400 T;;:: 400

mero 82 71 68 62 52

De los tiempos de falla que se registraron, se encontr que T el promedio mue tral era igual
a 123,5 horas. U ando esta informacin, docmar la hipte i de que T, el tiempo para fallar
e t distribuido exponencialmente.
15.12. Supnga.e que la variable aleatoria X tiene la sigu iente fdp:
o: co o:x
f( x) - O < x < n/2, en donde O < o: < l.
- sen (n/ 2)a '
Para docimar H 0 : o: = o: 0 e propone la siguiente dcima. acar una ob ervaci n de X , sea
X 1 y rechazar H o si X 1 > l.
(a) Obtener una expresin para la uncin O , L(a), de e ta dcima y graficarla.
(b) i, ul e el tamao de esta dcima i o: 0 n/4'! =
15.13. n una malla de 165 celdas, e cont el nmero de granos de grafito en cada celda.
As e obtuvieron lo dato de la tabla l5.2. Docimar la hipte is de que el nmero de granos
en cada una de las celdas es una variable aleatoria con una di tribucin de Poisson. [Indi-
cacin: junte las observacione 5 2 y tambin aquellas ;;:: 10.]

TABLA 15.2

Nmero de granos de bservados Nmero de granos de b ervado


grafito por celda grafito por celda

o 1 7 17
1 1 8 22
2 5 9 21
3 7 10 4
4 20 11 2
5 34 12 1
6 30 '
Refereocias

La siguiente lista de referencias, aunque no e . ni mucho menos, exhaustiva, deber dar al


lector interesado la oportunidad de encontrar mucha lectura uplementaria y complementa
ria sobre diversos temas presentado en el texto. Adems de encontrar varios temas que no
estn incluido en esta pre entacin, el lector encontrar ciertos otros considerados o con
mucho mayor detalle o bajo un punto de vista algo diferente.
Adems de tomar nota de los texto que figuran a continuacin, el lector tambin deber
e lar consciente de ciertas revistas profesionales en las cuales se hacen avances importantes.
Muchas de esas revistas, naturalmente, son escritas por persona con una experiencia y com
prensin de e te tema considerablemente mayores que las que pueden obtenerse estudiando
un semestre. in embargo, hay varias de ellas que a veces contienen artculos muy compren
sibles y al alcance de un estudiante que ha madurado el tema de este texto ; y entre stas el
Joumal of the American Statisrical Association y Technometrics. La ltima es en realidad
subtitulada A Journal of Statistcs for tbe Physical ,. Chemical, and Engineering Sciences,
y, por lo tanto, puede ser de inters particular para aquellos estudiantes a quienes est es-
pecialmente dedicado este texto.
Muchos de lo libros en esta lista contienen exposiciones de la mayora de lo temas in-
cluidos en este texto. Sin embargo, algunas de las referencias son algo ms especializadas
y especialmente adecuados slo algunos captulos. En tales casos, lo captulos especficos
figuran entre parntesis despus de las referencias.

En ingls :
BAZOVSKY, l., Relablity Theory and Practice. Englewood Cliffs, N . J.: Prentice-Hall, lnc.,
1961 (11).
BERMAN, SIMEO M. , Tlie Elements of Probability. Reading, Mass.: Addison-Wesley Publis-
hing Co., 1969.
BowKER, A. H., y G. J. LEBERMA , Engineering Stalistics. Englewood ClilTs, N. J.: Prentice-
Hall, Inc., 1959.
DERMA , C. , y M . KLEI , Probablity a11d Statistical Inference for Engineers. ew York :
Oxford University Press, 1959.
EHR NFELD, S., y S. B. LlTTAUER , lntroduction to Statistical Me1hod. New York: McGraw-
Hill Book Co., 1964.
F'ELL R, W., An !111roduction 10 Probability Theory and lts Applications. vol. 1, 3. edicin.
New York : John Wiley and Son , lnc., 1968 (1, 2, 3).
FRE o, J. E., Ma1hemarica/ Statistics. nglewood Cliffs, . J.: Prentice-Hall, lnc., 1962.
FRY, T. C., Probabilityand lts Engineering Uses, 2.8 edicin. Princeton, N. J .: D. Van Nostrand,
1964.
346
Uefenn iu~ 347

G EDE KO, B. V., The Tlu:ory o/' Probabili1y (traduccin del ru o). ew ork : 'hcl ca
Publishing Co., Jnc., 1962.
u MA , J. , y . S. W1LKS, /111rod11c1ory E11gi11eeri11g ta1is1ics. cw Y rk : John Wiley and
Sons, lnc., 1965.
HABER, A., R. P. Ru YO y P. BADIA, Readi11g. in 1a1i.wics. Reading Mass.: Addison-
Wc ley Publi hing o., 1970.
LI DGRE , B. W., y G. W. Me LRATH, l111rod11c1io11 to Probabili1y a11d w1istics, 3. 11 edicin.
ew York : The Macmillan o., 1969 (13, 14, 15).
LLOYD, D. K ., y M. L11>0w, Reliabili1y : Ma11ageme11t, Methods, and Marhema1ics. Engle-
wood lifT: , . J.: Prentice-Hall, lnc., 1962 (1 l).
Me ORO, J. R., 111, y R. M. MORO EY, JR ., flllroduction 10 Probabilily Theory. cw York :
The Macmillan o .. 1964.
MtLLER, l., y J. . FRE o, Probabili1y anti tati.wicsfor E11gi11eers. nglewood li!Ts, . J.:
Prentice-Hall, lnc., 1965.
Mooo, A. M., y F. A. GR YRlLL, !111roducrim1 111 1he Theory of 1a1istics, 2.u edicin . ew
York: McGraw-Hill Book o., 1963.
PARZE , ., Modem Probabili1y Theory ami lts Applications. New York : John Wiley and ons,
lnc .. 1960.
WADSWORTll, B. P., y J. G. BRYA , Jmroduction ro Probabili1y and Ra11do111 Variables. ew
York: McGraw-Hill Book o., 1960.

E11 espmiol:
Damos a continuacin una lista de libros de lo cuales exi te ver in espaola, para benefi-
cio del estudiante y del lector en general que quiera investigar algunos de los tema tratados
en este libro y, en especial, en relacin con algunas reas particulares. ( N. del T. )
ARLEY, IELS, y RM4DER BUC'H, /111rod11cc11 a la t1:oria de la probabilidad y de la Estadstica.
Madrid : Alhambra, J968.
ARRANZA, Roo E, Probabilidad y Esrad.wica. Buenos Aires: Universidad de Buenos Aires,
1965.
RAMER , HARALD, Mlados mc1te11uticos de Esrad.l'tica. Madrid : Aguilar, 1968.
DIXON, JoH , /111roducci11 a la probabilidad. Mxico: Limusa-Wiley, 1970.
01xo , W1 FRID, y FRA K MASSEY, !11trod11cci11 al anlisis esradstica. Madrid : diciones
del astillo, 1965.
FREE 1A , HAROLD A. , !111rod11cci11 a f(I inferencia es1ads1ica. Mxico: Trilla , 1970.
NEDENKO, B. V., y A. l. J1 cm , lfllroducci11 al clculo de probabilidades (traduccin del
ruso). Buenos Aires : udeba. 1971.
E THER, WILLIAJ\1, /111rod11cci11 a la inferencia estads1ica. ew York : McGraw-Hill, 1965.
HOEL , PA l., /111rodtud11 a la cs1adis1ica m(lfl'mtica. Barcelona: Ariel , 196 .
LIP Ji Z, YMOUR, Prohabilidad. Mxico : McGraw-Hill. 1970.
MA1SEL, Lou1s, Probabilidad y Estads1ica. Bogot: Fondo ducativo Interamericano, S. A.,
1973.
Rlos, StXTO, M1odos estadsticos, 5.a edicin. ew York: McGraw-Hill, 1967.
Apndice

TA BLA l. Valore de la funcin d istribucin norma l e t nd ar

<l>(z) = f -
1
- e- "212 d t'
21t
= P(Z ~ z)

: o 2 3 4 5 6 7 8 9

3.0 0.00 13 0.00 10 0.0007 0,0005 0.0003 0.0002 0.0002 0.0001 0.0001 0.0000

2.9 0,0019 0.0018 0.0017 0,00 17 0,0016 0,00 16 0.00 15 0.0015 0.0014 0.0014
2. 0,0026 0,0025 0.0024 0,0023 0.00:!3 0.0022 0.0021 0.002 1 0.0020 0,0019
2.7 0,0035 0,0034 0.0033 0,0032 0.()031 0.0030 0,0029 0.002 0.00:!7 0.0026
2.6 0.0047 0.0045 0.0044 0.0043 0,00-ll 0,0040 o.oo:w 0.0038 0.0037 0.0036
2.5 0,0062 0,0060 0.0059 0.0057 0.00 5 0.0054 0.0052 0.005 1 0.0049 0.0048
2.4 0.0082 0.0080 0.0078 0.0975 0.0073 0.0071 0,0069 0.0068 0.0066 0,0064
:u 0.0 107 0.0104 0.0102 0.0099 O.<l096 0.0094 0.009 1 0.0089 0.0087 0.0084
2.2 0.0 139 0.0136 0.0132 0.0129 0.0126 0.0122 0,0119 0.0116 0.0113 0.0 110
2. 1 0,0 179 0,0 174 0.0170 0.0166 0.0162 0,0158 0.0154 0.0150 0.0146 0.0 143
2.0 0.0228 0.0222 0.02 17 0.02 12 0.0207 0.0202 0.0 197 0.0192 0.0188 0.0183
1,9 0,0287 0.0281 0,0274 0,0268 0.0262 0.02 6 0.0250 0.0244 0.0238 0.0233
1,8 0,0359 0,0352 0.0344 0,0336 0.0329 0.0322 0,0314 0.0307 0.0300 0.0294
1.7 0.0446 0,0436 0.0427 0.0418 0,0409 0.0401 0,0392 0.0384 0.0:11 0.0367
1.6 0.0548 0.0537 0,0526 o.o 16 0,0505 0.0495 0.0485 0.0475 0.0465 0.0455
1.5 0.0668 0,0655 0.0643 0.0630 0.06 18 0.0606 0.0594 0,0582 0,0570 o.os 9
1.4 0.0808 0,0793 0.0778 0.0764 0,0749 0,0735 0.0722 0.0708 0.0694 0.0681
1,3 0.0968 0.095 1 0.09 4 0.091 0,0901 0,0885 0.0869 0.0853 0.083 0,0823
1.2 0. 1151 0. 11 3 1 0.111~ 0.1093 0.1075 0.10 6 0.1038 0,1020 0. 1003 0.(>98
1,1 0.1357 0. 1335 0.13 14 0. 1292 0.1271 0.1251 0. 1230 0.121(1 0.1190 0.1170
t.O 0.1587 0, 1562 0. 1539 0. 1515 0, 1492 0.146'1 0. 1446 0.1423 0,140 1 0.1379
0.9 0.1841 0. 1814 0. 1788 0. 1762 0.1736 0.1711 0. 1685 0.1660 0,163 0.1611
0.8 0.2119 0,2090 0.2061 0.2033 0,200 0,1977 0. 1949 0.1922 0,1894 0.1867
0,7 0.24'.!0 0.2389 0.2358 0.2327 0,2297 0.2266 0.2236 0,2206 0,2177 0,2148
0.6 0,_743 0.2709 0,2676 0.2643 0.2611 0.257 0.2 46 0,2514 0,2483 0.2451
- 0,5 0.3085 U,3050 0,30 15 0.29 1 0,2946 0.29 12 0.2877 0.2 43 0.2810 0,2776
0,4 0.3446 0.3409 0.3372 0.3336 0.3300 0.3264 0,3228 0.3192 . 0,3156 0.3 121
- 0.3 o. 821 0,3783 0,3745 0.3707 0,3669 0,363_ 0.3594 0,3557 0.3520 0,3483
0.2 0.4207 0.4 168 0,4 129 0.4090 0.4052 0.4013 o3974 0.3936 0.3897 0,3859
0.1 0.4602 0.4562 0.4 22 0,4483 0,4443 0.4404 0.4364 0.4325 0.4286 0.4247
o.o 0.5000 0.4960 0.4920 0.4880 0.4840 0.480 1 0.4761 0.4721 0.4681 0.4641

s. w. indgren, S1t11is1ical ThcorJ'. ew York : T he acmillan o . 1960.


\11lndicc 349

TABLA l. ( Co111 inuacin )

<D(z) = r
_ 00 "
~e- u: 2 du = P(Z s; z)
2n

-- o 2 3 ~ 5 6 7 8 9

o.o 0.5000 0,5040 0.5080 0.51:20 0.5160 0,5199 0.5239 0.5279 0,5319 0.5359
0. 1 0.5398 0.5438 0,5478 0.55 17 0.5557 0.5596 0,5636 0,5675 0.5714 0,5753
02 0.5793 0.5 32 0.5871 0.5910 0.594 0,5987 0.6026 0.6064 0,6 103 0,614 1
0.3 0.6 179 0.62 17 0,6255 0.6293 0.6331 0.636 0,6406 0.6443 0,64 o 0.65 17
0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6 44 0,6879
0.5 0,6915 0.69 o 0.6985 0.7019 0.7054 0.7088 0.7123 0,7 157 0,7190 0,7224
0.6 0.72 7 O. 7:291 0.7324 0,7357 0.7389 0.7422 0,7454 0,7486 0,7517 0,7549
0.7 0.7580 0.76 11 0.7642 0.7673 0,7703 0.7734 0,7764 0,7794 0,7823 0.7 -2
0:8 0.7881 0.7910 0.7939 0.7967 0,7995 0.8023 O, 051 0.8078 O, 106 0,8133
0.9 0.8159 o. 186 0.8212 0.823 0.8264 o. 289 0.83 15 0.8340 0,8365 o. 9
1.0 0.8413 0.8438 461 0.84 5 0.8508 0.853 1 0,8554 0.8577 0.8599 O, 621
l. I 0.8643 0.8665 686 0,870 0.8729 0.8749 0.8770 0,8790 0,8810 0.8830
1.2 0.8849 0.8869 0.8888 0.8907 0,8925 o. 944 o. 962 0,8980 0,8997 0.90 1
u 0.9032 0.9049 0.9066 0.9082 0.9099 0.9 115 0.9131 0,9147 0,9 162 0,9177
1.4 0,9192 0,9207 0.9222 0.9236 0.925 1 0.9265 0.9278 0.9292 0.9306 0.9319
1.5 0.9332 0.934 0.9357 0.9370 0,9382 0.9394 0,9406 0,941 0,9430 0,9441
1.6 0.9452 0,9463 0.9474 0.9484 0.949 0,9505 0.95 1 0,9525 0,953 0.9545'
1.7 0.9554 0.9 64 0,957_1 0.9 8_ 0,9591 0.9599 0,960 0.96 16 0,9625 0.9633
1.8 0.964 1 0.9648 0.9656 0,9664 0,9671 0.9678 0.9686 0,9693 0.9700 0.9706
1.9 0.9713 0,9719 0.9726 0.9732 0.973 0.9744 0,9750 0.9756 0.9762 0,9767
2.0 O.Cl772 0.9778 0.9783 0,9788 0.9793 0.9798 0.9 03 0,980 0,9812 0,9817
2. 1 0,9 21 0.9826 0,9830 0.9834 0.9838 0,9842 0,9846 0.98 o 0.9 54 0.9857
2.2 0.9861 0.98M 0,9868 0.987 1 0.9874 0,9878 0,988 1 0.9884 0,9887 0,9890
2.3 0.9893 0.9 96 0.989 0.990 1 0.9904 0,9906 0,9909 0.99 11 0.99 13 0.9916
2.4 0.9918 0.9920 0,9922 0.9925 0.9927 0.9929 0.9931 0,9932 0.9934 0.9936
2. 0,993 0.9940 0.9941 0.9943 0,9945 0.9946 0,9948 0.9949 0,9951 0.9952
2.6 0.9953 0.9955 0.9956 0.9957 0,9959 0.9960 0,9961 0.9962 0.9963 0,9964
2.7 0.9965 0,9966 0.9967 0.9968 0.9969 0.9970 0.9971 0,9972 0.9973 0,9974
2.8 0.9974 0.997 0.9976 0.9977 0,9977 0.9978 0.9979 0.9979 0,9980 0.9981
2.9 0.99 l 0,9982 0,9982 0.9983 0.9984 0,9984 0.9985 0,9985 0,9986 0,9986

J,O 0.99 7 0.9990 0,9993 0.9995 0.9997 0.9998 0.9998 0,9999 0.9999 1.0000
.1~0 Wndic

ABLA 2. F uncin de la distribucin binomial


r- n
J - F(x - 1) = L (~} p'qn - r
r = :t

11 = 10 11 = 10 11= 10 11 = 10 p
X= 10 x=9 .\ = 8 .\' - 7
0,0000000 0.0000000 0.0000000 0,0000000 0,01
,0000000 .0000000 ,0000000 ,0000000 ,02
,0000000 .0000000 ,0000000 ,0000000 ,03
.0000000 ,0000000 ,0000000 ,0000000 ,04
,0000000 ,0000000 ,0000000 .0000001 ,05
,0000000 ,0000000 ,0000000 ,0000003 ,06
,0000000 .0000000 .0000000 ,0000008 ,07
.0000000 ,0000000 ,000000 1 ,0000020 ,o
,0000000 ,0000000 ,0000002 ,0000045 ,09
.0000000 ,0000000 ,0000004 ,0000091 .10
,0000000 ,0000000 ,0000008 ,0000 173 , 11
,0000000 ,0000000 ,0000015 ,0000308 ,12
,0000000 ,0000001 ,0000029 ,0000525 ,13
.0000000 ,0000002 ,000005 1 ,0000856 ,1 4
.0000000 .0000003 ,0000087 ,0001346 ,15
,0000000 ,0000006 ,0000 142 ,0002051 ,16
.0000000 ,OOOOO lO ,0000226 ,0003042 ,17
,0000000 ,0000017 ,0000350 ,0004401 , l8
,0000001 ,0000027 ,0000528 ,0006229 , l9
.000000 1 ,0000042 ,0000779 ,0008644 ,20
,0000002 ,0000064 ,0001127 ,0011783 ,21
.0000003 ,0000097 ,0001599 ,00 15804 .22
,0000004 ,0000143 ,0002232 ,0020885 ,23
,0000006 ,0000207 ,0003068 ,0027228 ,24
.0000010 .0000296 ,0004158 ,0035057 ,25
.0000014 ,00004 16 ,0005362 ,0044618 ,26
,000002 1 ,0000577 ,0007350 .0056181 ,27
.0000030 ,0000791 ,0009605 ,0070039 ,28
,0000042 ,000 1072 ,0012420 ,0086507 ,29
,0000059 ,000 1437 ,0015904 ,010592 1 ,30
,0000082 ,0001906 ,0020179 ,0128637 ,JI
,0000113 ,0002505 ,0025384 ,0 155029 ,32
,0000153 ,0003263 ,0031673 ,0185489 ,33
,0000206 .0004214 ,0039219 ,0220422 .34
,0000276 ,00053\1\1 ,0048213 .0260243 ,35
,0000366 ,0006865 ,0058864 ,0305376 ,36
,000048 1 ,0008668 ,0071403 ,0356252 ,37
,0000628 ,0010871 ,0086079 .04 13301 ,38
.0000814 ,0013546 ,0103163 ,0476949 .39
,0001049 ,00 16777 ,0122946 ,0547619 ,40
.000 1342 ,0020658 .0145738 ,0625719 .41
,000 1708 ,0025295 ,0171871 ,0711643 .42
,0002 161 ,0030809 ,0201696 .0805763 ,43
,0002720 ,0037335 ,0235583 ,0908427 ,44
,0003405 ,0045022 .02739 18 ,1019949 ,45
,0004242 ,0054040 ,03 17105 .1140612 ,46
,0005260 ,0064574 ,0365560 1
, 1270655 ,47
,0006493 ,0076828 ,0419713 ,1410272 ,48
,0007979 ,0091028 ,0480003 ,1559607 .49
,0009766 .0107422 .0546875 ,1718750 .50
1itndic .l 1

TABLA 2 ( ontinuacin )

- F( - 1) = ' .[
"
(~) p'qn - r
r=x

n =10
x= 6
JI=
I=
lll n = 10
x= 4
n = 10
.. = J
n =10
x =2
11
X=
= 10
1
,.
0.0000000 0,0000000 0,0000020 0.0001138 0,0042662 0,0956 179 0,0 1
,0000000 ,0000007 ,0000305 .0008639 ,0161776 .1829272 ,02
,0000001 ,0000054 ,0001471 ,0027650 ,0345066 .2625759 ,03
.0000007 .00002 18 .0004426 ,0062137 ,0581538 ,3351674 ,04
,0000028 ,0000637 .OOI0285 .0115036 .0861384 .4012631 .05
.0000079 ,0001517 ,0020293 ,0188378 .1175880 .4613849 .06
.0000193 ,0003139 ,0035761 ,0283421 ,1517299 ,5160177 ,07
.0000415 .0005 57 ,0058013 ,0400754 .1878825 .5656115 .08
,0000810 .OOl.0096 ..0088338 ,0540400 .2254471 .6105 39 .09
,000 1469 ,0016349 ,0127952 .070 1908 ,2639011 ,6513216 .10
,0002507 ,0025 170 ,0 177972 .0884435 .3027908 .6881828 , JI
.0004069 ,003716 1 ,0239388 . 1086818 ,3417250 ,7214990 , 12
.0006332 ,0052967 .0313048 .1307642 ,3803692 .75 15766 .l
,0009505 ,0073263 ,0399642 ,) 54529 ,4184400 .7786984 ,14
.0013832 ,0098741 ,0499698 , 1798035 .4557002 .803 1256 .15
,0019593 ,0130101 ,061 577 ,2064005 ,4919536 .8250988 ,16
,0027098 .016 038 ,0741472 ,2341305 ,5270412 ,8448396 ,17
,0036694 ,0213229 ,0883411 ,26280 10 ,5608368 ,8625520 , 18
,0048757 ,0266325 , 1039261 .2922204 ,5932435 .87 4233 .19
.0063694 ,0327935 , 1208739 ,3222005 ,624 1904 ,8926258 ,20
.0081935 ,0398624 , 13914 18 ,3525586 ,6536289 ,9053 172 ,21
,0 103936 ,0478897 ,1586739 .3831197 ,6815306 ,9166422 .22
,0 130167 ,0569196 ,1794024 ,4 137173 ,7078843 .9267332 .23
,0 16 111 6 ,0669890 ,2012487 .4441949 . 7326936 .935711 1 ,24
,0197277 ,0781269 ,2241249 ,4744072 ,7559748 ,9436865 ,25
,0239148 ,0903542 ,2479349 ,5042200 7777550 ,9507601 .26
,0287224 , 1036831 ,2725761 ,5335112 .79 0705 ,9570237 ,27
,0341994 , 11 81171 .2979405 .5621710 ,8169646 ,9625609 ,28
.0403932 . 1336503 .3239164 .5901015 ,8344869 .9674476 ,29
,0473490 ,1502683 ,3503893 ,6172172 ,8506917 .9717525 ,30
,055 1097 .1679475 ,3772433 ,6434445 .8656366 ,9755381 ,31
,0637 149 ,1866554 ,4043626 .6687212 ,8793821 ,97 8608 ,32
.0732005 .2063514 ,43 16320 ,6929966 .8919901 ,98 17716 .33
,0835979 .2269866 .4589388 .7162304 .9035235 ,9843166 ,34
.0949341 ,2485045 ,4861730 .7383926 ,9140456 ,9 65373 ,35
. 1072304 ,2708415 ,5132284 ,7594627 ,9236190 ,9884708 ,36
..1205026 .2939277 ,540003 .7794292 ,9323056 ,9901507 ,37
,1347603 .3176870 ,5664030 ,7982887 ,940 1661 .9916070 ,38
,1500068 ,3420385 .5923361 .8160453 .9472594 ,9928666 .39
. 16623 6 ,3668967 ,6177194 ,8327102 .9536426 ,9939534 ,40
,1834452 .3921728 ,6424762 ,8483007 ,9593705 ,9948888 ,41
.2016092 ,4 177749 ,6665372 .8628393 .9644958 ,9956920 ,42
,2207058 .4436094 ,6898401 .8763538 .9690684 ,996 797 ,43
.2407033 ,46958 13 ,7123307 ,8888757 ,973 1358 ,9969669 ,44
.2615627 ,4955954 ,7339621 ,9004403 ,9767429 ,9974670 ,45
.2832382 .521557 1 .7546952 ,9110859 ,97993 19 ,9978917 :46
,3056772 ,5473730 ,7744985 ,920 530 ,9827422 ,9982511 .47
,3288205 ,5729517 ,7933480 ,92971139 ,9852109 ,9985544 ,4
,3526028 ,5982047 ,8112268 .9379222 ,9873722 ,9988096 ,49
,3769531 ,6230469 ,8281250 ,9453125 .9892578 ,9990234 .so
TABLA 3. uncin de la distribucin de Poi on
r &. e- a'
I - F(x - 1) = --
=x I" !

a= 0,2 a - 0,3 a - 0,4 a 0,5 a 0,.6

o 1.0000000 1.0000000 1,0000000 1.0000000 1.0000000


1 ,l 812692 .259 181 .3296 00 .393469 ,451188
2 .0175231 ,0369363 .06155 19 .090204 .12190 1
3 .0011485 .0035995 .0079263 .014388 .023 11 5
4 .0000568 .0002658 .0007763 .001752 .003358

5 .0000023 .0000 158 .0000612 .000 172 .000394


6 ,0000001 .0000008 .0000040 .000014 .000039
7 .0000002 ,000001 .000003

X a - 0.7 a - 0,8 a 0,9 a 1,0 o



1,2
-
o 1.0000000 1.0000000 1,0000000 1,0000000 1,0000000
1 .503415 ,550671 .593430 ,632 121 ,69 06
2 .155805 .191208 ,2275 18 .264241 ,337373
3 ,034142 ,047423 ,062857 ,080301 , 120513
4 ,005753 ,009080 ,013459 ,0189 8 ,033769
,007746
5 ,000786 ,0014 11 .002344 ,003660
6 ,000090 ,000184 .000343 .000594 ,001500
7 ,000009 .00002 1 ,000043 ,000083 .00025 1
8 .000001 .000002 ,000005 ,000010 ,000037 1

9 .000001 ,000005
.000001
JO

,\' a - l.4 (1 - 1,6 a 1,8 a l,9 a 2,0

o l.000000 1,000000 1,000000 1,000000 1.000000


1 ,753403 .798103 .83470 1 .850431 ,864665
2 .408 167 .475069 .537 163 ,566251 .593994
3. ,166502 ,2 16642 .269379 ,296280 23324
4_ ,053725 ,078 13 ' 108 708 . 125298 .142877

5 .014253 .023682 .036407 .044081 .052653


6 ,00320 1 ,006040 .010378 .013219 .016564
7 .000622 .001336 ,002569 ,003446 .0045 4
8 ,000 107 .000260 .000562 .000793 ,001097
9 ,000016 .000045 .000110 .000163 .000237

10 .000002 .000007 .000019 ,000030 .000046


11 .000001 .000003 .000005 ,000008

E. . Melina. Poisso11's Expo11e11tial BinomialUmit. Princeton, N. J.: D. Van ostrand. lnc .. 1947.
T AB A 3 (Continuatin)

.\ " =2.5 {/ = 3.0 ti = .l.5 ti : 4.0 " = 4.5 (/ = 5Jl

o 1.000000 1.000000 1.000000 1,000000 1,000000 1,000000


1 .917915 ,95021 ,969803 .98 1684 .988891 ,993262
2 ,712703 .800852 .8641 12 .908422 ,938901 .959572
3 .456 187 .576810 ,67915 .761897 ,826422 ,875 48
4 .242424 .352768 .46336 7 .566530 ,657704 .734974

5 . 108822 , 1847 7 .274555 . 71163 ,467896 .559507


6 .042021 .0839 18 .142386 .2 14870 .297070 .384039
7 .0 14187 .033509 .065288 .110674 .168949 .237817
8 ,004247 .0 1190 .026739 .051134 .086586 ,133372
9 .001 140 .003803 ,009874 .021363 .040257 .068094

10 .0<)()277 ,00 11 02 .003315 .008132 .017093 ,03 1828


11 .00<>062 ,000292 ,001019 .002840 .006669 ,01369
12 .000013 .000071 .000289 ,000915 .()()2404 ,005453
13 ,000002 .000016 .000076 ,000274 ,()()()!!05 .0020 19
14 ,000003 .000019 .000076 .000252 .000698

15 .00000 1 .000004 .000020 .000074 ,000226


16 .000001 .000005 .000020 .000069
17 .000001 .000005 .000020
18 ,00000 1 .000005
19 .00000 1
354 p di e

TABLA 4. Valore crticos para la di lribucin t de tudenl


Pr {t de Student ~ valor tabulado} = y

J 0,75 0,90 0.95 0,975 0,99 0,995

1 1,0000 3,0777 6,3138 12,7062 31,8207 63,6574


2 0.8165 1 8856 2,9200 4,3027 6,9646 9,9248
3 0.7649 1,6377 2,3534 3, 1824 4,5407 5,8409
4 0,7407 1,5332 2,13 18 2,7764 J,7469 4,6041
5 0,7267 l,4759 2,0150 2,5706 3,3649 4,0322

6 0,7 176 l,4398 1,9432 2,4469 3,1427 3.7074


7 0,711 1 1,4149 1,8946 2,3646 2,9980 J,4995
8 o 7064 1,396 1,8595 2,3060 2, 965 3,3554
9 0,7027 1,3830 1,833 1 2,2622 2,8214 3,2498
JO 0,6998 1,3722 1,8 125 2,2281 2,7638 3,1693

11 0,6974 1,3634 1,7959 2.2010 2,7181 3, 1058


12 0,6955 1,3562 1.7823 2.1788 2,68 10 3,0545
13 0,6931! l,3502 1,7709 2,1604 2,6503 3,0123
14 0,6924 1,3450 1,7613 2, 144 2.6245 2,9768
15 0,69 12 1,3406 1,7531 2. 1315 2,6025 2,9467

16 0,6901 1,3368 1,7459 2, 11 99 2,5835 2.9208


17 0,6892 1,3334 1,7396 2,1098 2,5669 :!.8982
18 0.6884 1,3304 1,7341 2,1009 2.5524 2.8784
19 0,6876 1,3277 l,7291 2,09 o 2,5395 2,8609
20 0,6870 1,3253 1,7247 2,0860 2,5280 2,8453

21 0,6864 1,3232 1,7207 2,0796 2.5177 2,8314


22 0,6858 1,3212 1.7171 2.0739 2. 08 2.RIRR
23 0.6!153 Ul'.15 1.7 1.W _,l)( I _!,4')')9 '.!.XCJ7J
24 0.6848 l,JI 78 1,7 109 2.063\l 2.4922 2.7%4
25 0,6844 1,3 163 1,708.1 2,0595 2.4851 2,7874

26 0,6840 1,3150 1,7056 2,0555 2,4786 2,7787


27 0,6837 l,3137 1.7033 2,0518 2,4727 2,7707
28 0,6834 1,3125 1,7011 2,0484 2,467 1 2,7633
29 0,6830 1,3 11 4 1,699 1 2,0452 2,4620 2,7564
30 0,6828 1,3104 1,6973 2,0423 2,4573 2,7500

31 0,6825 1.3095 1,6955 2,0395 2.4528 2,7440


32 0,6822 1,3086 1,6939 2,0369 2,4487 2,7385
33 0.6820 1,3077 1.6924 2,0345 2,444 2.73:n
34 0,6818 1,3070 1,6909 2,0322 2,44 11 2.7284
35 0,6816 1,3062 1,6896 2,030 1 2,4377 2.72 8

36 0,6814 1,3055 1,6883 2,0281 2,4345 i 2,7195


37 0.6812 1,3049 1,687 1 2,0262 2.4314 2,7154
38 0,6810 1,3042 1,6860 2,0244 2,4286 2.71 16
39 0,6808 l,3036 1,6849 2.0227 2,4258 2,7079
40 0.6807 1,3031 1,6839 2,0211 2,4233 2,7045

41 0,6805 1,3025 l ,6829 2,0195 2.4208 2.7012


42 0,6804 1,3020 1,6820 2,0181 2,4 185 2,6981
43 0,6802 1,3016 1,6811 2,0 167 2,4163 2.6951
44 0,6 01 1,3011 1,6802 2,0 154 2.4141 2,6923
45 0.6800 1,3006 1.6794 2,0141 2.4121 2,68 6

D. B. wen, Ha1Ulbook of Statisti1:al Tabfc.,1 . Reading, Mass.: Addison-Wesley Publishing Co.,


1962. ( ortesia de la Atomic Energy Commi sion. Washington, D.C.)
TABLA 4 (Co11tinuaci11)
Pr {t de tudent ~ valore tabulados} y

f 0.75 0,90 0.95 0,975 0,99 0.995

46 0,6799 1,3002 l,6787 2,0129 2.4102 2,6870


47 0,6797 1,2998 1.6779 2,0 117 2,4083 2,6846
48 0,6796 1.2994 1,6772 2,0106 2,4066 2,6822
49 0.6795 1.2991 1,6766 2,0096 2,4049 2,6800
50 0,6794 1,2987 1.6759 2,0086 2,4033 2,6778

51 1
0,6793 1,2984 1,6753 2,0076 2,40 17 2,6757
52 0.6792 l,2980 1.6747 2.0066 2,4002 2,6737
53 0,6791 l ,2977 1,6741 2,0057 2.3988 2,6718
54 0,6791 l,2974 1,6736 2,0049 2,3974 2,6700
55 0,6790 l ,2971 1,6730 2,0040 2,3961 2,6682

56 0,6789 1,2969 1.6725 2,0032 2,3948 2,6665


57 0,6788 1,2966 1,6720 2,0025 2.3936 2,6649
58 0,6787 1,2963 1,6716 2,0017 2,3924 2,6633
59 0,6787 1,296 1 1,6711 2.0010 2.39 12 2,661
60 0,6786 l,2958 1,6706 2,0003 2.3901 2.6603

61 0,6785 1,2956 1,6702 1,9996 2,3890 2,6589


62 0,6785 1.2954 1,6698 1,9990 2,3880 2,6575
63 0,6784 l,2951 1,6694 l .<198J 2,3870 2.6561
64 0.6783 1,2949 l ,6690 J.<1977 2,3860 '.',6549
65 0,6783 1,2947 1.6686 l ,'1971 2,3851 2,65 6

66 0,6782 1,2945 1,6683 1,9966 2..'84::? 2,6524


67 0.6782 1,2943 1,6679 1,9960 2,38J3 2,6512
68 0,67 1 1,294 1 1.6676 1,9955 2) 24 2,6501
69 0,6781 1,2939 1,6672 1.9949 2.3~16 2,6490
70 0,6780 1,2938 1,6669 1,9944 2,3808 2,6479

71 0,67 o 1,2936 1,6666 1,9939 2,3 00 2.6469


72 0,6779 1,29 4 1,6663 1.9935 2,3793 2.6459
73 0,6779 1,2933 1,6660 1,9930 2.3785 2,6449
74 0,6778 1,2931 1.6657 1,9925 2,3778 2,6439
75 0,6778 1.2929 1,6654 J.9921 2,3771 2,6430

76 0,6777 1,2928 1,6652 1,9917 2,3764 2,6421


77 0.6777 1,2926 1,6649 1,9913 2,3758 2,6412
78 0,6776 1.2925 1,6646 1.9908 2,375 1 2,6403
79 0,6776 1,2924 1,6644 1,9905 2,3745 2.. 6395
80 0.6776 1,2922 1,6641 1,9901 2,3739 2.6387

81 0,6775 1.2921 1,6639 1,9897 2,3733 2,6379


82 0,6775 1.2920 1,6636 1,9893 2,3727 2,637 1
83 0,6775 1,29 18 l,6634 1,9890 2,3721 2,6364
84 0,6774 1.2917 1,6632 1,9886 2,37 16 2,6356
85 0,6774 1.2916 l ,6630 l,Q883 2,37 10 2.6349

6 0.6774 1,2915 1,6628 1,9879 2,3705 2,6342


87 0,6773 l,2914 1,6626 1,9876 2,3700 2,6335
88 0,6773 1.2912 1.6624 1,9873 2,3695 2,6329
89 0,6773 1,2911 1,6622 1,9870 2,3690 2,6322
90 0.6772 1,2910 1,6620 1,9867 2,3685 2,63 16
.l~6 p(ndkr

TABLA 5. Valore crtco para la distribucin de chi cuadrado


Pr {x2 r.v. con/ grados de libertad ~va lores tabulados} =y

f 0,005 0,01 0,025 0,05 0,10 0,25

2
1 -
0,010
-
0,020
0,00 1
0,05 1
0,004
0,103
0,016
0,211
0, 102
0,575
3 0,072 0,115 0.216 0,352 0,584 1,213
4 0,207 0,297 0,484 0,71 1 1,064 l ,923
5 0,412 0,554 0,831 1,145 1.6 10 2,675

6 0,676 0,872 1,237 1,635 2,204 3,455


7 0,989 1,239 1,690 2,167 2,833 4,255
8 ' 1,344 1,646 2. 180 2.733 3,490 5,07 1
9 1,735 2,088 2,700 3.325 4,16 5,899
10 2.156 2.558 3.247 3,940 4,865 6,737

11 2,603 3,053 3,816 4,575 5,578 7,5 4


l2 3,074 3,571 4,404 5,226 6,304 8.438
13 3.565 4,107 5,009 5,892 7,042 9.299
14 4,075 4,660 5,629 6,571 7,790 10.165
15 4,601 5,229 6,262 7,261 8.547 11,037

16 5,142 5,8 12 6,908 7,962 9,312 11.912


17 5,697 6,40 7 564 8,672 10,085 12,792
1 6,265 7,015 8,231 9,390 10.865 13.675
19 6,844 7,633 8,907 10.117 11,65 1 14,562
20 7,434 8,260 9.59 1 10.851 12.443 15.452

21 8,034 8,897 10,283 11,591 13.240 16,344


22 8,643 9,542 10,982 12,338 14,042 17,240
23 9,260 10,196 11.689 13.091 14,848 18, l 37
24 9.886 10,856 l2,401 13,848 15,659 19.037
25 10,520 11,524 13,120 14,61 1 16,473 19,939

26 11.160 12.198 13, 44 15,379 17,292 20,843


27 11,808 12, 79 14,573 16, 151 18,114 21.749
28 12.461 JJ ,565 15.308 16,928 18,939 22,657
29 13,121 14.257 16.047 17.708 19,76 23,567
30 13,787 14.954 16.791 1 ,493 20,599 24.478

31 14,458 15,655 17.539 19.28 1 21.434 25,390


2 15,134 16,362 18.291 20,072 22.271 26,304
33 15, 15 17,074 19,047 20. 67 23. 1 JO 27,219
34 16,501 17,789 19,806 2 1,664 23,952 28.136
35 17,192 18,509 20,569 22.465 24.797 29.054

36 17,887 19,233 21,336 23.269 25,643 29,973


37 1 ,586 19,960 22,1()6 24,075 26,492 30,893
3 19.289 20,691 22,87 24,884 27,343 31.815
39 19,996 21,426 23.654 25,695 28.196 32. 737
40 20 ..707 22,164 24.433 26,509 29.05 1 33.660

41 21,421 22,906 25.2 15 27,326 29.907 34.585


42 22.138 23,650 25.999 28,144 30.765 35.5 10
43 22.859 24,398 26.785 28,965 31.625 1
36.436
44 23,584 25, 148 27,57 29,7 7 32,4 7 37,363
45 24.3 11 25,901 28.366 30.612 33.350 38,291

D. B. Owen, Htmdbook o/ ratisricof Table.,. Reading, Mas . : Addison-We ley Publi hing o.,
1962. {Cortesa de la Atomic nergy ommission, Washington, D.C.)
TABLA 5 (Continuacin)
Pr {x2 r.v. con / grado de libertad :::;; valores tabulados} = )'
j 0,75 0,90 0.95 0,975 0,99 0,995

1 1,323 2,706 3,84 1 5,024 6,635 7,879


2 2,773 4,605 5.991 7,378 9,2 10 10,597
3 4,108 6,251 7,815 9,348 11,345 12,838
4 5,385 7,779 9,488 11,143 13,277 14,860
5 6,626 9,2 6 11 ,071 12,833 15,0 6 16,750

6 7,841 10,645 12,592 14.449 16,812 18,548


7 9.037 12,0 17 14.067 16.013 18.4 75 20,278
8 10.219 13,362 15,507 17.535 20.090 21,955
9 11 ,3 9 14,6 4 16,9 19 19.023 21,666 23,589
10 12,549 15,987 1 ,307 20,48 23,209 25. 188

11 13,701 17,275 19,675 2 1,920 24.725 26,757


12 14,845 18,549 21,026 23,337 26,217 28,299
13 15,984 19, 12 22,362 24,736 27,688 29.819
14 17. 11 7 21,064 23.685 26.11 9 29, 141 31,319
15 1 ,245 22,307 24,996 27,488 30,578 32,801

16 19, 69 23,542 26.296 28,845 32,000 34,267


17 20.489 24,769 27,587 30,191 33,409 35,718
18 21,605 25,989 28.869 31,526 34.805 37, 156
1 22,718 27.204 30, 144 32,852 36,191 38,582
20 23,828 2 ,4 12 3 1.410 34,170 37,566 39,997

21 24,935 29,615 32,67 1 35,479 38,932 41 40 1


22 26,039 30,813 33,924 36,781 40.289 42,796
23 27.14 1 32,007 35,172 38.076 41,638 44,181
24 28,24 1 33,196 36,415 39,364 42.980 45,559
25 29,339 34,382 37,652 40,646 44,3 14 46,928

26 30,435 35,563 38, 85 41,9_3 45,642 48,290


27 31,528 36.741 40,113 43, 194 46,963 49,645
28 32.620 37,916 4 1,337 44,46 1 48,278 50,993
29 33.711 39,087 42,557 45,722 49,588 52.336
30 34,800 40,256 43,773 46.979 50 892 5 ,672

31 35,887 41.422 44.985 48,232 52,191 55,003


32 36,973 42,585 46, 194 49.480 53.486 56,328
33 38.058 43,745 47.400 50,725 54, 776 57,648
34 39, 141 44,903 4 .602 5 1,966 56,061 58,964
35 40,223 46,059 49. 02 53.203 57.342 60,275

36 41,304 47,2 12 50.998 54,437 58,6 19 61.581


37 42,3 3 48,363 52.192 55,668 59,892 62,883
3 43,462 49,513 53,384 56,896 61.162 64,181
39 44,539 50,660 54,572 58, 120 62,42 65,476
40 45,616 51,805 55,758 59.342 63,691 66.766

41 46,692 52,949 56,942 60,561 64,950 68,053


42 47.766 54,090 58, 124 6 1.777 66,206 69,336
43 48,840 55,230 59,304 62,990 67,459 70,6 16
44 49.9 13 56.369 60,48 1 64,201 68,7 10 71,893
45 50,985 57,505 61,656 65,410 69,957 73,1 66
l5K 1 ~dice

TABLA 6. Nmeros alcatonos"'

070 18 31172 12572 23968 55216 85366 56223 09300 94564 18172
52444 65625 97918 46794 62370 59344 20149 17596 51669 47429
72 161 57299 87521 4435 1 99981 55008 93371 60620 66662 27036
179 18 7507 1 91057 46829 47992 26797 64423 42379 91676 75127
13623 76165 -Bl95 50205 75736 77473 07268 31330 07337 55901
27426 '>75.14 89707 97453 90836 78967 00704 85734 21776 85764
96039 21338 88 169 69530 53300 29895 71507 28517 77761 17244
68282 98888 25545 69406 29470 46476 54562 79373 72993 98998
54262 21477 33097 48 125 929 2 98382 11265 25366 06636 25349
66290 27544 72780 91384 47296 54 92 59168 8395 1 91075 04724
53348 39044 04072 62210 01209 43999 54952 68699 31912 093 17
34482 42758 40128 48436 30254 50029 190 16 56837 05206 3385 1
9926 98715 07545 27317 52459 75366 43688 27460 65145 65429
95342 9717 10401 31615 95784 77026 330 7 65961 10056 72834
38556 60373 77935 64608 28949 94764 45312 71171 15400 72182
39159 04795 51163 84475 60722 35268 05044 56420 39214 89822
41786 18169 96649 92406 42773 23672 37333 85734 99886 81200
95627 30768 30607 89023 60730 31519 53462 90489 81693 17849
98738 15548 42263 79489 85118 97073 01574 57310 59375 54417
75214 61575 27805 21930 94726 39454 19616 72239 93791 22610
73904 89 123 19271 15792 72675 62175 48746 56084 54029 22296
33329 o 896 94662 05781 59187 53284 2 024 45421 37956 14252
66 64 94799 622 11 37539 80172 43269 911 33 05562 82385 91760
68349 16984 6532 96186 53891 48268 82821 19526 6 257 14288
1\1 1\)3 99621 66899 12351 724.18 99839 24228 32079 535 17 18558
49017 23489 19172 80439 76263 98918 59330 20121 89779 58862
76941 77008 27646 82072 28048 41589 70883 72035 81800 50296
55430 25875 26446 25738 32962 24266 268 14 01194 48587 93319
33023 26895 65304 34978 43053 2895 1 22676 05303 39725 60054
87337 74487 83196 61939 05045 20405 69324 0823 20905 68727
81773 3677 21247 54735 68996 16937 18134 51873 10973 77090
74279 85087 94186 67793 1817 82224 17069 87880 54945 73489
34968 76028 54285 90845 35464 68076 15868 70063 26794 1386
99696 78454 21700 12301 88832 96796 5934 1 16136 01803 17537
55282 61051 97260 89829 69 121 86547 62195 72492 33536 60137
31337 83886 72886 4259 05464 88071 92209 5072 67442 47529
94128 97990 5 609 20002 76530 81981 30999 50147 93941 80754
06511 48241 49521 64568 69459 95079 4258 98590 12829 64366
69981 03469 56128 80405 97485 8825 1 76708 0955 86759 15065
:D701 56612 86307 02364 88677 17192 23082 00728 78660 74196
09237 24607 12817 98120 30937 70666 76059 44446 94188 14060
11007 45461 24725 02 77 74667 18427 45658 40044 59484 59966
60622 78444 395 2 91930 97948 13221 99234 99629 22430 49247
79973 43668 19599 30021 68572 31816 63033 14597 28953 21162
71080 71367 23485 82364 30321 42982 74427 25625 74309 15855
0992 26729 74573 16583 37689 06703 21 46 78329 98578 25447
63094 72826 65558 22616 33472 67515 75585 90005 19747 08865
19806 42212 41268 84923 21002 30588 40676 94961 1154 83133
17295 74244 43088 27056 6338 47331 09737 83735 84058 12382
59338 27 190 99302 84020 15425 14748 42380 99376 30496 84523

The Rand Corporalion, A Millio11 RamJom Digits. wit/i 100,000 ormal Deviates. ew York:
The ree Pres , 1955.
ptlndlcc 59

T ABL A 6 (Cominuacin)

96 124 73355 019'.?5 17210 81719 74603 30305 29383 69753 61156
31283 54371 20985 00299 7168 1 22496 7124 1 )~l47 37285 0202
499 4855 20397 60384 24574 14852 264 14 10767 60334 36911
2790 45529 48792 313 . 55649 08779 94194 62843 11182 49766
51473 13821 75776 24401 00445 61570 806 7 39.54 07628 94806
077 5 02854 91971 63537 84671 035 17 28914 48762 76952 96837
16624 68335 46052 07442 41667 62897 403::!6 751 7 36639 21396
28718 92405 07123 22008 83082 28526 49117 96627 38470 78905
33373 90330 67545 74667 20398 58239 22772 34500 34392 92989
36535 48606 111 9 82646 1 600 53898 70267 74970 35100 01291
4740 62155 47467 148 13 56684 5668 1 31779 044 1 19 3 17044
56 129 36513 41292 82142 13717 49966 35367 43255 06993 17418
35459 10460 33925 75946 26708 63004 89286 24880 38838 76022
61955 55992 36520 08005 4 783 08773 45424 44359 2524 75 81
. q . (iQ'QI l l ~.;:; .... O~<l.t)( Q()<)JJ <lO~QO Q7JJ~ 61 ~~~ ~~20. .1 ~.rn1

15 6 39555 093~5 1671 7 74724 79J43 J6313 39585 56:?85 1~5~5


75454 906 1 73339 08810 89616 99234 366 13 43440 60269 90 99
275 2 90856 04254 23715 000 6 12164 16943 62099 32132 93031
9658 47708 0169 1 222 4 50446 05451 68947 34932 81628 22716
57194 77203 26072 92538 85097 58178 4639 1 5 980 12207 949()1
64219 53416 03811 11439 80876 3831 4 77078 5171 06316 29523
53166 78592 80640 58248 688 18 78915 571 8 853 10 43287 89:123
5 11 2 45 1 22892 29765 20908 49267 1896 9165 03332 94932
14548 36314 05831 0192 1 97159 55540 00867 84293 54653 8128 1
212 1 1 61 40764 99303 3 99 97879 98178 0370 1 70069 80463
30953 63369 05445 20240 35362 82072 29280 7246 94 45 97004
12764 79194 36992 74905 85867 18672 28716 17995 635 10 6790 1
72393 71563 42596 873 16 80039 75647 66121 17083 07327 3\1.!U\I
1103 1 40757 10904 22385 398 13 ()3111 33237 9500 09057 50 20
)1'1-l ~ (,')<;~(, ~045 6 -~ - ~662 ) 679.t.1 :J.JO:' ~6 :-5 : 17.W.i ~-1.::: 1

1853 7 07384 13059 473 9 97265 11 J79 :?44_6 095:?8 360J5 0~501
66885 11985 3 553 97029 88433 78988 8 64 03876 48791 7_613
96177 71237 08744 38483 16602 94343 18593 84747 57469 08334
37321 96867 64979 89 159 33269 06367 09234 7720 1 92195 89547
77')()5 69703 77702 90 176 04 83 844 7 886 8 09360 4280.' ~8379

5J81 4 14"6() 4369 86631 8756 1 90731 5'1632 52672 :?-ISl<l I0966
16963 37320 40740 79330 04 18 5607 23196 49668 80418 73842
8755 58885 65475 25295 59946 47 77 81764 85986 61687 04373
84269 55068 10532 43324 39407 65004 35041 207 14 208 o 19385
94907 08019 05 159 646 13 26962 30688 51677 05111 512 15 53285
45735 14319 78439 18033 72250 87674 67405 94163 16622 54994
1175 40589 34 9 95 20 70913 87328 04636 42466 68427 79135
51242 05075 80028 35144 70599 92270 62912 08859 87405 08266
00281 25893 94848 74342 45848 10404 28635 92 1J6 42 52 408 12
l~~J > 656(1' I U<i.2~ 1,1_1 _1_ _1 ~ 1:;.;.i lJS S b ~~ 15070 )')'/() 1 UlJ .'X~ 11 1-1\1
11881 7 57827 02940 ()67 76246 85094 44885 72 42 31695 R3R4J
75548 53699 90888 94921 04949 80725 72 1:10 80838 38409 72270
42860 40656 33282 45677 05003 46597 67666 70858 41314 711 00
71208 72822 17662 50330 32576 95030 87874 25965 05261 95727
44319 22313 89649 47415 21065 42846 78055 64776 64993 4805 1
360 pt>ndi e

TABLA 7. D e viacione normales aleatoria

00 01 02 03 04 05 06 07 08 09
00 ,3 1 - ,51 - 1,45 -,35 ,18 .09 ,00 ,11 - 1,9 1 - 1,07
01 ,90 - ,36 ,33 - ,28 ,30 - 2.62 - 1,43 - 1,79 - .99 - ,35
02
03 --n
- l ,00
,58
,53
,87
- 1,90
- ,02
-,77
,04
,67
, 12
56
- , 17
- ,94
,78
. 16
- 1,3 1
2,22
,95
-,08
04 - ,12 -,43 ,69 ,75 -,32 71 - 1,13 - ,79 -,26 -. 6
05 ,01 ,37 - ,36 ,68 .44 ,u l,18 - ,68 -. 13 - ,41
06 ,16 - ,83 - 1,88 ,89 - ,39 ,93 - ,76 -, 12 ,66 2,06
07 1,3 1 - ,82 - ,36 ,36 ,24 -,95 ,4 1 - ,77 ,7 -,27
08 - ,38 -,26 - 1,73 ,06 - ,14 1,59 ,96 - 1,39 ,5 1 - ,50
09 ,38 ,42 - 1.39 - ,22 - ,28 .. ,03 2.48 1, 11 1,10 ,40
10 1,07 2.26 - l.68 .04 .19 1.38 - 1.53 - 1,4 1 .09 1,9 1
11 - 1,65 - 1,29 - l,03 ,06 2,18 - ,55 - .34 - 1,07 ,80 1,77
12 1,02 -,67 - 1,11 ,08 - 1,92 -,97 - ,70 - ,40 - ,72 - ,47
13 ,06 1,43 - ,46 -,62 - , 11 ,36 ,64 - ,27 ,72 ,68
14 ,47 - 1,84 ,69 - 1,07 ,83 -,25 - ,91 - 1,94 ,96 ,75
15 ,10 1,00 -,54 ,61 - 1,04 -,33 ,94 ,56 ,62 ,07
16 - ,7 1 ,04 ,63 - ,26 - 1,35 - 1,20 1,52 ,63 - 1,29 1,16
17 - ,94 - ,94 ,56 - ,09 ,63 - .36 ,20 - .60 - .29 ,94
18 .29 .62 - 1.09 1,84 - .11 , 19 - .45 .23 - .63 - .06
19 ,57 .54 - .21 ,OIJ - .57 - .10 - 1.25 ,26 .88 .26
20 .24 .19 ,67 3.04 1,26 - 1.2 1 .52 - ,05 ,76 ,09
21 - 1,47 1,20 ,70 - 1,80 - 1,07 ,29 1,18 ,34 - ,74 1,75
22 - ,0 1 .49 1,16 ,17 - ,4 ,8 1 1,40 ,17 ,57 ,64
23 - ,63 - ,26 .55 -,2 1 - ,07 -,37 ,47 - 1.69 ,05 - ,96
24 ,85 - ,65 - ,94 , 12 - 1,67 ,28 -,42 , 14 - l ,15 - ,41
25 1,07 - ,36 1, 10 ,83 ,37 - ,20 -,75 -,50 ,1 1,31
26 1.18 1,09 - .61 ,44 ,40 ,42 - ,61 -2, 55 - ,09 - 1,33
27 .47 .~8 .7 1 ,31 .41 - 1,96 ,34 -,17 1,73 - .33
28 .26 ,90 ,1 1 ,28 .76 - .12 - 1,01 l ,29 - .71 2,15
29 .39 .88 - , 15 - ,38 ,55 - .41 - ,02 - .74 - ,48 ,46
30 - 1,01 - .89 - 1,23 ,07 ,D7 .08 - .08 1.95 .34 ,29
31 J.36 .18 .85 .55 ,00 - ,43 ,27 - ,39 ,25 .69
32 1,02 - 2,49 1,79 ,04 -,03 ,85 - ,29 - .77 ,28 - .33
33 -,53 - 1, 13 ,75 ,39 .43 ,10 - 2,17 ,37 - 1,85 ,96
34 ,76 1.2 1 - ,68 ,26 ,93 ,99 1,12 - 1,72 - ,04 - .73
35 ,07 -,23 - .88 - .23 ,68 ,24 1,38 - 2,10 - ,79 - ,27
36 ,27 ,6 1 ,43 -,38 ,68 - ,72 ,90 -,14 - 1,61 - ,88
37 ,93 ,72 - .45 2,80 - .12 ,74 - 1,47 ,39 - ,61 2,77
38 1.03 - .43 ,95 - 1.49 - .6 ,22 .79 - 2.80 - .41 ,61
39 - ,32 1,41 - ,23 - ,36 ,60 - ,59 ,36 ,63 ,73 ,81
40 1,41 ,64 ,06 ,25 - 1,75 ,39 l ,84 1,23 - 1,27 - ,75
41 ,25 - ,70 ,33 , 12 ,04 1,03 - ,64 ,08 1,63 ,34
42 - 1. 15 .57 .34 - ,32 2,31 ,74 ' 5 - 1.25 - , 17 14
43 .72 ,01 ,50 - l.42 ,26 - .74 - ,55 l,86 - ,17 - ,10
44 - ,92 , 15 - ,66 ,83 ,50 ,24 -,40 l,90 ,35 ,69
45 - ,42 ,62 ,24 ,55 - ,06 , 14 - I,09 - l,53 ,JO - 1,56
46 - ,54 1,2 1 - .53 ,29 l .04 - ,32 - l ,20 ,01 ,05 ,20
47 - , 13 -,70 ,07 ,69 ,88 1, 18 ,61 - ,46 - 1,54 ,50
48 - ,29 .36 1,44 - ,44 ,53 - . 14 ,66 ,00 ,33 -,36
49 l,90 - 1,21 - 1,87 - .27 - 1,86 - ,49 ,25 ,25 , 14 1,73
1wnd lc 361

TABLA 7 ( ontinuacin)

10 11 12 13 14 15 16 17 18 19
00 ,73 ,25 - 2,08 , 17 1,04 - ,23 ,74 ,23 ,70 - .79
01 -. 7 - ,74 l,44 - ,79 ,76 - ,42 1,93 ,88 ,80 - ,53
02 1, 1 ,05 ,10 - , 15 ,05 1,06 .82 ,90 - 1,38 ,5 1
03 - 2,09 1, 13 - ,50 ,37 - , 18 - ,16 - , 1,85 - ,90 1,32 - ,83
04 - ,32 1,06 1, 14 - ,23 .49 1,10 - ,27 - ,64 ,47 - .05
05 ,90 - ,86 ,63 - 1,62 - ,52 1,55 ,78 - ,54 - .29 , 19
06 , 16 - ,22 -, 17 - ,8 1 ,49 ,96 ,53 1,73 , 14 1,2 1
07 15 - 1, 12 ,80 - ,30 - ,77 - ,9 1 ,00 .94 - 1, 16 .44
08 1.87 .72 - 1, 17 - ,36 - 1,42 - .46 - ,58 ,03 2,08 1, 11
ll<J .!<7 .95 .os ,46 - .01 .85 1.19 1.61 , 10 .87
IO .52 . 12 - 1.04 .56 .9 1 - . 13 .17 1,17 1.24 .84
11 - 1,39 - 1, 18 1.67 2,88 - 2,06 . 10 ,05 ,55 ,74 ,33
12 - ,94 - ,46 - ,85 - .29 ,54 .7 1 ,90 - ,42 - 1,30 .50
13 - ,5 1 ,04 - ,44 - 1,87 - 1,06 1,18 - ,39 ,22 - .55 - .54
14 - 1,50 - ,21 -,89 ,43 - 1,8 1 - ,07 - .66 - .02 1.77 - 1.54
15 - .48 1,54 1,88 ,66 -,62 ,28 - ,34 2,42 - 1,65 2,06
16 ,9 - ,23 ,57 ,23 1,81 1.02 ,33 1,23 1.3 1 ,06
17 ,38 1.52 - 1,32 2,13 - ,14 ,28 - ,46 .25 ,65 1,18
18 - ,53 ,37 ,19 - 2,41 ,16 ,36 - ,15 ,14 - , 15 - ,73
19 .15 ,62 1,29 1,84 ,80 - .65 1,72 - 1,77 ,Q7 ,46
20 - ,81 - .:n 1,16 1,09 - .73 - ,15 ,87 - .88 ,92 - ,04
21 - 1,61 2.51 - 2.17 ,49 - 1,24 1, 16 .97 . 15 ,37 ,18
22 ,26 ,48 - ,43 - 2,08 ,75 1,59 1,78 - ,55 ,85 - 1.87
23 - ,32 .75 - ,35 2, 10 - ,70 1,29 ,94 ,20 1,16 .89
24 - 1.00 1,37 .6 ,00 1,87 - ,14 .77 - . 12 ,89 - .73
25 ,66 ,04 - 1,73 ,25 ,26 1,46 - .77 - 1,67 , 18 - .92
26 ,20 - 1,53 ,59 -, 15 - , 15 - . 11 ,68 - ,14 - ,42 - 1.51
27 1,0 l - ,44 - ,20 - 2.05 - ,27 - ,50 - ,27 - .45 ,83 .49
28 - 1,8 1 ,4 .27 ,67 - ,74 - . 17 - 1. 11 . 13 - 1. 18 - 1.4 1
29 - ,40 1,34 1,50 ,57 - 1,7 .08 ,95 ,69 ,38 ,7 1
30 -,01 ,15 - 1,83 1, 18 ,1 1 ,62 1,86 ,42 ,03 - , 14
31 - ,23 - , 19 - 1,08 ,44 - ,41 - 1,32 ,14 ,65 - .76 ,76
32 - 1,27 ,13 - ,17 - ,74 - ,44 1,67 - .07 - ,99 ,5 1 ,76
33 - 1,72 1,70 - ,6 1 ,J8 ,48 - ,26 - ,12 - 2,83 2,35 1,25
34 ,78 1,55 -, 19 ,43 - 1,53 - ,76 ,83 - ,46 ,48 - ,43
35 1,86 1,12 - 2,09 1,82 - ,71 - 1,76 - ,20 - ,38 .82 - 1,08
36 - ,50 -,93 - ,68 - 1,62 - ,88 ,05 - .27 .23 - .58 - ,24
37 l,02 - ,81 - ,62 1,46 - ,3 1 -,37 ,08 ,59 ,27 ,37
3 - 1,57 ,10 .11 - 1,48 1.02 2.35 .27 - 1.22 - 1.26 2.22
39 2.27 .61 ,6 1 ,28 .39 .45 ,89 1,4.I IJJ.I ,0 1
40 - 2.17 - ,69 1.33 - ,26 ' 15 . 10 .78 ,64 .70 . l4
41 ,05 - 1,71 ,21 ,55 - ,60 - ,74 - ,90 2,52 - ,07 - 1, 11
42 - ,38 1,75 ,93 - 1,36 - ,60 - 1,76 - 1.10 ,42 1,44 - ,58
43 .40 - 1,50 ,24 - ,66 ,83 ,37 - ,35 ,16 .96 ,79
44 ,39 ,66 , 19 -2,08 ,32 - ,42 - ,53 .92 .69 - ,03
45 - , 12 1, 18 -,08 ,30 - ,21 ,45 - 1,84 .26 .90 ,85
46 1,20 - ,9 1 - 1,0 - ,99 l ,76 - ,80 ,5 1 .25 - .11 -,58
47 - 1,04 1,28 2,50 1,56 - ,95 - l ,02 ,45 - 1,90 - ,02 - ,73
48 - ,32 ,56 - 1,03 ,11 - .72 ,53 - .27 - ,17 1,40 t,61
49 1,08 ,56 ,34 - ,28 - ,37 ,46 ,03 - 1, 13 ,34 - l ,08
Respuestas a problemas seleccionados

APIT W J
1.1. (a) {5} (b) { 1, 3, 4, 5, 6, 7, 8, 9, IO} (e) {2, 3, 4, 5}
(d) {1, 5, 6, 7, 8,9, 10} (e) {1, 2, 5. 6. 7, 8, 9, IO}
1.2. (a) {xjO :S x <!}u {x lt ::;; x:S 2}
b) {x 1O ::s; x < i} u {x 1t < x .$ 1} u {x 1 x .$ 2} t :;
(e) {x 1O::;; x s t} v {x 1t < x :S 2}
(d) {x 1! .$ x ::;; i} v {x l l < x < H
1.3. (a) Verdadero (b) Verdadero (e) al o (d) Falso (e) Verdadero
1.4. (a) A = {(O, O), (1 , 0), (2, 0), (O, 1), (! , 1), (2, 1), (O, 2), (! , 2)}
(b) B = {(O, 0), (1 , O), (2, O), (3, 0), (4, 0), (5, O), (6, 0), (1, 1), (2, 1), (3, 1)
(4, 1). (5, 1), (6, I) (2, 2), (3, 2), (4, 2), (5, 2), (6, 2), (2, 3), (3, 3), (4, 3), (5, 3),
(6, 3), (2, 4), (3, 4), (4, 4), (5, 4), (6, 4), (3, 5), (4, 5), (5, 5), (6, 5), (3, 6),
(4,6), (5 6), (6, 6)}
t.6. {DD, NDD, DNDD, DNDN, DNND, DNNN, NDND, NDNN, N DD,
NNDN, N ND, NNNN)
1.10. (a) { (x, y ) 1O :S x < y .$ 24}
1.11. (a) AuBuC (b) [A11B n C]u(A 11 B11 u[A11.8 11 ]
(d) A u B 11 C
1.15. -6. l:r. -A 1.16. (a) 1 - z (b) y - z 1.17.

APIT LO 2

2.1. (a) ti (b) t 2.2. (a) n (b) ir; 2.J. (a) i (b) i

2.4. (a)
(4oox1100)
90 1 10
(u)
(b) 1 - [(
400V 1 1) + (4_01 0V
o /1 200 _
J1
11_1~
)]
200 ('lon)
2.5. 4
45 2.6. aH (b) ~ (c)i
2.7. (a) i (b) rlD (e) (d)i (e)t (f) & (g}!
2.8. 120 2.9. 720
2.10. 455 2.11. (a) 120 (b) 2970
2.12. (a) 4 8 (b) 4 . 37 (e) 70 (d) 336
2.13. (N - 1) !/(N - n)!N" - 1
2.14. (a) 360 (b) 1296 2.15. a+b
362
Respu las a proble m a~ 'd cdonado' 36J

2.16. (a) 2/n (b) 2(n - 1)/ 11 2 2.18. 0,24

2.20. 120 ( r )(" - ' )


2.21. r - 1 k - r - - -
10! " ) n - k+ l
2.22. (k - 1
JO'(LO - r)!

CAPlT LO 3

3..
3.2.
e:y) e~ :~ 1) e:y) e
(a) i (b) t (e)
+
t
+:+
3.3.
1)
~
3.4. (a) rl; (b) ~ 3.6. (a) H (b) ~ (e) ~
3.7. j 3.9. 0.362, 0,406, 0,232
3.12. (a) ! (b) i 3. 13. 1 - (1 - p)"
3.15. rt; 3.17. (a) 0,995 (b) 0,145
3.20. (a) 2p 2 + 2p3 - 5p4 + 2p 5 (b) p + 3p2 - 4p 3 - p4 + 3p~ - p6
3.23. 6 3.25. (a) 0,50 (b) 0,05
3.34. /J. = t + (2p - 1)"(P - tl 3.35. (a) 0,65 (b) 0,22 (e) 8/ 35

3.37.
a fJ
p. = a + P+ (a + PXa + P + l)" - 1

3.39. (11 - l)p 2 /(l - 2p + np 2 )

APIT LO 4
4.1. P(X = 0) =ti, P(X = 1) = -A. P(X = 2) = ii, P(X = 3) = R
42 (a) (:) GY GY-x (b) C) (4 ~ x)/(2:)
4.3. (a) 1 (b) fr. (e) ~ 4.9. N
4.10. a = e- b
4.11 . P{X > b 1 X < b/ 2) = - 7b 3/(b 3 + 8)
4.13. (a) a = (2/ b) - b 4.14. (a) F(r) = 51 4 - 4t 5
4.15. (a) a = t (e) i 4. 16. (b) F(x) = 3x 2 - 2x 3
4.17. a) /(x) = !,O < x < 5 (b) /(x) = (1 / nXx - x 2) - 1' 2 , O < x < 1
(e) f (x) = 3e 3 .. , x < O
4.20. (a) a = 3 (e) a = i
4.23. (b) P(X = k)= (k~0,09f(09 1 ) 10 -
4.25. (a) ! 4.28. t
4.29. (a) k =p (b) r = l 4.30. - ! ~ x ~ !

CAPIT LO 5
5.1. g(y) = 1(4 - y) - 112 , 3 <y < 4
5.2. (a) g(y) = i, 7 <y< 13 (b) /1(z ) = 1/2z, e< z < e 3
S.3. (a) g(y) = ~y - 1/le 71 ',y> O
5.6. (a) y(y) = (l/nXI - y2)- 112 - 1 <y< 1
(b h(z) = (2/n)(I - z1 )- 112 , O< z < l (e) f(w) = l. O< w < 1
5.7. (a) g(11) = (3/ 2n)[(31 /4n) - 113 - l],O < v < 4n/ 3
(b) h(s) = (3/4n)[ l - (s/4n) 112 O < :; < 4n
s.s. g(p) = !{2/ p)' , 162 < p < 242
S.10. (a) g(O) = 1; g(y) = O. y#- O
(b) g(O) = a/k; g(y) = (xo - a)/kyo. O < y< Yo[(k - a)/ (xo - a)]
(e) g(O) = a/k; g(y) = (xo - a)/kyo. O < y< y 0 ; g(yo) = 1 - xo/k
5.13. 0,71

APIT LO 6

6.2. (a) k= k (b) /1( ) = 3/4. 0 <X < 2


j- - y/4 + y3 /48. o :$; y :$; 2
(e) g(y) = { j- - y/4 + (5/48)y3. - 2 ~ y ~O
<>.3. (a) ~ (o) i.i (e) A 6.5. k = l/( 1 - e- ' )2
6.6. (a) k = f (b) /(.{) = 1 - lxJ, - 1< X < ]
(e) g(y) = 1 - IYI - 1 < y < 1
6.8. /i(z) = l/ 2z 2 , z ;;::: 1
= 1/2. o < z < 1
6.11. g(h) = (1600 - 91i 2 )/ 80/i 2 , 8 < h < ~
= !. .a< / :$; 8
= (511 2 - 80)/ 1611 2 ,4 ~ J :$; ~
6.12. /1(i) = e - 12 11111 ' [ - (2/ i) - 2(2/1) 112 - 2]
+ e- 0 W ' ' [(l / i) + 2(1 / i) 112 + 2), i >O
6.13. h(w) = 6 + 6w - 12w 112
,0 < w < l
6.14. (a) y(x) = e-x, x > O (h) li(y) = ye- 1, y> O

CAPITULO 7
7.3. 3.4 7.4. j-(2CJ + C2 - 3Ci)
1.6. $0,03 7.8. 7-i'5
7.9. $50 7.10. (a) e =i (b) E(D) = Jj
7.12. b) E(Z) = w 7.13. ) E(W) =~
7.14. 154
7.15. E(Y) = 10, V(Y) = 3. E(Z) = (e/2)(e 2 - !). V(Z) = (e 2/2)(e 2 - !)
7.18. E(Y) = O. V(Y) = -}. E(Z) = 2/Tr. V(Z) = (n 2 - 8)/ 2n 2 E(W) = ~.
V(W) = ft

7.20. Caso 2: E(Y) = (y / 2k)(xo -


0 a), V (y) =
(xo - u)y5
k 31 - ---
Xo - ]
7.24. u = !. b = 2 7.25. (a) E(V) = ! (b) E(P) = ~
7.26. V(X) = ~a 2
7.27. E(S) = V-
Respuestas problemms 1 cciondos. . 36

7.30. (a) g(x) = x/2, O < x < 2; h(y) = 1/2 - y/ 8, O < y < 4
(b) V(X) = ~
7.31. E(Z) ~ J , + 2(J:)<1;; V(Z) ~ (l/;w: + (;/:)u;
7.32. E(Z) == H V(7.I ~.;., 7.35. t; o
7.46. ff 7.48. P(X ; = 1) = p(r/n) + q[(n - r)/n]

CAPITULO 8

8.1. 0,219
8.3. (a) O, 145 (b) 4 (e) 2 (d) 1 6 2 (e) 1,785 (f) 0,215
8.4. 0,3758 (binomial), 0,4060 (Poisson)
8.5. 0,067 8.6. P(X = 0) = 0,264
8.7. E(P) = $32,64 8.9. (b) 0,027
8.10. 0,215 8.12. (a) (0,735)7 (b) l - (0,265) 7
8.16. (a) (1 - P1XI - P2Xl - p3XJ - p,) (e) 0,0964
8.17. (a) 0,064 8.20. (2 - ln 3)/ 3 8.24. $19,125

APITULO 9
9.1. (a) 0,2266 (b) 0,2902 9.2. 0,3085
9.3. 0,21 9.5. (a) D2 (b) D2

9.6. E( Y) = (2/ n) 112 , V( Y) = (n - 2)/ n


9.10. e= 0,433u + 9.11. 0,5090
9.12. E(L) = $0,528
9.13. (a) !; 0,0456 (b) ! 0,069 (e) t;0,049
9.15. $23,40 9.17. (a) $0,077
9.24. 0,10, 0,80
9.25. E(Y) ~In- (l / 2 2)u 2 ; V(Y) == (1 /2)u 2
9.28. (b) E(X) = np[(l - p" - 1)/(1 - p")]
9.32. 0,15

APIT W JO

10.1. (a) Mx(I) = (2/ 12 )[e'(t - 1) + 1] (b) E(X) =t. V(X) = ria
10.3. (a) Mx(r) J..e'"/(). - 1) (b) E(X) = (a). + 1)/ .l., V(X) = l/A 2
10.4. (a) Mx(I) = i{e' + e 2 ' + e 3 ' + e 4' + e5' + e 6 ')
10.6. (a) ( 1 - 12 ) - 1
10.8. (b) E(X) = 3,2
10.9. (a) 0.8686 10.12. 0,30
I0.13. 0,75 10.14. 0,579
JO. 18. -!- 10.19. (e 3' - 1)/31e'
APITULO ti

11.1. 83.55 hora , 8 L77 horas, 78,35 horas


11 .2. 48.6 horas
11.3. /(e) = o exp - 0 1). O :5 1 :5 1()
= C1 cxp - Colo+ 1(10 - t.J]. t >lo
11.4. (a) /(1) = Ce - ctr-Al, t ~ A 11.5. (b) R(t) = [A /(A + r)r 1
6
11.7. (a) Aproximadamente (0,5) 11.9. 0.007
11.10. R(I) = 2e-o.061 - e - 0.09, 11.11. (a) 0.014
1t.12. (a) m = In ( 2) (b) m = 0.0 1 (e) +
11.13. R(1) = exp ( - or). O < e < !o
= ex p t(C 110 - o) - ( 1/2)(1 2 + 15)]. 1 > to
11.14. (a) R(t) = e - p,r + e- tJ,1 + e - Pir - e - (/J1+/J2l - e - C#1+PJI
_ e - CJ11+fJ + e - C111+J1, +JhJ1

11.15. (a) Rs = 1 - (1 - Rn'f 11.16. (a) Rs = [I - (l - R)]


11.18. (a) 0.999926 (b) 0.99 (e) 0.68

ll.19. (a) Rs = (1 - (1 - R 4 )(1 - R 8 )(1 - Rd](I - ( 1 - R.t)(I - Rs)]


(b) Rs = 1 - Rc( l - R..)(l - Rs)
- ( l - Rc)(I - RARA ~ ! - RsRB)
11.22. Mx(t) = -2h[ l /(1 - l) - l /(1 - 2A)]

APIT LO 12

12. l. (a) 11 = 392 (b n = 5000 12.2. (a) 0.083


12.3. (a) 0.9662 (b) n = 24 12.4. 0,1814
12.5. (a) 0,1802 (b) 11 = 374 12.6. (a) O,l 112 (b) 0,1915
12.7. g(r) = (15.000) - (r - 60r + 600r) O :5 r :5 10
1 3 2

= ( 15.ooo)- 1(-r 3 + 60r 2 - 1200r + 8000). 10::;; r::;; 20


12.9. (a) g(s) = 50( 1 - e- 0 -2c+ 0 011 J. si - 0,0 1 ::;; :5 0,01
= 50[e - 0,2C - O.Ol) - e - 0.24'+0.0 1) ]. s > 0.01

12.12. j(s) = ~[<l)(s ~ 99) - <ti(s -/ 01)]


12.13. (a) /l1P2 ( l - Pi -
P2 - Pi
1 -(-1- P2)~ - 1]
1 - P
(b) 0.055

APIT LO 13

13.3. P(M = m) = (1 - (1 - prJ - [I - (1 - p)"' - 1]"


13.4. (a) 0.13 (b) 0.58 13.5. (a) 0,018 (b) 0.77
1
13.6. 0,89 13.8. (a) ( 1 - 2r) -
Respue las a problema. sele cioaad~ 367

APITULO 14

V(L2)
14.1. 14.2. e= l/2(n - 1)
V L 1) + V(L2)
14.3. 16.1 14.4. - 1 - n(Lj. 1 In X 1

14.6. (a) 1/(T - t0) 14.7. (a) -1- ln ( -11-)


To - lo n- k
14.9. (a) kfL~= 1 n; 14.13. 0,034
14.14. - 0,52 14.15. r/X
14.16. n/ J- 1 xr
14.29. Distribucin Fcon (1 , 1) grados de libertad
14.31. (- 4/5) 14.32. 8,6

APITU O IS

15.1. (a) 1 - <l>(c : Jn) (b) e= - 2,33 Yn + JAo

15.2. (a) <1>[ + : 0 - Jn] - <l>[-c +; 0


- JnJ
(b) e = 2 575un - 111
fCJ e- "'(nlf
15.3. (a) ~~o k ! , donde [ nC] = mayor entero S nC. (e) 0,3233

15.7. (a) (l - p)4 [5p + (1 + 25p 5 )(1 - p) + 55p 4 (1 - p) 2


15.8. 15 + 60p3 ( 1 - p) 3 + 1Op 2 (1 - p) 3]

15.9. (a) (k- 1) (b) Igual 15.12. (a) sena/sen(ia)


Indice de materia

Aproximacin de eMoivre-Laplace para esigualdad de Boole, 20


la di tribucin binomial, 257 De igualdad de hebyshev, 146, 147
Arbol, diagrama de, 41 esviacin e tndar de una variable alea-
toria, 1 8
B ndad de ajuste de prueba , 336 De viacionc normale , 287
prueba de aju le de di tribuciones asin- Distribucin binomial , 64
ttica , 338 aproximacin no.n nal a la, 255
prueba de una di lribucin especfica, 340, distribu in de Pa cal, y, 179
341 propiedades de, 79
valor esperado de, 122, 136
oeficiente binomial, 27 varianza de, 141
oeficiente de confianza, 312 istribucin binomial negati a, 178
oeficiente de correlacin, 148 Di tribucin de auchy, 213
ejemplo de, 310 Distribucin de Pasca l, 178
evaluacin de, 148 esperanza de, 179
interpretacin de, 149, 150, 151 varianza de, 179
propiedade de, 148 y la distribucin binomia l, 179
mparacin entre varias distribucione Distribucin d Poisson, 164
205 propiedad reproductiva de, 226
onfiabilidad, 233 valor ' perado de, 164
de los sistema , 243 varianza de, 165
y la funcin de distribucin acumulativa, y la distribucin binomia l, 165
234 y la di tribucin multinomial, 232
y la longitud de vida esperada, 237 Distribucin de Rayleigh, 228
y la ta a de falla, 234 Distribucin de Wei bull, 242
Conjunto, 3 aplicacin de, 242
complemento de, 4 e peranza de, 243
identidad de, 5 varianza de, 243
interseccin de, 4 Distribuci n exponencial, 195
nmero de elementos, 6 propiedadc de, 196
subconjunto, 4 valor e perado de, 197
unin de, 4 y la di tribu in exponencial con dos pa-
universa l, 4 rmetro , 230
vaco, 4 y la distribucin Gama, 229
onvergencia en probabilidad, 253 y varianza de, 197
ovarianza, 148 Distribucin Fde nedecor, 322
368
lndi e ]69

Distribucin Gama, 201 , 229 bivariada normal. 206. 207


valor e pcrado de, 202, 203 exponencial, 195
varianza de, 202, 203 F de nedecor, 322
y la di tribucin de Poisson, 202 gama, 201
y la di tribucin exponencial , 201, 229 geomtrica, 175
Di tribucin geomtrica, 175 hiperge mtrica 29, 180
- propiedade de. 177 log-normal, 21
valor e pcrado de, 176 Maxwell , 228
va rianza de, 176 multinomial, 181
Di tribucin hipergeomtrica , 29, 180 normal, 187
alore peradode, 181 Pascal, 178
varianza de, 1 1 Poi on, 164
y la di tribu in binomial , 181 Rayleigh, 228
Di tribucin 1 g-normal, 213 1 de tudent, 313
Distribu in de Maxwell, 228 unifom1e, 76, 102
Distribucin multinomial , 18 l Wei bull , 242
valor c~pera do de 182 i tribucione mixtas, 75
varianza de. 182
y la distribucin de Poisson. 232
En ayo de Bernoulli, 64
Distribucin norma l, 187
numeracin , mtodo de, 24
aproximad n a la di tribucin binomial,
adicin , principio de, 25
2SS, 257
combinaciones, 26
bivariada, 06
multiplicacin, principio de, 24
e tandar11u l1, 190
permutacione , 25, 30
funcin lin 11 de, 190
Err re tipo 1 y tipo 2, 326
propiedad r productiva de. 226
scogencia al azar de un objeto, 23, 29. 39
uma de va11ablcs aleatoria independien-
E ogencia de un punto al azar en un inter-
tes, 225
valo, 76
tabulacs n. 191
Espacio muestra!, 56
truncada, 2C
Espacio mue tral, el,
valor cspcn do de. 190
ejemplos de, 9
varianza d , 190
fnito , 21
Di tribucion 1 ormal bivariada. 206. 207
particin de, 38
Distribucin 1 de tudent, 313
E pacio muestra! finito, el , 21
propicd d de, 313
y resultado igualmente probable , 22
Di tribucion 11 uncada, 20
E peranza condicional , 152
Distribuci n unifo rme, 76
E tadgrafo. 277
bidimcn 1m al, 102
E timacin, 291
unidimen i< nal, 76, 77
E timacin de mxima vero imilitud, 29 ,
valor pe do de, 122
300
varianz de, 143
Distribucion r. 203
por el parmetro de una di tribucin ex-
ponencial, 300, 304
di tnhucion 1aina, y la, 203
por el pa rmetro de u na di tribucin gama,
di tribucin normal . y la 206, 227
305
grand gra o de libertad , para, 207
por el parmetro de una di tribucin
propi dad r productiva, de, 227
normal. 302
valor esperado de, 204
por el parmetro de una di tribucin
varianza de, 20
unifo1me, 302, 303
Distribucione.. binomia l. 64 por la ecuacin de probabilidad. 301
70 lndict

propiedades, 300 propiedades de. 73, 74


propiedades asintticas, 306 uncin de di tribucin acumulativa con
E timacin de parmetro , 291 junta, 100
estimador consistente, 292 uncin de operaci n caracterstica, 326
estimador insesgado 291 para probar el parmetro P de una va-
estimador de mxima probabilidad, 298, riable aleatoria con di tribucin bino-
299 mial, 334
estimador de cuadros mnimos, 308 para probar la media de una distribucin
estimador inexistente o inse gado, 323 normal con varianza conocida, 326, 329
e timador in e gado de varianza mnima, para probar la media de una di tribucin
292 normal con varianza desconocida , 336
mejor estimador lineal, 293 y escogencia del tamao de la muestra, 331
Estimador, 291 Funcin de regresin, 154
inse gado, 291 aproximacin de los mnimos cuadrados,
xperimento aleatorio, 7 158
Experimento no deterrnin tico, 7 lineal, 156
Funcin de riesgo, 234
Factorial, 26 uncin gama, 199
alla, ta a de, 234 Funcin generadora de momento, 218
Falla , ley exponencial de, 2 7 de una di tribucin binomial, 219
y la di tribucin de Poisson, 240 de una distribucin x2, 221
Fallas, ley Gama de, 241 de una di tribucin de Poisson, 219
Falla , ley nonnal de, 236 de una distribucin exponencial, 220
rmula de tirling, 256 de una d i tribucin gama, 221
recuencia relativa, 12 de una distribucin geomtrica, 223
Funcin de densidad de prob'dbilidades, 68 de una distribucin normal, 220
del cociente de variables aleatorias inde- de una di tribucin uniforme. 219
pendientes, 113 de una funcin lnea! d:i una variable alea-
conjuntas, 97 toria, 224
marginal, 101 de erie de variable aleatoria , 229
de la suma de variables aleatorias inde- de urnas de variable aleatorias indepen-
pendientes, 266 dientes, 225
del mximo de la muestra, 280 de propiedad de uni idad, 224
del mnimo de la mue tra, 280 y momento, 222
del producto de variables aleatoria inde uncione de variable aleatoria , 83
pendiente , 112, 112 caso bidimen ional, 108, 109
del recorrido de la muestra, 283 ca o continuo, 8, 89
Funcin de den idad de probabilidad condi- caso discreto, 86
cional, 104 funcin montona, 90
Funcin de densidad de probabilidad con valor esperado de, 126, 127. 132
junta, 97
Funcin de den idad de probabilidad mar r.ifico de Venn, 5
ginal, 101 Grande nmeros, ley de, 252
uncin de di tribucin, 75
Funcin de distrbucin a umulativa, 71, 89
caracter tica de, 72 Hiptesi alterna, 324
funcin de densidad de probabilidad, y la, Hipte is, docimasia de, 324
73. 74,97 parn la media de una variable aleatoria
grfica de, 72, 73 con di tribucin normal, 329
lndkl '71

nivel de ignificacin, 329 Probabilidad n condiciona l, { , '
regin crtica, 332 Pr e o de Po1ss n, 170. 174
H ipte is nula, 324 a phCll iones de, 173, 174
upuesto de, 17 1
Integral de convolucin, 265 Producto rt iano, 6
Intervalo de confianza, 311 Promedi mue tral, 27
para el parmetro de una di tribucin bi- Propiedades reproductivas, 225
nomial, 317 de la distribucin x2 , 227
para la media de una distribucin normal de la distribucin normal. 226
(varianza conocida), 312 de la distribucin de Poisson, 226
para la media de un a distribucin normal Punto mue tral, 278
(.varianza descon ida), 314
para la varianza de una distribucin nor- Recorrido de la mue tra, 283
mal, 317 Regularidad e tadi tica , 13
Resultados igualmente probables, 22
Jacobiano de una transformacin, 109
eries geomtricas, 63
Mximo de la muestra, 304 uce os, 10
Mecnica, analoga con, 61, 70, 124, 139, 141 complementario , 11
Mnimo de la mue tra , 278, 280 independientes, 42
y la distribucin exponencial, 281 mutuamente excluyente , 11
Modelos matemtico , 1 Suce o equivalentes, 58, 84
Momento de una variable aleatoria re pecto uce o independientes 42, 44
de su e peranza, 140 Suce os mutuamente excluyente 11
Muestra, tamao de, 327 Sucesos mutuamente independientes, 46
Muestra aleatoria de una variable aleatoria . urna de variable aleatorias independientes.
275 265, 269
generacin de una mue tra aleatoria, 285,
287 Teorema de Bayes, 40
Mue tras, 273 eorema de la multiplicacin de probabili-
coeficiente de correlacin, 311 dades, 37
mximo de, 278 generalizaci'n de, 52
media de. 277 Teorema del binomio, 27
mnimo de, 278 forma generalizada, 28
recorrido de, 278 Teorema del lmite central, 259, 260
varianza de, 278, 283 Teorema. Gau s-MarkofT 310
Tnrn formacin integral, 285
mero aleato rio , 284
Valor esperado de una variable aleatoria,
Orden e tad tco, 278 120. 122. 124
a proximacin para 143
Par.metro de una di tribucin, 120 de la urna de variables aleatorias, 132
Probabilidad 13 de una funcin de una variable aleatoria,
axioma para, 14 126, 132
condicional, 36 de una run in lineal , 133
inducida. 59, 97 del producto de variables aleatoria inde-
teoremas bsico , 15, 16 pendientes, 134
Probabilidad condicional, 34 del valor c-0ndicional esperado, 152
Probabilidad inducida, 59, 86 propiedades del valor e perado. 132
17 hui n

\al111'1n.1l11! 1k una \,maJ1k al~ aio riu. l_O \ .111ahll ab1to11<1 cnnllnua. h7
\'ariahli.: alcatn1 ia 55
\ a11ablc' alca tona-. 111dc~nd11:11lc-.. 1O , 1Oh
ontinua. 67
nncrio dc. 106
discreta, 60
distrihuci 'rn de probabilidad, 61
'
\ aria bles alca1oria" 11-dimcrhionalc-.. 11
e pacio muestra! <l '. 56 \ arianza d1.: una \'ariabl' aleatoria. l lX
no correlacionada. 149 apro.ximacin a. 143
sucesiones de, 229 evaluacin de, 139
Variable aleatori;i bidimensi nal. 95 propiedades de. 140
continua. Q6 de la suma de variable alcatoriao; indl
di creta, 96 pcnd ien1es. 141
normal. 206 \ a ri;111za muestra!. 273

Вам также может понравиться