Академический Документы
Профессиональный Документы
Культура Документы
Y APLICACIONES ESTADISTICAS
Paul L. Meyer
Departamento de Matemticas
Wash ington Stale University
Con la colaboracin de
Germn Ardila ull ar
Departamento de Matemticas y stadistica
niversidad acional de olombia
Este texto est destinado para un curso de un semestre o para dos cursos trimestrale de in-
troducin a la teora de la probabilidad y algunas de su aplicaciones. El prerrequi ito (.'S
un ao de clculo diferencial e integral. o se supone conocimiento previo de probabilidad
o estadstica. En la Washington tate University, el curso para el cual este texto ue desarro-
llado ha ido enseado durante varios aos y, principalmente. a estudiantes gradundose en
ingeniera o en ciencias naturales. La mayora de tales estudiantes slo pueden dedicar un
semestre al estudio de esta materia. Sin embargo. como esos estudiantes estn fami liarizados
con el clculo. pueden empcwr dicho estudio ms all del nivel estrictamente elemental.
Mucho temas matemticos pueden ser presentados a diversos grados de dificultad. y
esto e realmente cierto de la probabilidad. En este texto e pretende aprovechar la ventaja
que suponen lo conocimientos matemticos del lector. sin sobrepasarlos. e usa en l un
lenguaje matemtico preciso. pero se tiene cuidado de no llegar a profundizar demasiado
en detalles matemticos innecesarios. Este no es ciertamente un libro de cocina. Aunque
e presentan y exponen varios conceptos de una manera informal, las deftnicione y los teo-
remas son enunciados cuidadosamente. Si no es po ible o deseable una demostracin deta-
llada de un teorema, al menos se da un bo quejo de las ideas ms importantes. Una de las
caracteristicas distintivas de este texto son las ob ervaciones que siguen a la mayora de
los teoremas y delinicione ; en ellas, el resultado particular o el concepto presentado es exa-
minado desde un punto de vista intuitivo.
Debido a la restric.cin autoimpuesta de escribir un texto relativamente breve sobre una
materia que abarca una extensa rea, hubo nece idad de seleccionar en relacin con la in-
clusin o exclusin de ciertos temas. Parece ser que no hay manera obvia de resolver este
problema. iertamenle, yo no sostengo que, para algunos de lo temas excluidos, no se podra
haber encontrado sitio; ni pretendo que ningn material poda haber sido omitido. Sin em-
bargo. e ha hecho hincapi en gran parte en las nociones fundamenla le , presentada con
detalle considerable. Solamente el captulo 11. obre confiabilidad, puede ser considerado
artculo de lujo; pero, aun aqu, creo que las nociones asociadas con problemas de confia-
bilidad son de inters para muchas personas. Adems, los conceptos de confiabilidad son
un medio excelente para ilustrar muchas de las ideas presentadas anteriormente en el li br9.
Aun si se piensa que la extensin ha sido limitada por el tiempo disponible, se ha logra-
do una seleccin amplia y razonable de temas. Una ojeada al Indice general muestra de ma-
nera evidente que unas tres cuartas partes del tex to trata de temas probabilstico mientras
la cuarta parte est dedicada a una exposicin de inferencia estadistica. Aunque no hay nada
de extraordinario en esta divisin particular del nfasis entre probabilidad y e tadstica,
creo que un conocimiento profundo de los principios bsicos de la probabilidad es imperati-
vo para una com.prensin propia de los mtodos estadsticos. Idealmente, un curso en pro-
babilidad debera ser seguido por otro en teora estadstica y metodologa ; sin embargo,
como indiqu anteriormente, la mayora de los estudiantes que toman este curso no tienen
tiempo para dos semestres de exposicin con estas materias y. por tanto. me sent obligado
l'rl'fiaclo ~11
no lo por la paciencia mantenida durante el esfuerzo ino tambin por dejarme y llevarse
a nue tros do hijo a visitar a sus abuelos durante dos cruciales meses de verano, durante
los cuales pude convertir nue tro hogar en un taller de ordenado pero tranquil , del cual
cm rgi milagro amente la ltima, final , versin de este libro.
En vista del considerable nmero de comentarios favorable que he recibido tanto de estu-
diantes como de profesores que han utilizado la primera edicin de e te libro se han hecho
en el relativamente poco cambios. Durante mi propio repetido u o del texto he encontrado
que su organizacin bsica y el nivel general de presentaci!l (p. ej. : la mezcla de argumento
matemticos riguro os con pre entaciones y ejemplos ms informales) on los ms apropia-
do para el tipo de e tudiante que toma este curso.
Sin embargo, e han hecho varios cambios y adicione . n primer lugar se hizo un esfuer-
zo para eliminar varias erratas de imprenta y otros errores que aparecieron en la primera
edicin. 1 autor est muy agradecido a los muchos lectores que, no . lo de ubrieron al-
gunos de ellos, sino que e interesaron lo uficiente como para indicrmelo .
n egundo lugar e intent hacer m clara las relaciones entre varia di tribucione
de probabilidades, de modo que el estudiante pueda conseguir una comprensin mayor de
cmo usar varios mocl.elo probabil ticos para aprollimarlos entre s.
inalmente, algunos problemas nuevos han sido aadidos a la ya larga lista incluida en
la primei;a edicin.
1 autor desea agradecer nuevamente a Addison-Wesley Publishing ompany u coo-
peracin en todo los aspectos que condujeron a esta nueva edicin .
P111/ma11, Washi11g1011 P. L. M .
lndic general
Ahora con ideremos la idea importante de combillar conjunto dado con el fin
de formar un nuevo conjunto. Se consideran dos operaciones bsicas. Estas son
paralelas, en ciertos a pectos, a las operaciones de suma y multiplicacin de
nmeros. Supongamos que A y B son dos conjuntos. Definamos C como la unin
de A y 8 (algunas veces llamada la suma de A y de B) de la manera siguiente:
C = {x 1x e A o x e B (o ambos)}.
cribimos C = A u B. As C est formado por elementos que estn en A , o en B,
o en ambo.
Definimos D como la interseccin de A y B (algunas veces designado como
el producto de A y B) como sigue:
D = {xjxeA y xeB}.
Escribamos esto como D = A ri B. Es as como D po ee todos los elementos que
estn en A y en B.
Finalmente presentamos la idea del complemento de un conjunto A como
sigue: el conjunto designado por A, formado por todos los elementos que no
1.2 lntrodun: 111 11 ' " ' conjunto ~
Au B AnB
o A
FtG RA 1.1
Las operaciones an teriores de unin e in ter eccin defin idas ju ta mente para
d( s conJUnlo. pueden e tender e de una manera ob ia para cualquier nmero
1111110 de conjunto. s definimos A u B u como A u (8 v C) o (Av B) u .
que es el mi smo. como fci lm ente e puede verificar. De igual manera. definimos
1 11 B 11 como A ri (B ri C) o (A ri B) 11 que. tambin . puede ver ificar e que
~nn igua les. Y es evidente que p demos c ntinuar e as con. trucciones de conjun-
tos nue o con cualquin nmero finito de conjunto dados.
firmbamo . que ciertos conjunt s eran lo mi mo. por ejemplo A 11 (8 ri C)
(A n B) n . Re ulta que hay un nmero de tale conjuntos eq11iva le111 es. a lgu-
nos de los cuales e indican ms adelante. i recordamo que dos conjuntos on
iguale siem pre que contengan los mis mo elementos. es fcil verificar que 1
1.:nunciados establecidos on crdadero . :: 1 lector debe convencerse por . mismo
l'On ayuda de los diagrama , de Venn .
(a) A u B = Bu A, (b) A n B = B 11 A.
( 1.1)
(e) A u (8 u ) = (A v B) v C. (d) A n (B n ) = (A 11 B)n C
o referimo a (a) y (b) como ta propiedade conmutativas, y (c) y (d) como las
propiedade asocial ivas.
Hay otro conjuntos identidades que contienen unin, interseccin y comple-
mentacin. Lo m imp rtantes de esto e indican a continuacin. n cada ca o ,
su va lidez puede verificar e con ayuda de un diagrama de Venn.
6 lnlroduc in a la probabilidad 1.2
(e) A u (B n ) = (A u B) n (A u ).
(1) A n (8 v C) = (A n B) v (A n },
(g) A n ~ = ~. ( l.2)
(h) A u~= A_:_ (i) 0 u B) = A n B_
(j) (A n B) = A u B, (k) A = A.
Observamos que (g) y (h) indican que ~ se comporta entre lo conjuntos (con
respecto a ta opcracione u e n) como lo hace el nmero cero entre nmeros
(con respecto a tas operacione de suma y multiplicacin).
Para lo que sigue e necesita una construccin adiciona l de un conjunto.
dados do (o m ) conjunto .
ntonces A x B ={ (1, 1). (1.2)..... (1.4). (2. 1)..... (2.4). (3.1) ..... (3.4)}.
1.S Sucesos
(1)05}~51.
(2) fA = 1 i y lo si A ocurre cada vez en las /1 repeticiones.
(3) fA. = O i y lo i A nunca ocurre en la n repeticiones.
(4) Si A y B on do sucesos que e excluyen mutuamente y si fAU 8 es la
frecuencia relativa a ociada al suceso A u B. entonces fA un = fA + }8.
(5) .f.,.. ba ada en las n repeticione. del experimento y con. iderada para unu
uncin de n, converge en cierto entido probabil tico a P(A)
cuando 11
Observacin : la propiedad (5) anlerior obviamente esl< indicada de una manera vaga
en e te momento. Slo po teriormcnte ( eccin 12.2) podremo precisar m e 1a idea. Por
ahora indiquemos simplemente que la Propiedad (5) encierra la notacin ba tante intu itiva
de que la frecuencia relati a basada en un nmero creciente de observaciones tiende a es-
tabilizarse en la proximidad de un valor delinitivo. E to no e lo mi mo que el concepto
corriente de convergencia que se encuentra en otra parte en matcm;'1ticas. De hecho, como se
indic aqu. esta no e del todo una conclusin matemtica. sino simplemente una realidad
emprica.
La mayor parte de nosotros intuitivamente e tamo conciente de este fenmeno de es-
tabilizacin au nque puede ser que nunca lo hayamo verificado. Hacerlo requiere una
cantidad considerable de tiempo y paciencia, ya que requiere un gran nmero de repeti-
ciones de un experimento. Sin embargo, alguna veces podemo ser ob ervadores inocentes
de este fenmeno como lo ilustra el siguiente ejemplo.
(1) O ~ P(A) ~ l.
(2) P(S} = l. (1.3)
(3) Si A y B son uce os q~e se excluyen mutuamente, P(A v B) = P(A)
+ P(B).
(4} Si Al A 2 , .. , An . . . son suce o que e excluyen mutuamente de
par en par, entonce
Ob.servacin: tendremos ocasin de ver ms tarde que el recpro o del teorema anterior
1111s verdadero. sto es, si P(A) = O, en genera l no podemos concluir que A = ~. porque
h, situaciones en que asignamos probabilidad cero a un uceso que puede ocurrir.
Observacin: este e un resu ltado muy til. porque indica que cada vez que deseamos
ra lcular P(A) podemos calcular P(A) en su lugar y obtener el resultado de cado por sus-
lrnccin. Veremo despus que en muchos problemas es ms fcil calcular P( que P(A).
AnB AnB
FIGURA 1.2
A e cribimos
Au B = A v (B " ),
B = (A {"'\ B) V (B {"'\ A).
16 lntroduc:cin a la probabilidad UI
Por lo tanlo
P(A v B) = P(A) + P(B f"\
Observacin : una extensin obvia del teorema anterior se sugiere por s mi ma. Sean
A 1, . . . , At k sucesos cualesquiera. ntonces
t
P(A V A2 V . .. V At) = L P(A1) - L P(A ('\AJ)
1 i<J= 2
(1.7)
PROBLEMAS
1.11. Sean A, B. y C tres sucesos asociados con un experimento. xprese las siguiente
proposiciones verbales en notacin de conjuntos.
(aJ Al menos uno de los suce os ocurre.
(b) Exactamente uno de los- ucesos ocurre.
(c) Exactamente dos de los sucesos ocurren.
(d) No ocurren ms de do sucesos simultneamente.
1.12. Demuestre el teorema 1.4.
20 lntrodu(cin a la probuhilidnd
l!n este captulo nos ocuparemo slo de los expcr.irnentos para los cuales el
pucio mue tral S consta de un nmero finito de elementos. s decir, sup nemos
qtH" S e puede e cribir como S = {a 1, a2 , .,a~}. Si no referimo a lo ejemplos
d~ espacios mue trales de la eccin l.4, observamos que S., S 2 , S 3 , S4 , S 5 , S 1
S 11 son todo finitos.
A fin de caracterizar P(A) en e te modelo consideraremo primero el suceso
qu est constituido por un solo resultado , llamado alguna veces un uce o efe-
111111/al, digarno A = {a;}. Procedemos como sigue.
A cada uno de los sucesos elementale {a;} asignamo un nmero p; llamado
1.1 probabilidad de {a}, que sati face la condiciones iguiente :
(a) p; ~ O, i = 1, 2, ., k
(b) p, + P2 + + Pk = l.
Pue to que {ai} e un uce o, esta condiciones deben e tar de acuerdo con
las po tulada para la probabilidades de suce o en general, como se hizo en
la ecuacin (1 .3). Es muy sencillo verificar que e as.
A continuacin , supongamos que un suce o A est con tituido por r resultados,
r s; k, digamo
A = {a 1,, aiz - ., a1.},
l'll donde j.,h , ., j. repre enta cualquier ndice r de 1, 2, ., k. Por lo tanto,
'e deduce de la ecuacin (l.3), Propiedad 4. que
P(A) = PJ, + Ph + + P.. (2.1)
Para resumir: la asignacin de probabilidades p1 a cada uno de lo sucesos ele-
mcntale {a;}, sujeto a las condicione anteriores (a) y (b). determina de un modo
t'in1co P(A) para cada uno de los sucesos A e: S, en donde P(A) est dado por
11 e uacin (2.1).
A fin de evaluar las Pi> e deben hacer alguna upo iciones respecto a lo
1 sultados individuales.
FJFM PLO 2.1. Su pongamos que slo son po ibles tre resultados en un experi-
111cnto, digamos a, a 2 y a 3 . Adems upongamo que la ocurrencia de a 1 es do
v ce m probable que la de a 2 , la cual, a u vez, e dos veces ms probable que a 3 .
21
2.2
La upo icin que m comnmente e hace para e pacio mue trates finito
e que todos los re ultado son igualmente probables. De ninguna manera esta
upo icin puede dar e como un hecho; debe ju tlicar e cuidadosamente. Hay
muchos experimento para los cuales e garantiza tal upo icin, pero tambin
hay muchas ituacione experimentales en la cuale era un error hacer tal su-
posicin. Por ejemplo, era muy poco realista uponer que es tan probable no
recibir llamada telefnicas en una central entre la 1 a.m. y 2 a.m. como entre las
5 p.m. y la 6 p.m.
Si lo k re ultados son igualmente probables, se deduce que cada p1 = 1/k.
Porque la condicin p 1 + + Pk = 1 llega a er kp1 = 1 para todo i. De e to
se deduce que para cualquier uce o A que conste de r resultado . tenemo
P(A) = r/k.
JEMPLO 2.3. Se lanza una moneda normal. Sea A el suceso: {aparece una
cara}. Para evaluar P(A) un anli is del problema podra ser de la manera siguiente.
El e pacio mue tral es S = {O, l, 2}, en donde cada uno de los re ultado repre enta
un nmero de cara que ocurren. Por lo tanto P(A} = 3' ! Este anlisi es obvia-
mente incorrecto puesto que en el espacio muestra! con iderado anteriormente
todos lo resultados no son igualmente probables. A fin de aplicar el mtodo
anterior deberamo considerar en u lugar, el espacio muestra! S' = {Ce es,
se, SS}. En este espacio mue tral todos to re ultado on igualmente probable y.
por lo tanto. obtenemo para la so lucin correcta a nue tro problema P(A) = i = t
.2 R~"ultado-. i:ualm :nlc probablt>~ 2.l
Pmlnamos empicar correctamente el espacio mue tral S como sigue: los resultad s
O y 2 son igualmente po ible , mientras que el re ultado 1 es probablemente el
doble de cada uno de los otros. Por lo tanto, P(A) = ! , lo cual concuerda con
1.1 re puc ta anterior.
(b) Escoger al azar dos objetos entre objetos ignifica que cada uno de los
pares de objeto ( in e n iderar el orden) tiene la misma probabilidad de er es-
cogido que cualquier otro par. Por ejemplo, i debemos elegir do objeto al azar
de {a 1 a2 , a 3 , a4), y luego obtener a 1 y a 2 es tan probable como obtener a 2 y a 3 etc.
I! ta afirmacin no lleva inmediatamente a la cue tin de cumos pares dife-
r nte hay. Supongamos que hay K de tales pare . Entonces la probabilidad de
cada par era 1/ K. Muy pronto aprenderemo a calcular K .
(c) E coger al azar n objetos (n ~ ) entre N objetos ignifica que cada
n-tuplo, a;, a;,, , a;". tiene tantas probabilidade de ser e e gido como cual-
quier otro n-tuplo.
F10 RA 2.1
Observadn: obviamente este principio puede extender e a cualquier nmero de proce-
dimiento . i hay k procedimientos y el i-simo procedimien to se puede hacer de 111 manera .
= l. 2.. . .. k. entonco el procedimiento que consiste en 1. eguido por 2, .. . . seguido por
el procedimiento k puede hacer e en n 1 n 2 nt manera .
Mtodos d enunwracibn 23
FIGURA 2.2
Observacin : tambin este principio puede generalizarse como iguc: i hay k procedi-
miento y el i- imo procedimiento se puede hacer en 111 manera . i = l. 2. . . .. k. entonces el
nmero de ma OP.ras como podemos hacer el procedimiento 1, el procedimiento 2 o o el
proced imiento k est dado por 11 1 + 11 2 + + 11l, suponiendo que lo procedimiento no
e pueden reali za r conj untamente.
. Permutaciones
(a) upongamo que tenemos n objetos diferente . De cunta maneras,
digamo nPn, e pueden agrupar (permutar) e to objetos? Por ejemplo, si tenemos
los objeto a, b, y e, podemo con iderar la guientes agrupacione : abe, acb,
bac, bca, cab y rba . As la re puesta es 6. En general, consderemo el esquema
siguiente. Agrupar los n objetos e equivalente a ponerlos en una caja con n com-
partimento , en algn orden especfico.
la caja se puede llenar de n(n - l)(n - 2) l manera . ste nmero ocurre tan
a menudo en matemtica que presentamo un nombre y un mbolo e peciales
para l.
Crl = n!
(n - r)t
1 .,, nmero aparece en mucho ' contextos en matemtica y, por lo tant , se emplea
un : mbolo especial para de ignarlo. Escribiremos
(2.2)
Los nmero (~) tienen mucha propiedades interesante de las cuate lo dos
mencionaremos aqu. (A no er que se indique otra cosa. suponemos que 11 e un
l'ntero po. itivo y r un entero, O ~ r ::s; n.)
(a) G) = C: ,.) .
(b) C) C=:) (ll ~ ').
= +
~) =
(k
11! = 11(11 - l)(n - k + I)
k!(11 - k)! k!
observamos que la ltima expresin e significativa i 11 es cualq11ier nmero real y k cual-
quier entero no negativo. As,
-3) = (-3)( - 4) .. -( - 7)
( 5 5! ,
y a ucesivamente.
Utilizando esta versin extendida de los coeficientes binomiales. podemo indicar la for-
ma e11eralizada del teorema del binomio:
(1 + x)" = k :~ o (n) Y!
k
sta erie e ignificativa para cualquier 11 real y para todas las x tales como lxl < 1. bser-
vemo que si /1 es un entero positivo, las series infinita se reducen a un nmero rinito de tr-
minos puesto que en ese caso (:) = O si k > 11.
JEMPL<> 2.7. (a) Cunto comits de tres miembro se pueden elegir con
ocho persona ? Pue to que do comits on el mi mo i e tn formados por los
mi mos miembro ( iJl con iderar en el rden en el cual fueron elegido ), tene-
mos m = 56 comits posible .
(b) {,Cuntas eale con tre bandera pueden obtener e con ocho banderas
diferente ? te problema e parece mucho al anterior. in embargo, aqu el orden
con tituye una diferencia, y, por lo tanto, obtenemos 8 !/ 5 ! = 336 eales.
(c) Un grupo de ocho personas consta de cinco hombre y tres mujerc . 'un-
tos comits que consten de dos hombre exactamente se pueden formar? Aqu
debemos hacer dos cosas: escoger dos hombre (entre cinco) y escoger una mujer
(entre tres). As obtenemo el nmero pedido W= 30 comits. m
(d) Ahora podemos verificar una propo icin formulada anteriormente, de-
camos que el n_ mero de ubconj unto de un conjunto que tiene n elementos
es 2" (contando el conjunto vaco y el conjunto mismo). Simplemente clasifica-
mos cada elemento con un uno o con un oero, sea que el elemento vaya a ser in-
cluido, o excluido en el ubconjunto. Hay dos maneras de cla ificar cada uno
de lo elementos, y hay n elementos. Luego el principio de multiplicacin no
dice que hay 2 2 2 2 = 2" eta ificacione po ibles. Pero cada una de las
cla ificaciones en particular repre enta una eleccin de un ubconjunto. Por ejem-
plo, (1, 1, O, O, O, .,O) con. istira en el subconjunto formado por a 1 y a 2 pre-
ll>lodo\ d ~munwrncin
' 'l'I
(2s0 )(8s0 )
(110) .
1cdiante logaritmos de factoriales (que estn tabulados) se pucd evaluar lo
rior y e igual a 0,021.
.1111
EJEM PLO 2.8. Generalicemo el problema anterior. Sup nga e que tenemos
artculo . Si elegimos n de e o al azar. stn u titucin , hay (n') mue tra posi-
bl s diferente , toda las cuate tienen la misma probabilidad de ser escogida .
Si lo N artcu o e tn formados de r 1 A y r2 B (con r 1 + r 2 = ). entonce la
probabilidad de que los n artculo elegido contengan exactamente s 1 A y (n - si)
11 e t dada por
(::) e~ SJ
------
2
(1t1)
(La anterior e llama probabilidad hip!!_yeom1rica y se encontrar de nuevo.)
11 !
PROBLEMAS
2.2. En una habitacin 1O personas tienen insignias numeradas del 1 al JO. e eligen
trc per ona al azar y se les pide que dejen la habitacin inmediatamente y e anotan los
nmeros de la in ignias.
(a} i. 'ul e la probabilidad de que el nmero menor de la insignia sea 5?
(b) i.Cu l e la probabilidad de que el nmero mayor de la insignias sea 5?
2.3. (a) Supngase que e e criben Lre dgitos 1. 2 y 3 en un orden aleatorio. 'ul e
la probabilidad de que al meno un dgito ocupe u lugar propio?
(b) Lo mi moque (a) con los dgito 1, 2, 3, y 4.
(e) Lo mismo que (a) con los dgitos 1, 2, 3, , n. [Indicacin: usar (1.7).]
(d) Di cutir la respuesta de (e) sin es grande.
2.4. Un c~rgamento de 1500 lavadoras contiene 400 defectuosa y 1100 no dcectuo as.
e eligen a l azar doscientas lavadora (sin sustitucin) y se cla ifican.
(a) i. 'ul es la probabilidad de que se encuentren exactamente 90 artculo defectuosos?
(b) i. 'ul es la probabilidad de que se encuentren al meno 2 artculos defectuosos?
2.5. D iez fichas numerada del 1 al 10 se mezclan en una palangana. Se sacan de la pa-
langana dos fichas numeradas (X, Y) una y otra vez s in sustitucin. ul es la probabilidad
de que X + Y = 1O'!
2.6. Un lote consta de JO artcu lo bueno , 4 con pequeos defectos, y 2 con defecto
graves. e elige un artculo al azar. Encontrar la probabilidad de que:
(a no tenga defecto
(b) tenga un defecto grave.
(e) que sea bueno o que tenga un defecto grave.
32 Espa io\ mu<-strales finilos
2.7. Si del mismo lote de artcu los descritos en d problema 2.6 se escogen dos artculos
( in sustitucin) encuentre la probabilidad de que:
(a) ambos sean bueno , (b) ambos tengan defectos graves,
(c) a lo menos uno sea bueno, (d) a lo ms uno ca bueno,
(e) exactamente uno sea bueno. (f) ninguno tenga defectos grave .
(g) ninguno sea bueno.
2.8. Un producto e arma en tres etapa . n la primera etapa hay 5 lneas de armado.
en la segunda etapa hay 4 lneas de armado, y en la tercera etapa hay 6 lneas de annmlo. De
cuntas maneras puede moverse el producto en e l proceso de armado?
2.9. Un in pector visita 6 mquinas diferentes durante el da. A fin de impedir a los ope-
rad re que sepan cundo inspcccionart, vara el rden de las visitas. i.Dc cuntas manera
puede hacerlo?
2.11. Hay 12 maneras en las cuales un artculo manufacturado puede tener un pequeo
defecto y JO maneras en las cuale puede tener un defecto mayor. ;.De cuntas maneras
puede ocurrir un defecto menor y uno mayor'l 2 defectos menore y 2 defectos n.ayores?
2.13. Supongamos que de N objetos elegimo 11 al azar, con ustitucin. Cul es la pro-
babilidad de que ningn objeto sea elegido ms de una vez? (Suponga que 11 < .)
2.14. De la letra a,b,c,d. e,yf, cuntas palabras de clave de 4 letras se pueden for-
mar si,
(a) ninguna letra se puede repetir?
(b) cua lquier letra se puede repetir cualquier nmero de veces?
2.15. Suponga que (9!) = a y (9/) = b. Expresar (~s) en funcin de a y b. [Indicacin.
1111 calcule las expre iones anteriore para resolver este problema.]
2.16. Una caja contiene e feras numerada l. 2. -. 11. Se escogen dos esferas al azar.
Encontrar la probabilidad de que los nmeros sobre las esferas can enteros consecu tivos si
(a) las esferas se escogen in ustitucin.
(b) las esfera se e cogen con sustitucin.
IG RA 3. 1
34
. t Probabilidad condicional 35
'ada vez que calculamo P(B 1A) e tamos e encialmente calculando P(B)
ml rcs~cto al espacio muestra/ reducido de A en vez del e pacio mue tral origi-
11.t l S. 'onsideremos el diagrama de Venn en la figura 3. J.
C uando calculamo P(B) nos preguntamo qu tan probable e que estemos
'11 B, abiendo que debemos e tar en S, y cuando evaluamo P(B 1 A) no prc-
nnta mos qu tan probable es que e ternos en B, sabiendo que debemo e tar
111 A . ( sto es, fuspacio muestra! se ha reducido de S a A.)
Pronto daremos una definicin formal de P(B 1 A). Por el momento, sin cm bar-
o eguiremos con nuestra nocin intuitiva de probabilidad condicional y e n-
1dcraremo un ejemplo:
3.1.
EJEMPLO e lanzan do dado normale y e anotan los re ultados
( 1, en donde x; es el resultado del i-simo dado i = 1 2. Por tanto, el e pacio
2)
s=
l
111ue tra l S e puede repre entar por el siguiente cuadro de 36 resultado igual -
111 nte posible :
(1 , 1)
(2 1)
(6, !)
(! , 2)
(2, 2)
(6, 2)
(! , 6)
(2. 6)
(6, 6)
Definicin.
dado que P(A) > O. (3. l)
Observacin: i A = S, obtenemos P(B 1SI = P(B n S)/ P(S) = P(B) . puesto que P(S) = J
y B n S = B. A i debe ser. porque decir que S ha ocurrido, lo indica que el experimento
ha sido realizado.
1.1 Probabilidad condl lonal 37
JliMPLO 3.2. upnga e que una oficina tiene LOO mquina calculadoral>.
lgunas de e a mquina son elctricas (E), mientra que otras on manuales
( 1). Adems, alguna on nueva ( ), mientra las otra son u ada (U). La ta-
bla 3.1 da el nmero de mquina de cada categora. Una per ona entra en la
TABl-A 3.1
E M
N 40 o 70
u 20 JO 30
60 40 lOO
ofici na, e coge una mquina a l azar, y descubre que es nueva. ul es la pro-
babilidad de que ea elctrica'? n trmino de la notacin introducida de eam
ca lcular P(E 1N).
lo con iderando el e pacio mue tral reducido (es decir, las 70 mquina
nueva), tenemos que : P(E 1 ) = 48 - ~. Usando la definicin de probabilidad
condicional. tcnemo que:
P(En ) 40/100 4
P(E I ) =- P( )- = 70/ 100 = 7
La con ccucncia ms importante de la defini in de probabilidad condicional
se obtiene e cribindola de la manera iguientc:
P(A n 8) = P(B 1 A)P(A)
lo que equivale a, (3.3a)
P(A n B) = P(A 1B)P(B).
sto a cccs conoce como el reorema de multiplicacin de Rrobabilidadc .
P dem apli ar e te teorema al clculo de la prob,1bilidad de la ocurrencia
imultnea de lo dos uce os A y B.
Por lo tant . nece itamos P(A n B), que puede calcu larse de acuerdo con la fr-
mula anterior. como P(B 1A)P(A). Pero P(B 1A) = ~ mientras que P(A) = 1 Por
lo tanto
P(A n B) =i1Js
38 Probabilidad condi ional e independencia
P[A1 "A2 f'\ ('\ An = P(A 1)P(A i 1A i)P(A3 I A., A 2) P(A. I A., -, A. - 1). (3.3b)
,
(a) A n B - f'J (b) A C 8 (e) B e A (d) inguno de e tos casos
lOURA 3.2
Este re ultado repre enta una relacin muy til, ya que frecuentemente cuando
se busca P(A) puede er dificil calcularlo directamente. Sin embargo, con la in-
for macn adicional de que 8 ha ocurrido, podemos calcular P(A 1B) y enton-
ces usar la frmula anterior.
Ahora P(B 1) = i, mientra que P(82) = P(B 1) = -!:.Tambin P(A 1 Bi) = P(A IB2)
= 0,02, mientra que P(A 1 B3 ) = O04. Poniendo sus valores en la expre in an-
terior obtenemo P(A) = 0,025.
Podemo usar el ejemplo 3.5 para ju tificar otro resultado importante. Su-
pongamos que del dep it e escoge un artculo y e encuentra que e defectuo-
o. i. 'ul es la probabi lidad de que e produjese en la primera fbrica?
U ando la notacin, pre entada previamente, ncce itamo P(B 1 1 A). Podemos
calcular esta probabilidad como una consecuencia de la iguiente. Sean 8 1, Bk
una particin del espacio muest ra! S. Sea A un suceso asociado con S. Aplican-
do la definicin de probabilidad condicional, podemos e cribir:
i = l. 2, .. , k. (3.5)
(0,02)( 1/ 2)
P(Bi 1 A)= (0,02)(1 / 2) + (0.02)(1 /4) + (0,04)(1 /4) = 0,40.
Obs1m:aci11 : otra vez podemo encontrar una analoga con el teorema de Baye . en
qu mica. En k matraces tenemos soluciones de la misma sal. pero de concenlracione dife-
rentes. Supongamo que el volumen total de la solucin es un litro. Indicando el volu men
de la solucin en el i-simo matra1 por P(B,J e indicando la conoentracin de la sal en ese
mi mo matraz por P(A 1 B1) , encontramos que la ecuacin (3.5) da la proporcin de la cantidad
completa de al encontrada en el i- imo matraz.
Lo que realmente descamo aber e P(.-t 1Sw), P(A 1S0 ) P(B 1Sw) y P(B 1S0 ).
Esto es, uponiendo que realmente escogimo un caramelo dulce. Qu decisin
e taramos ms inclinado a hacer? Comparemo P(A 1Sw) y P(B 1Sw). Utilizan-
do la frmula de Bayes tenemo
P(AjB) = P(A r. 8) = ( i) = !.
P(B) ( !) 2
EJ MPLO 3.7. Veamo otra vez el ejemplo 3.2. Con ideremo primero la
tabla siguiente lo con lo valores marginale dado .
E M
~ \..__- --
70
30
60 40 100
Esto es, hay 60 mquinas elctrica y 40 manuale . Del total. 70 son nueva mientra
que 30 son usada . Hay muchas maneras de llenar lo dalo de la tabla, con i -
tentemente con lo totales marginale dado . Abajo anotamos alguna de e as
posibilidades.
E M E M E M
N f6010l
70 N ~ 10 N ~ ?O
U ~ 30 U ~ 30 U ~ 30
60 40 100 60 40 100 60 40 100
(a) (b) (c)
F10 RA 3.4
Es evidente que el mecani mo funcionar i y slo si ambos componentes
funcionan . Por tanto
~~I 12~
~ -~ ---ii4~ 1-I F10 RA 3.5
JEMPLO 3.11. La probabilidad de cerrar cada uno de los rel del circuito
que se indica en la figura 3.5 est dada por p. Si todos los rels funcionan inde-
pendientemente ;,cul es la probabilidad <.11.: que exi ta una corrien te en los ter-
mina les I y D?
Sea A1 el suceso que repre en ta {rel i cst cerrado}. i = 1, 2. 3. 4. ca E el su-
ceso que repre en ta Pa corriente pa. a d1. I .i D }. Por tanto E = (A 1 n A 2 ) v
(A 3 n A 4 ). ( ote que A 1 n A 2 y A 3 n A4 no son mutuamente excl uyente.) As
F1G RA 3.6
EJEMPLO 3.12. Supngase otra vez que en el circuito de la figura 3.6, la pro-
babilidad de que cada uno de los rels est cerrado e p y que todos los rel fun-
cionan independientemente. ul es la probabilidad de que exista una corriente
entre los terminales J y D?
Usando la mima notacin como en el ejemplo 3.11, tenemo que
Para cerrar e te captulo indiquemos una solucin muy comn, pero errnea,
del problema.
EJEMPLO 3.13. Suponga que entre seis perno . . dos . on m corto que una
longitud especfica. Si se e ' cogen dos pernos al azar. cul es la probabilidad de
que lo dos ms corto sean los e cogidos? Sea A 1 el suce o {el i-simo perno ele-
gido e corto}, i = 1, 2.
-48 l'r11babilldad condi ional "' indepcnd ncia 3A
0.2 FIGURA 3. 7
Por 1 tanto P(A n B) = 0,1, P(A) = 0, 1 + 0.3 = 0,4 y P(B) = O,l + OA = 0.5.
n seguida, representemo la di crsa probabilidade por las reas de los
rectngulos corno en la figura 3.8. En cada ca o. la regiones ombreadas indican
el uce o B: en el rectngulo de la izquierda repre entamo A n B y en el de la
derecha A' n B.
0.6
0.2 B'
0.4
B' 0.3
0,4 B
LO
8' 0 .75
B o F10 RA 3.9
A A'
0,6
0.4
0.45 B'
B' 0,3
PROBLEMAS
3.1. La urna 1 contiene x e feras blanca e .\' n>Ja . La urna 2 contiene z cseras blancas
y u rojas. Se escoge una esfera al awr de la urna 1 y se pone en la urna 2. E111011,es se e coge
una esfera al azar de la urna 2. i.Cu l es la prohabilidad de que e ta esfera sea blanca'!
3.2. Do tubos deectuo os e confunden con dos buenos. Los tubos se prueban, uno
por uno, hasta encontrar los defectuosos.
(a) i.Cul es la probabilidad de encontrar el ltimo tubo defectuo o en la . egunda prueba'!
(b) 'ul e la probabilidad de encon trar el ultimo tubo defectuoo en la tercera prueba?
(c) i. ul es la probabilidad de encontrar el ltimo tubo defoctuoso en la cuarta prueba''
(d) Agregue los nmeros obtenido anteriormente en (a), (b) y (c). i. s sorprendente el
resultado"!
3.3. Una caja contiene 4 tubos malos y 6 buenos. Se sacan dos a la vez. e prueba uno
de ello y se encuentra que e bueno. (.Cul es la probabilidad de que el otro tambin sea bueno?
3.4. En el problema anterior lo tubos se verifican sacando uno al azar. e prueba y se
repite el proceso ha ta que se encuentran los cuatro tubo malos. i. 'u l es la probabilidad
de encontrar el cuarto tubo malo,
(a) en la quinta prueba?
(b) en la dcima prueba'!
3.5. upngase que A y B son dos succ os indepcr.diente asociado con un experimento.
Si la probabilidad de que A o 8 ocurra e igual a 0,6, mientras que la probabilidad de que A
ocurra es igual a 0,4, determinar la probabilidad de que B ocurra.
3.6. Veinte artculos, 12 de los cuales son defectuo os y 8 no defoctuosos. e in pc<:conan
uno despus de otro. Si esos artculos se escogen al azar. ;.cu l e.; la Pr<'bab11iu.id de que:
(a) los dos primeros arlculo in peccionado ean defectuoso. '!
(b) los dos primeros artculo inspeccionado sean no decctuoso '!
(c) entre los dos primero artculos in pcccionados haya uno deectuoso y uno no de-
fectuoso'?
3.7. Supngase que tenemos 2 urnas, 1 y 2, cada una con dos caJone. . La urna 1 tiene
una moneda de oro en un cajn y una de plata en el otro. mientra que la urna 2 tiene una
moneda de oro en cada uno de lo CaJones. Se escoge una urna a l azar; y de sta e escoge un
cajf" al azar. La moneda encontrada en este cajn resulta ser de oro. i. ul e la probabilidad
de que la moneda provenga de la urna 2?
3.8. n bolso contiene tre moneda una de las cuales est acuadil con do caras mien-
tras que la otras dos monc<las son normales y no son sesgadas. Se e coge una moneda al
azar del bolso y se lanza cuatro vece en forma sucesiva. i cada vez ale cara, ;,cul es la pro-
babilidad de que st<i sea la moneda con dos caras'!
3.9. n una fbrica de pernos, las mquina A, By C fabrican 25, 35 y 40 por ciento de la
produccin total, respectivamente. De lo que prlducen. 5, 4 y 2 por ciento. respectivamente..
son pernos defectuosos. Se escoge un perno al a1~1r y se encuentra que es defcctUO 'O. , 'ul
es la probabilidad que el perno provenga de la mquina A? 8? C!
3.IO. Sean A y B dos suce o a ociados con un experimento. upngase que P(A) = 0,4
mientras que P(A v B) = 0,7. Sea P(B) = p.
(a) , Para qu eleccin de p son A y B mutuamente excluyente '/
(b) i.Para qu eleccin de p son A y B independiente ?
Problem'I 51
(a) (b)
!GURA 3. 11
3.20. En la figura 3.1 l (a) y (b) e supone que la probabilidad de que cada rel est ce-
rrado es p y que cada rel se abre o se cierra independientemente de cualquier otro. Encon-
trar en cada ca o la probabilidad de que la corriente pase de 1 a D.
52 Probabilidad condi ional e independencia
TABLA 3.2
mero
de fallas o 2 3 4 5 6
3.22. Al verilicar la ecuacin (3.2), se observa que para A lijo, P(B 1A) sati facc lo diver-
so postulados de la probabilidad.
3.26. inalicc el anlisis de l ejemplo dado en la eccin 3.2 decidiendo cul de los tipos
de tarros de caramelos, A o B. es el e cogido con base en el conocimiento de los do cara-
melo que fueron muestreado .
127. 'ada vez qu se hace un experimento. la ocurrencia de un suceso particular A es
11wal a 0,2. El experimento se repite, independientemente, hasta que A ocurre. 'alcule la pro-
babilidad de que sea necesario realizar un cuarto experimento .
.28. upngase que un mecanismo tiene N tubos. todos los cuales son necesarios para
u funcionamiento. Para localizar el tubo que funciona mal, se reemplaza suce ivamente
tilda uno de ellos por uno nuevo. lcular la probabilidad de que sea necc ario verificar
tu bo si la probabilidad (const nte) es p de.que un tubo est daado.
3.29. Probar: Si P(A 1B) > P(A) entonces P(B 1A) > P(B).
3.30. Un tubo al vaco puede provenir de uno cualquiera de tres fabricantes con pro-
b.t bilidadcs p 1 = 0,25, p 2 = 0,50 y p3 = 0,25. La probabilidades de que el tubo funcione
rnr rectamente durante un perodo de tiempo especificado on iguales a 0,1, 0,2 y 0.4, respec-
tiva mente, para los tres fabricante . alcular la probabilidad de que un tubo elegido alea to-
ria mente funcione durante el perodo de tiempo especific.'ldo.
3.31. Un istema elctrico consta de dos interruptores del tipo A, uno del tipo B, y cuatro
del tipo C, conectado como aparece en la figura 3.12. Calcule la probabilidad de que no se
pueda eliminar una falla en el circuito, con la llave K i los interruptores A, By Ce tn abierto
(es decir, fuera de servicio) con probabilidades 0.3, 0,4, 0,2, re pectivamcnte y i dlns fun-
cionan indcpcnd ientemcnte.
F IGURA . 12
3.35. En una ciudad se publican los peridicos A, B y C. Una encuesta reciente de lec-
tores indica lo siguiente: 20 por ciento lee A, 16 por ciento lee B, 14 por ciento lee C, 8 por
ciento lee A y B, 5 por ciento lee A y C, y 2 por ciento lee A, B y C. Para un adulto escogi-
do al azar, calcular la probabilidad de que (a) no lea ninguno de los peridicos (b) lea exac-
tamente uno de los peridicos (c) lea al menos A y B si se sabe que lee al menos uno de los
peridicos publicado .
3.36. Una moneda normal e lanza 2. veces.
(a) Obtener la probabilidad de que haya un nmero igual de caras y sellos.
(b) Verificar que la probabilidad calculada en (a) es una funcin decreciente den.
3.37. Cada una de las urna 1, urna 2, , urna n, contiene o: esferas blancas y fJ esferas
negras. Se pasa una esfera de la urna 1 a la urna 2 y luego se pasa una de la urna 2 a
la urna 3, etc. Finalmente, se escoge una esfera de la urna n. Si la primera esfera que se pas
era blanca, lcul es la probabilidad de que la ltima esfera elegida sea blanca? l Qu ucede
cuando n-+ oo? [Indicacin : sea p. = Prob (n- ima esfera pasada sea blanca) y exprese Pn
en funcin de P. - 1.]
3.38. La urna 1 contiene o: esferas blancas y P esferas negra mientras que una urna 2
contiene o: e foras blancas y p negras. Se escoge una esfera (de una de las urnas) y luego se de-
vuelve a esa urna. Si la esfera escogida es blanca, se e coge la esfera iguiente de la urna 1;
si la esfera escogida e negra, se escoge la siguiente de la urna 2. Contine de e ta manera.
Como la primera esfera escogida proviene de la urna l , obtener Prob (n-sima e fera escogida
sea' blanca) y tambin el lmite de esta probabilidad cuando n --+ oo.
3.39. Una mquina impresora puede imprimir n letras, digamo o:i, ., o:,.. sta
mquina es operada por impulsos elctricos y cada letra es producida por un impulso diferente.
Supngase que exista una probabilidad con tante p de imprimir la letra correcta y tambin
suponga independencia. Uno de los n impulsos, escogido al azar, aliment la mquina dos
veces y las do veces e imprimi la letra 0: 1 Calcule la probabilidad de que el impulso e co-
gido estuviese proyectado para imprimir o: 1
V riables aleatorias unidimensionales
F IGURA 4.1
(e) E muy importante comprender que una exigencia bsica de una funcin (uni- ariada):
a rnda se S le corrc ponde exacwmente 1111 valor X(s). to e demuestra esquemticamente
en la figura 4.1. alore diferentes de s pue<le11 dar el mismo valor de X . Por ejemplo en la
ilustracin anterior encontramo que X(CSJ = X(SC) = l.
llMPLO 4.2. n una me a e lanzan tre moneda . Tan pronto como las
moneda caen .en la mesa, la fa e "aleatoria ' del experimento ha terminado.
Un solo re ultado s podra con i tir en una descripcin detallada de cmo y
dnde cayeron la monedas. Po iblemente estamos interesado lo en ciertas
caracter ticas numricas a ociada con este experimento. Por ejemplo, podra-
mos calcular
IG RA 4.2
plo anterior), P(X = 1) = ~. Lo que e quiere decir es que un suceso en el espacio mue tral
S, llamado { . SC} = {s 1X(s) = 1} ocurre con probabilidad t. Por lo tanto a ignamos
e a misma probabilidad al suceso {X = 1} en el recorrido. ontinuaremos escribiendo ex-
pre ionc como P(X = 1), P(X ~ 5), etc. s muy imporiante que el lector e d cuenta de
lo que e a expre iones represen tan realmente.
Una vez que se han determinado (o m exactamente inducido) la proba-
bilidade asociada con vario re ultado (o uce o ) en e l recorrido Rx ignora-
remo a menudo el espacio muestra! original S que dio lugar a esa probabil;da-
de . As, en el ejemplo anterior. e tamo implemente interc ado en Rx = {O.
1.2} y la probabilidade a ciadas (!;l!). El hecho de que e tas probabili-
dade e tn determinadas por una funcin de probabilidad definida en el e pacio
mue tra l original S no nos preocupa i e tamos intere ados lo en e tudiar los
valores de la variable aleatoria X.
Al di cutir. en detalle, mucho de lo conccpt importante a ociado con
variables a leatorias, encontraremos conveniente di-tinguir do caso importan-
tes: la aria ble aleatoria di cretas y la continua .
JEMPLO 4.5. Una fu nte radioactiva emite partcula alfa. n contador ob-
erva la emisin de a partcula durante un perodo d tiemp e pecificado.
La iguientc variable a leatoria es de inter : X = nmero de partculas ob er-
vada . 'ules on lo valore posible de X? upondremo que e to valore
constan de todos lo enteros no negativos. to e . Rx = {O, 1, 2, ., n, }.
Una objecin que vimo anteriormente pu de aparecer de nuevo en e te punto.
Podra argir e que durante un intervalo de tiempo e pecilicado (finito) e im-
posible ob ervar m de N partcula , p r ejemplo. en donde N puede er un
entero po itivo muy grande. Por tanto lo valore po ible de X realmente seran:
O, 1, 2, , in embargo resulta que matemticamente e m encillo con-
iderar la descripcin idealizada dada anteriormente. De hecho, cada vez que
uponemo que los valores posibles de una variable aleatoria X son infinitos
numerable e tamo con iderando en e e momento una representacin ideali-
zada de X.
(b) L: p(x;) = l.
i 1
F 1G RA 4.3
Obser~acion es: (a) La elec in particular de lo nmeros p(x;) po iblcmente cst dc termi-
1111da por la funcin de probabilidad a ociada con succ os en el espacio muestra! S sob re
d cual e define X. to e, p(x,) = P(s 1 X(s) = xr]. (Ver ecuaciones 4.1 y 4.2.) Sin embargo.
puc~to que slo estamos interesados en l valores de X. e to es Rx. y en la probabilidades
.1sociada con esos valore omitimos nuevamente la naturaleza funcional de X. ( er figu-
ra 4.3). unque en la mayora de los ca o , de hecho. lo nmero e determinarn de la dis-
tribucin de probabilidade en a lgn e pacio mue tral fundamenta l S. cualquier conjunto
de nmero p(x,) que satisfaga la ecuacin (4.3) puede ser ir como una de cri pcin probabi-
lbtica propia de una variable aleatoria di creta.
(b) i X toma slo un nmero fi nito de valores. por ejemplo x., . X.... entonces p(x,) = O
1iara i > . y por lo tanto la serie infinita en la ecuacin (4.3) llega a ser una , urna lin ita.
le) uevamente podemos ob crvar una analoga con la mee<inica al considerar una ma a
total unitaria distribuida sobre la recta rea l con la ma a completa ubicada en lo punto
\ 1 x 2 Los nmeros p(X) repre entan la cantidad de masa ubicada en x,.
p(x)
11 1 1 X
Observaciones : (a) Supnga e que la variable aleatoria discreta X puede tomar slo un
nmero finito de valores, por ejemplo Xi. '. x,.,. Si cada resultado es igualmente probable,
obviamente tenemo p(x 1) = = p(xN) = l/N .
(b) i X toma un nmero infinito numerable de valores, entonces es imposible tener todos
los resultado igualmente probables. Porque no podemos satisfacer posiblemente la con-
dicin Er 1 p(x;) = 1 si debemos t ner p(x 1) = e para todo i.
(c) n cada intervalo finito habr cuando ms un nmero finito de valores posible de
X . Si uno de tale intervalos no contiene ninguno de los valores po ible le asignamos pro-
babilidad cero. Esto es, si Rx = {x.,x 2, ,x.} y si ningn Xre[a,b], entonces P[a::;;X
.:<:;; b] = o.
s = {+, - +, - - +. - - - +, .. }.
fara determinar Ja distribucin de probabilidades de X razonamos como sigue.
Los valores posibles de X son 1, 2, , n, (obviamente estamos considerando
el e pacio muestra) idealizado). Y X = n si y slo si los primeros (n - 1) tubos son
negativos y el n-simo tubo es positivo. Si suponemos que la condicin de un tubo
no afecta la condicin de otro podemos escribir
3 l
= 41-!=l.
Ohservaciones: aqu cmplcamo el re uhado de que la serie geomtrica 1 + r + r 2 +
rnvergc a 1/ (1 - r) siempre que lrl < l. A este resultado nos referiremos varias veces. Su-
pongasc que queremos calcular P(A), en donde A e define como { 1 experimento termina
1bpus de un nmero par de repeticiones }. Usando la ecuacin (4.4) tenemos
3 3
p A) = = I P< 2n) = 16 + -25-6 + ...
= J~(I + it + )
3
16 1 - +.;
EJEMPLO 4.7. Supnga e que Jo artculos que salen de una lnea de produc-
ci n e clasifican como defectuo o (D) o no defectuoso (N). Supongamos que e
digen al azar tres artcu los de la pr duccin de un da y e clasifican de acuerdo
con este e quema. 1 espacio muestra( para e te experimento, digamo , puede
describir e a :
S = {DDD,DDN D D, DD. ND, ND , DNN,NNN }.
(Otra manera de describir S es como S = 1 x S 2 x S 3 , el producto cartesiano
de , , S2, y S 3 , en donde cada S; = { D, N }.)
X = O si y slo si ocurre NN ;
X= 1 si y lo si ocurre DNN, D .oN D
X = 2 i y lo i ocurre DDN. D D, o NDD;
X= 3 i y slo si ocurre DDD.
tienen las probabilidades dada por el ejemplo 4.7, que determina el valor de p(x) para todo
x E Rx.
(4.5)
La di..tribucn binomial 6
AAA A AAA A
'- '
k n- k
l'ucsto que toda la repet1c1one on independiente , la probabilidad de esta
ll(;ci n particular era pk(l - pn - ". Pero exactamente la mi ma probabilidad
''l<.1ra asociada con cualquier otro resultado para el cual X = k. 1 nmero total
11 tale resultados e igual a (k), por lo que dcbemo elegir exactamente k posicione
ftntrc n) para la A. Pero e to produce el re ultad anterior ya que esos(~) re ul-
1.1do on mutuamente excluyentes.
Observuciu111:s: (a) Para verificar nuestros citlculos ob5'lrvemo que. usando el teorema
del binomio. tenemos :t; 0 /'(X = k) = 2:j_ 0 (l:)pl(I - p)" - 1 = [p + (1 - p)]" = In = 1, como
llcbcria . er. Pue to que las probabilidade (i:)t(I - p)" - ~ e obtienen al desarrolldr la expre-
1n binomial [p + (1 - p) ", a la llamamos distribucin binomial.
lb) 'ada vez que realizamos repeticiones independientes de un experimento y nos in-
tLrcsamo lo en una dicotoma- - dcectuo o o no defectuo o dureza sobre o bajo un
l I rto valor e tndar. nivel de ruido en un sistema de comunicacione obre o bajo un margen
1uca ignado - consideramos potencialmente un espacio muestra! en el cual podemos defi-
nir una variable aleatoria binomial. i las condicione del experimento permaneocn uf-
c1cn temente uniforme de modo que la probabilidad de algn atributo, por ejemplo A. per-
manezca constante, podemo u ar el modelo anterior.
te) i 11 es pequeo, lo trmino individuales de la di tribucin binomial on relativamen
te se ncillos de calcular. Sin embargo, si n es razonablemente grande esto clculos llegan
a se r un poco complicados. Afortunadamente, la probabilidades binomiales han sido ca lcu-
ladas. xisten mucha de tale tabulaciones. (Ver Apndice.)
P(x)
0 1 2 J 4 5 6 7 8 9 IQ 11 12 IJ 14 15 16 17 18 X
FtOURA 4.6
< 'on la convencin corriente de que (~) = O cada vez que b > a o b < O, p demos
l'\ ribir la probabilidad anterior como
P(X = k) = L
" (" )
1
P't(I - pi)" - ( . 11 2 ) P~ - r(I - P2t2 - k+'(4.6)
r =O /' k - /'
P(X t
= 2) = r =O (')(0,2)'(0.8)
I'
10
- ( IO )(Q,1) - '(0.9) +' = 0,27,
2 - /'
2 8
Para mostrar que la urna anterior iguala (;:) comprense sim plemente lo coeficiente de
las potencia de x~ en ambos lados de la iden1idad (1 + x)"'( l + x)" = (1 + x)"+.
Sup ngamos que el recorrido de X cst formado por un gran nmero de valores,
por ejemplo todos los valores x en el intervalo O ~ x ~ 1 de la forma O; 0,01:
0,02; , 0,98; 0.99; 1.00. Con cada uno de e o valore e t a o iado un nmero
no negativo p(x;) = P(X = x 1). i = 1 2, ., cuya suma e igual a l. E ta ituacin
se repre enta geomtricamente en la figura 4.7.
Hemo sealado ante que podra er matemticamente ms fcil idealizar la
anterior de cripcin probabili tica de X al uponer que X puede lomar todos los
atore po ible . O ~ x $ l. Si hacemos e to. qu le ucede a la probabilidade.
puntua le p(x;)? Pue to que lo valore po ible de X no son contable , no podemos
hablar realmente del i- imo valor de X y por lo tanto p(x 1) pierde sign ificado.
Lo que haremos es ustituir la funcin p delinida slo para Xi. x 2 , ., por una
funcin! definida (en el contexto pre ente) para todos lo valores de x. O ~ x ;::;; l.
a propiedade de la ecuacin (4.3) se u tituirn por flx) ~ O y SlJl..x)dx = l.
Procedcremo formalmente como sigue.
P(x)
Definicin. Se diCl' ;.ue X e una variable all!u/Oria continua si exi te una fu.ncin
f llamada funcin de den idad de probabilidad (fdp) de X . que atisface la
siguientes condicione
fl..x)
~ x .. c
> X
FIGURA 4.8
\ 11ri11bk' ah-11tori ' c"ntinua~ <11
P(c ,::;; X s; d), P(c ,::;; X < d), P(c < X ,::;; d), y P(c < X < d).
(d) Aunque no vcriricaremos los detalles aqu, puede demostrar e que la anterior asigna-
ll n de probabilidades a lo sucesos en Rx satisface lo axioma bsicos de probabilidades
( cuacin 1.3), en donde podemos tomar {x 1 - < x < + } como el espacio muestra!.
(e) Si una funcin f* satisface las condici nes, f*(x) ;;:: O. para todo x, y J: f*(x)dx = K,
111 donde K es un n mero positivo real (no necesariamente igual a 1), entonce f* 110 atis-
l.1cc toda las condiciones para ser una fdp. Sin embargo. podemo definir fcilmente una
nueva fu ncin. por ejemplo f, en funcin de como sigue:
i X slo toma valores en un intervalo finito (a, b]. simplemente p demos establecer
(l)
/('t) = O para todo XI [a,b]. Por tanto la fdp e t definida para codos los valores reales de
y debemo exigir que 00
r:
f( )d = 1. uando quiera que la fdp se especifique slo para
ciertos valores de x, ~upondremo s qu~o pa~lquier otro.
(g) f(x) no repre en ta la probabilidad de nada! Hemos observado antes que P(X = 2)
O. por ejemplo, y por tanto f(2) ciertamente no representa esta probabilidad . Slo cuando
la funcin se integra entre dos lmites produce una probabilidad. Sin embargo, podemo
dar una interpretacin de f(x)llx como igue. Del teorema del valo r med io del clculo se
deduce que
r x+~x
P(x ::;; X ::;; x + x) = Jx f(s)d.~ = Axf(~),
1, <X< 1,
f(x) = { O, para cualquier otro valor.
f<.x) j(x)
x .. 1500 x 2500
'lara mcntc.f(x) ~ O y f ~ 00 f(x)dx = Ji2xdx = l. Para calcular P(X ::::;; t). debemos
evaluar simplemente la integral f l/2(2x)dx = !.
1 concepto de probabilidad condicional tratado en el captulo 3 c puede
aplicar debidamente a las variables aleatoria . Por ejemplo, en el ejemplo anterior
dcbi mo evaluar P(X ::::;; ! I:\- .s; X $ j). Aplicando directamente la definicin de
probabilidad individual, tenemos
F(x)
:b-
.!.
] 1
1
2
1
3
X
FIGURA 4. 11
EJEMPLO 4.14. Supongamos que la variable aleatoria X toma los tre valore
O, 1, y 2 con probabilidade ~, t, y t, re pectivamente. Entonce
F(x) =O si x <O,
=! ~X< l,
=t 1 ~X< 2,
=l X~ 2.
EMPLO 4.15. Supongamo que X es una variable aleatoria continua con fdp
F(x) = O i x ~ O,
= rx 2sds = x 2
Jo .
1 O<x ~ I.
= 1 Si X > l.
F(x)
IGURA 4. 12
Los grfico obtenidos en las figura 4.11 y 4.12 para la fda (en cada uno de
los ca o ) on muy tpico en el iguiente entido.
(a) i X es una variable aleatoria discreta con un nmero finito de valore
po ible , el grfico de la fda F e formar de trazos horizontales (se llama funcin
escalonada). La funcin F es continua excepto para los valores posibles de X,
llamado , xi. ., Xn En el valor x 1 el grfico tendr un salto)} de magnitud
[J(.x) = P(X = xi)
(b) Si X es una funcin aleatoria continua, F ser una funcin continua para
todo x.
(c) La fda F __ t definida para todos los valore de x, lo cual es una razn
importante para con idcrarla.
Hay do propiedade importante de la fda que resumiremos en el teorema
iguiente.
F( -oo) =
..--lim- J~ '! (s) ds = O,
F( oo) lim
J< " ' f: cx.f(s)ds = 1
En el caso discreto el argumento es anlogo.
P(X == x). Esa probabilidad e siempre igual a cero en el ca o continuo. Sin embargo,
podemos inquirir acerca de P(X ~ x) y, como lo demo tramo en el prximo
teorema, obtener la fdp de X.
Teorema 4.4. (a} Sea F la fda de una variable aleatoria continua con fdp f
Luego
d
f(x) = dx F(x),
Demostracin : (a) F(x) = P(X ::;; x) = J~ "" f(s) ds. A , aplicando al teorema
fundamental del clculo obtenemo , F'(x) =f(x).
(b) Puesto que supu imo x 1 < x 2 < , tenemo
Observacin : recon idercmo brevemente (a) del teorema anterior. Recordemo la defi-
nicin de derivada de la uncin F:
F'(x) = lim F(x + h) - F(x)
A O /
= . P(X :5: x
l 1m ~~~~~~~~~
+ lt) - P(X S x)
h
As i h e pequeo y po itivo
EMPW 4.16. Supongam que una variable aleatoria continua tiene fda F
tlada por
F(x) =O x ~O,
= 1-e- ", x>O.
f(x) = e-x, X~ O,
=o, para cualquier otro valor
4. Distribuciones mixta
Hemo re tringido nuestra exposicin slo a variables aleatoria que son di
creta o continua . Tale variables aleatorias ciertamente son la m imp rtantes
en las aplicacione . Sin embargo, hay situaciones en las cuale podcmo encontrar
variables del tipo mixto: la variable aleatoria X puede tomar ciertos valore dis-
tintos, por ejemplo x 1 "Xn, con probabilidad positiva y tomar tambin t do
los valores en algn intervalo, por ejemplo a ::;; x ~ b. La distribucin de probabi-
lidades de tales variables aleatoria e obtendra al combinar las ideas con iderada
anteriormente para la descrip in de la variable aleatoria di cretas y continua
como sigue. A cada uno de lo valore X; e le a igna un nmero p(x;) tal que p(x 1) ~ O,
para todo i, y tal que I:J _ 1 p(x) = p < l. ntonces definimos una funcin f que
ati face/(x) ~O, J~/(x) dx = 1 - p. Para todo a, b con - oo <a < b < +
Una variable aleatoria del tipo mixto puede aparecer como sigue. Supngase
que estamo probando un equipo y ea X el tiempo de funcionamiento. n la
mayora de los problema describiramos X como una variable aleatoria continua
con valores po ible x ~ O. Sin embargo, hay alguno ca o en los cuales hay
una probabilidad positiva, de que el artculo no funcione del todo, es decir, falla al
tiem po X = O. n tal caso desearamos modificar nue tro modelo y a ignar una
76 \luiabl 11la1oril1s unldlmcn loo les 4.7
F IGURA 4. 13 IGURA 4. 14
1
f(x) = -
b -, a::;; X::;; b.
-a (4.13)
= O, para cualquier otro valor
F(x)
IGURA 4. 15
EH: MPLO 4.18. Se puede suponer que la dureza H , de una muestra de acero
(medida en la e cala Rockwell) es una variable aleatoria continua di tribuida uni-
for memente sobre (50 70] en la escala B. Por tanto
EJEMPLO 4.19. Obtengamos una expre in para la fda de una variable aleato-
ria di tribuida uniformemente
= O si x <a
x- a
a~ X< b,
=b- a
=I X ~ b.
PROBLEMAS
4.1. Se abe que en una moneda sale cara tre veces m a menudo que sello. Esta mo-
neda se lanza tres vece . Sea X el nmero de caras que aparecen. stablecer la distribucin
de probabilidades de X y tambin la fda. Hacer un grfico de amba .
4.2. De un lote que contiene 25 articulo , 5 de los cuales son defcctuosp . e eligen 4
al azar. Sea X el nmero de artculos defectuosos encontrados. Obtener la distribucin de
probabilidades de X i
(a) los artculo e escogen con ustitucin,
(b) los artculos se e cogen sin ustitucin.
4.3. Supngase que la variable aleatoria X tiene valore posible l. 2, 3, y P(X =J)
= 12J.j = 1,2, . ..
(a) Calcular P(X e par).
(b) Calcular P(X ~ 5).
(c) Calcular P(X es divi ible por 3).
4.4. Con idrese una variable aleatoria X con resultados po ibles: O. l, 2, Supon-
gamo que P(X = j) = (1 - a)cl j = O, l. 2,
Problem 79
IGURA 4.16
4.14. El porcentaje de alcohol (LOOX) en certo compuesto se puede con iderar como
una variable aleatoria, en donde X , O< X < l , tiene la siguiente fdp:
f (x) = 20x 3 (1 - x), O < x < l.
(a) Obtener una expresin para fda F y dibujar su grfico.
(b) alcular P(X ;::; 1).
(c) upngase que el precio de venta del compue to anterior depende del contenido al-
cohol. spccficamente, si t < X < i. el compuesto e vende por C 1 dlare / galn ; de otro
modo e vende por C 2 dlares/galn. Si el costo es C 3 dlares/ galn, encontrar la distribu-
cin de probabilidades de la utilidad neta p<>r galn.
4.15. Sea X una variable aleatoria continua con fdp f dada por :
f (x) = ax, O ;::; x S 1,
=a, 1 $X :5 2,
= - ax + 3a, 2 :s; x :s; 3,
= O para cualquier otro valor.
(a) Determinar la constante a. (b) Determinar F, la fda y dibujar el grfico.
(c) Si X., X 2 , y X 3 on tre ob ervacione independiente de X cul e la probabilidad
de que exactamente uno de e o tres nmeros sea mayor que 1,5?
4.16. Se supone que el d imetro de un cable elctrico digamo X es una variable aleatoria
continua con fdp f(x) = 6x(I - x) O ;::; x :5 l.
(a) Verificar que la anterior es una fdp y dibujarla.
(b) Obtener una expre in para la fda de X y dibujarla.
(c) Determinar un nmero b tal que P(X < b) = 2P(X > b).
(d) Calcular P(X :5 t 1j- < X < i ).
4.17. Cada una de las siguiente funciones representa la fda de una variable aleatoria
continua . En cada caso F(x) = O para x < a y F(x) = 1 para x > b, en donde [a , b] es el
intervalo indicado. En cada uno de los casos, dibujar la funcin F, determinar la fdp f y
dibujarla. Tambin verificar que f e una fdp.
l'robl~m , 111
4.20. Supnga e que X est distribuida uniformemente en [-a. +a], en donde :r > O.
Cada vez que sea posible, determinar a: de modo que e satisfaga lo siguiente.
(a) P(X > 1) = j (b) P(X > 1) = t (c) P(X < ) = 0,7
(d) P(X < !) = 0,3 (e) P(IXI < 1) = P<IXI > 1).
4.21. uponiendo que X est distribuida uniformemente en [O, a:], a > O responder las
preguntas del problema 4.20.
4.22. Se escoge un punto al azar de un segmento de longitud L . i. ul es la probabili-
dad de que la razn del segmento m corto con relacin al ms largo sea menor que !'?
4.23. Una fbrica produce diariamente 10 recipientes de vidrio. Se puede uponcr que
hay una probabilidad constante p = 0,1 de producir uno defectuoso. Antes de que estos
dep itos se almacenen on inspeccionados y los defectuoso puesto aparte. Supongamos
que hay una probabilidad constante r = 0,1 de que un recipiente defectuoso sea mal cla-
ifcado. a X igual al nmero de recipientes cla ificados como defectuosos al trmino de
un da de produccin. (Suponcmo que todos los recipientes que se fabrican en un da se ins-
peccionan ese mismo da.)
(a) alcular P(X = 3) y P(X > 3). (b) Obtener una expresin para P(X = k).
4.24. Supnga e que el 5 por ciento de lo artculo que salen de una lnea de produccin
son defectuo os. Se e cogen 10 de tales aniculos y se in pcccionan. i.C ul es la probabilidad
de que e encuentren a lo m dos defeetuo os'?
4.25. Suponiendo que la duraccin (en horas) de cierto tubo de radio es una variable
aleatoria continua X con fdp /(x) = l00/ x 2 , x > 100 y O para ualquier otro valor.
(a) lCul es la probabilidad de que un tubo dure menos de 200 horas si se abe que el
tubo todava funciona despus de 150 horas de servicio?
(b) lCul es la probabilidad de que si se instalan 3 de tale tubos en un conjunto, exac-
tamente uno tenga que ser sustituido despu de 150 horas de servicio?
(c) , ul e el nmero mximo de tubos que se pueden poner en un conjunto de modo
que haya una probabilidad 0.5 de que despus de 150 horas de servicio todos ellos toda va
funcionen"!
4.26. Un experimento consta de n ensayos independientes. Se puede suponer que debi-
do al aprendizaje'>, la probabilidad de obtener un resultado exito o aumenta con el nme-
112 ariablc' al atoria~ unidimcn i 0111 ~
5.1 Un ejemplo
Rx Ry
Gi-----x_,B~x -Q '----.!!...H
!GURA 5.1
FIGURA 5.2
Observacin : otra vez es importan!. sealar que se usa una notacin taquigrfica cuando
escribimos expresiones tales como {X > 2} y I Y> 4n}. Cuando nos referimos a los valores
de X y de Y, o sea {s 1 X(s) > 2} y [x 1Y(x) > 4n}.
.f(x) = e - x. X > O.
P(Y e: S) = l / e2
FIG RA 5.3
Ohsrn"do11e.\ : (a) uevamente e conveniente sealar que debemos con clerar incor-
poradas la evaluacin de x =
X(s) y la evaluacin de y = Jf(x) en nue tro experimento y,
por tanto. con iderar implemente Rr. el recorrido de Y, como el e pacio muestra! de nuestro
experimento.
E trictamente hablando. el espacio mue tral del experimento es S y el re ultado del ex-
perimento e s. Todo lo que hagamo a continuacin no e t influenciado por la naturaleza
aleatoria del experimento. U1 determinacin de =
X(s) y la evaluacin de Y = /-l(x) son
116 l u11don~ de Yilrh1bl :. 11lc11lori11 .J
estrictamente procesos determinsticos una vez que se ha observado . Sin embargo, como
discutirnos previamente, podemos incorporar e tos clculo en la de cripcin de nue tro
experimento y as relacionarlos directamente con el recorrido Rr.
(b) A como la distribucin de probabilidade fue inducida en Rx por la di tribucin
de probabilidades sobre el espacio muestra! original S, as la distribucin de probabilidades
de Y, se determina s se conoce la distribucin de probabilidades de X . Por ejemplo. en el
anterior ejemplo 5.2, la distribucin pccilica de X determin ompletamente el valor de
P(Y ::?: 5).
(c) Al considerar una fun9in de una variable aleatoria X , digamos Y = H(X), debemos
comentar que no e puede permitir toda funcin H concebible. Sin emba rgo, las funciones
que aparecen en las aplicaciones estn inmediatamente entre aquella que podemo consi-
derar y, por tanto, no nos referiremo posteriormente a esta pequea dificultad.
Rr
F10 RA 5.4
Y= l X es par,
=- l si X es impar.
P(Y = 1) = ! +-fo+~+ .. = j.
Luego
P(Y =- 1) =1- P(Y = 1) = ~.
Caso 2. X e una variable aleatoria continua. Puede uceder que X ea
una variable aleatoria continua mientra que Y es discreta. Por ejemplo, upon-
gamo que X puede tomar todos lo valores reales mientras que se define que Y
ea + 1 si X ~ O y que Y = - 1 si X < O. Para obtener la distribucin de pro-
babilidades de Y, determinemos simplemente el suceso equivalente (en el reco-
rrido Rx) que corre ponde a los diferente valore de Y. En el caso anterior, Y = 1
iy losiX~O, mientrasqueY = - lsiyslo iX <0.PorlotantoP(Y= l) =
P(X ~O) mientra que P(Y = -1) = P(X < 0). Si se conoce la fdp de X, pueden
calcularse estas probabilidades. En el caso general, i {Y = y1} es equivalente
a un suceso, sea A en el recorrido de X , entonce
1,~':
en donde 11 =- -
3
por tanto
y=I y=4
G'(y) = F'(u) = f(u) ~ = 2 (Y -3 ~3'
1 1
)
3 3 FIGURA 5.6
g(y)
'---~-1--=--..-----..y
x= - In y y= e yc l
FIGURA 5.7 FlG RA 5.8
As
<i'(y) =- F'(u) ( - t) = + 2 In y ( - D.
como ante.
Generalicemos ahora el enfoque ugcrido por los ejemplo anteriore . El pa o
crucia l en cada uno de los ejemplo e efectu al sustituir el uce o {Y .s; y} por
el uce o equivalente en funcin de la variable aleatoria X. n los problemas
anteriore e to fue relativamente sencillo puesto que en cada uno de los casos
la funcin fue una funcin de X e trictamente creciente o e trictamente decreciente.
n la figura 5.9 y e una funcin estrctamente creciente de x. Por lo tanto
podemos re o lvcr y = H(x) para x en funcin de y, digamo x = H - 1 (y), en donde
H - 1 e llama funcin in ver a de H. A . si Hes estrictamente creciente, {H(X) :::;; y}
es equivalente a {X ::::;; H - 1(y)} mientra que i H es estrictamente decreciente,
{ H(X) $ y} es equivalente a {X ~ H - 1(y)}.
!GURA 5.9
. El mtodo empleado en lo ejemplos anteriore e puede generalizar ahora
como igue.
dG(y ) dG(y) dx d dx dx
- = - - - = - [I - F(x)] - = - f(x) -
dy dx dx dx dy dy
Observacin: el signo algebraico obtenido en (b) es correcto puesto oJe, si y es una fun.
cin decreciente de x, x es una funcin decreciente de y y por lo tanto dx/dy < O. As, al usar
el smbolo del valor absoluto en torno a dx/ dy, podemos combin::ir e l resu ltado de (a) y (b)
y obtener la forma final del teorema.
EJEMPLO 5.8. Recon ideremo lo ejemplo 5.6 y 5.7, aplicando el teorema 5.1.
(a) n el ejemplo 5.6 tenamos /(x) = 2x, O < x < 1, e y = 3x + l. Por lo
tanto x = (y - 1)/3 y dx/dy = l As g(y) = 2[(y - 1)/ 3]! = ~ - 1). 1 < y < 4,
lo que concuerda con el resultado obtenido previamente.
(b) En el ejemplo 5.7, tenamos /(x) = 2x, O < x < 1, e y= e- x. Por tanto
x = - In y y dx/dy = - 1/y. As g(y) = - 2(1n y)/y, 1/ e < y < t lo que de nuevo
e t de acuerdo con el resultado anterior.
i y = H(x) no es una funcin montona de x, no podemos aplicar directa-
mente el mtodo anterior. n su lugar, volveremos al mtodo general bosquejado
anteriormente. El ejemplo siguiente ilustra e te procedimiento.
Yl l'uncion~" k uriabl 11katorl11!>
g(y)
x .. -J X= [
G(y) = P( Y ~ y) = P( 2
~ y)
= P(- y~ X~ y)
= F( y) - F( - y),
_ G'( ) _ f ( y) f ( - y)
( )-
gy Y- -;;--r--
2..; y - 2 y
JY
- 2 y [!( y) + f (- y) .
1
g(y) = 27Y f(~ - f ( - JY)].
PROBLEMA
5.1. Supngase que X est distri buida uniformemente en ( - 1, 1). ea Y = 4 - X 2 . n-
contrar la fdp de Y, sea g(y), y dibujarla. Tam bin ver ificar que g(y ) es unll dp.
5.2. Supngase que X e t1 distribuida uniformemente en (1 , 3). Obtener las fdp de las
siguientes variables a leatoria :
(a) Y = 3X + 4 (b) Z = ex.
Verificar en cada uno de los caso que la funcin obtenida es una fdp.
5.3. Supngase que la variable aleatoria X tiene fdp f(x) = e - ~. x > O. Encontrar las
fdp de las siguientes variable aleatorias :
(a) Y = X 3 (b) Z = 3/(X + 1) 2
5.4. Supngase que la variable aleatoria discreta X tome los valores 1, 2, y 3 con igual
proba b ilidad. ncon trar la distribucin de probabilidade de Y = 2X + 3.
5.5. Supngase que X e t di tribuida uniformemente en el intervalo (0, 1). Encontrar
la fdp de las siguiente variables aleatoria :
(a) Y = X 2 + l (b) Z = l/(X + 1).
5.6. Supngase que X e t distribuida un iformemente en ( - J, 1). ncontrar la fdp de
las iguientes variables a leatoria :
(a) Y = en (n/ 2)X (b) Z = cos (n/ 2)X (c) W = IXl -
5.7. Supngase que el radio de una esfera es una variable aleatoria continua. (Debido
a la imprecisin del proceso de fabr icacin, lo radios de esferas diferen tes pueden ser di-
ferentes.) Supngase que el radio R tenga fdp f(r) = 6r(I - r , O < r < 1. ncontrar la fdp
del volumen V y del rea superficial S de la esfera.
5.8. Una corriente elctrica I que fl ucta se puede considerar como una variable alea-
toria distrib uida uniformemente en 1 intervalo (9. 11). Si esta corriente pasa por una resis-
tencia de 2-ohm, encontrar la fdp de la potencia P = 2/ 2
5.9. La velocidad de una molcula en un gas uniforme en equilibrio e una variable
aleatoria V cuya fdp est dada por
f( v) = av2e- h". v > O,
en donde b = m/2kT y k, T, y m denotan la constante de Boltzman, la temperatura absoluta..
y la ma a de la molcula, respectiva mente.
(a) a lcular la constante a (en funcin de b). [Indicacin: use el hecho de que Jo> e- x dx =
n/ 2 e integre por parte .
(b) Derivar la di tribucin de la variable aleatoria W = m V 2/2, que representa la energa
cintica de la molcu la.
----Y=yo
- a a 10 RA 5.12
5.11. La energa radiante (en Btufhr/ ft 2) est dada como la funcin siguiente de la tem-
peratura T (en grados fahrenheit): E = 0,173(T/ 100)4 Supongamos que la temperatura T
est considerada que es una variable aleatoria continua con fdp
FIG kA 6.1
95
Y6 Variable 11leacorl11S bidimen IOfl11le de mayor dimen~.i6n 6.1
Definicin. (a) Sea (X Y) una variable di creta bidimen ional. 'on cada
re ultado po ible (x; Yi) asociamo un nmero p(x;, Yi) que repre enta
P(X = x i. Y = y) y que ati face las condiciones iguientes:
(2) r
J 1 i= 1
(6.1)
6.1
sta ltima probabil idad se refiere a un suceso en S y por tanto !lelermirw la probabilidad
de B. n nue tra terminologa previa, B y {s 1 (X( s ), Y(s}) e 8 } on suce os equivalen/es (li-
gurn 6.2).
si (X, Y) es di creta , la urna se toma con todo~ los ndice (,j) para los cuales (x,y) E B.
y
P(B) = JJ /(x . .1 d1) <ly, (6.4)
8
encontramos que
TABLA 6.J
I~ o l 2 3 4 5
x 5000 x - 10.000
FIGURA 6.3
f(x, y) = <" si 5000 _:::; X .$; 10.000 y 4000 _:::; y _:::; 9000.
=0 en otro ca o.
+ f +oo 19000f10.000
f - 00 - O()
f(x, y) dx dy =
4000 sooo
f(x y) dx dy = c[5000] 2 .
1 f 9000 17
= 1 - (5000) 2 5000 [y - 5000] dy = 25.
+ f'_+
f- f(x. y) clx cly = (2 Jo Jo11 (x 2
+ x:) clx d;
!" "
=
l .2 xl
O 3
- + -x2y
6
1
x O
dy
=
12 (]
o
.-
3
= 1 +h = l.
+ =-)') dy
6 3.
1
= - V+-
12 o
)'212
Sea B = {X+ Y~ l}. (Ver ligura 6.4) 'alcu laremo P(B) al evaluar 1 - P(Bl.
en donde B = {X + Y < 1}. Por lo tanto
Jor
y
P(B) = 1 -
f 0
1 -x (
x
2 xy)
+ 3" dy dx
= 1- I [x 2
(1 - x + x(l -/) 2] dx
= 1 -lz = ~.
0 2 F(x.y)/oxoy = f(x.))
dondequiera que F ea d ierenciable. ste resultado es an logo al del teorema 4.4 en el cual
probamos que (d/dx)F(x) = f(x). en donde fes la fdp de una variable aleatoria unidimen-
ional X.
(1.2 Uislribuclon d probabilld11dl'' nuu:in11le~ condk1onalc 1111
~ o 1
'
2 3 4 5 urna
= L p{X, Yi>
j = 1
sta fdp corre ponden a las fdp bsicas de la vari-1ble aleatorias unidimen-
sionales X y Y, re pectivamentc. Por ejemplo
= r
= P[c :::;; X :::;; d, -
f_+if f(x, y) dy dx
< Y< .
= f g(x dx.
(Las unidade se han ajustado para u ar valores entre O y 1.) La fdp marginal de
X e t dada por
En entramo que
rea(R) = 1 (x - x 2 )dx = .
L uego la fdp est dada por
f (x. y) = 6, (X. y) E R
= O, (x. y ) (f R. FIGURA 6.5
= 6(x - x 2 ). O ~ x :::;; 1;
= 6( y - y). o : :; y :::;; l.
EJEMP o 6.7. 'onsideremos otra vez lo ejemplos 6.1 y 6.4. Supngase que
queremos evaluar la probabilidad condici na\ P(X = 2 Y = 2). e acuerdo con
la definicin de probabilidad condicional tenemos
Podemos efectuar tal clculo muy genera 1 para el caso di. creto. Tenemo
h(y)
(a) (b)
IGURA 6.6
Obsermcin : para una j dad.1. p(x; l .l'J) satisface todas la condiciones de una distribucin
de probabilidade . Tenemos p(x; 1}') ;;::, O y tam bin
Definicin. Sea (X. Y) una varia bl e bidimen iona l contin ua con fdp conj un-
ta f Sean g y 11 las fdp marginale d e X y Y respectivamente.
La fdp co11dicio11al de X para Y = y dada. est definida por
f(x. y)
g(x 1 y) = li(y) li(y) > O. (6.7)
_ f (x. y) ( )
(6. )
JI( V ) -
X )' g X >0.
. 1 g(x
J
+"'
_"'
g(x ly)dx =
f +oo
_ ,,_
f(x y)
- ' - dx = - )
/(y) 11(y
1 f +>:
cr
h(y)
f(x. J)dx = - - = l.
11()')
n clculo an logo e puede hacer para h(y 1 x}. Por tanto. la. ecuaciones (6.7) y (6.8) definen
las fdp en Rx y Rr, respectivamente.
(b) Una interpretacin intuit iva de g(x 1 y) se obtiene i consideramo, que la upcrlicie
repre entada por la fdp conjunta f es cortada digamos por el plano y = c. La interseccin
del plano con la uperficic z = f(x. y) resultar en una fdp unidimensional. llamada la fdp
=
de X para Y c. Esta seni precisamente g( '1 e).
(c) Supongamos q ue (X. Y) repre enten respectivamente la altura y el peso de una pcr-
ona. Sea f la fdp conjunta de (X. Y) y ea g la fdp marginal de X (prescindiendo de Y).
6.3 Variable~ al 1lloria~ ind pendi ntes 105
Por lanto f~. s g(x)dx reprc entara la proba ilidad del uceso {5,8 ~ X :::;; 6} pre cindiendo
del peso Y. l,8 g(x l 150)dx se interpretara como P(5,8 :::;; X S 6 I Y = 150). strictamente
hablando, e ta probabilidad condicional no e t definida en lo trminos de nuestra conven-
cin previa con la probabilidad condicional, puesto que P( Y = 150) = O. Sin embargo, slo
u amos la integral anterior para definir esta probabilidad. Sobre una ba e intuitiva, cierta-
mente te debe ser el signieado de este nmero.
_ x 2 + xy/ 3 _ 6x 2 + 2xy
y(x 1 y - 1/ 3 + y/6 -
)
2 +y o~ X ~ L o~ y ~ 2;
2 2
h Ix = x + xy/ 3 = 3x + xy = 3x + y
(y ) 2x 2 + 2/ 3(x) 6x 2 + 2x 6x + 2
r
Jo
6x2 + 2xy dx =~ y = 1
2+y 2+y
para todo y.
Dermicin. (a) Sea (X, Y) una variable aleatoria bidimen ional di creta. De-
cimo que X y Y on variable aleatorias independiente i y lo i p(x;, yj) =
p(x;)q(yJ) para todo i y j. Esto e P(X = X , Y = yj) = P(X = x;)P( Y = y),
para todo i y j.
(b) Sea (X , Y) una variable aleatoria bidimen ional continua. ecimo que
X y Y on variable aleatorias independientes i y lo si f(x , y) = g(x)h(y)
para todo (x, y), en donde f es la fdp conjunta, y y y Ji son las fdp mar-
ginales de X y Y respectivamente.
Teorema 6.1. (a) Sea (X , Y) una variable aleatoria bidimen i nal di creta.
Entonce X y Y son independientes si y lo i p(x; 1 Yi) = p(x;) para todo
i y j (o lo que es equivalente si y lo si q(y 1 1 x1) = q(yi ) para t do i y 1).
(b) Sea (X , Y) una variable aleatoria bidirnen ional continua. ntonce
X y Y on independientes i y slo i g(x 1y) = (gx) o lo que e equivalente,
si y lo si h(y 1 x) = h(y), para todo (x, .11).
TABLA 6.3
~ o 1 2 q(yj )
Teorema 6.2. Sea (X, Y) una \ariable aleatoria bidmen ional. Sean A y B
uce os cuya ocurrencia (o no ocurrencia) depende lo de X y Y respec-
tivamente. (Esto es, A es un subconjunto de Rx, el recorrido de X , mientras
lllK ariablc~ aleatorias bidlm nsionales y de ma or dimensin 6.-t
Teorema 6.3. Supongamos que (X, Y) es una variable aleatoria bidimen io-
nal continua con fdp conjunta f Sea Z = H 1 (X, Y) y W = H 2 (X, Y), y
supongamos que las funcione H 1 y H 2 sati facen las condiciones siguientes:
(a) as ecuacione z = H 1 (x, y) y w = H 2 (x, y) se pueden resolver nica-
mente para x y y en funcin de z y w, digamo x = Gi(z, w} y y = G 2 (z, w).
(b) La derivada parcale ox/oz, ox/ow, oy/oz, y iJy/iJw existen y on
continuas.
Luego la fdp conjunta de (Z, W), digamo k(z, w), est dada por la expresin
siguiente: k(z, w) = /[G 1 (z, w), G 2 (z, w)] jJ(z, w)i, en donde J(z , w) es el
siguiente determinante 2 x 2:
ox ox
i)z iJw
J(z, w) =
i)y i)y
oz ow
E te determinante e llama Jacobiano de la tran formacin (x, y)-+ (z, w)
y alguna veces se escribe a o(x, y)/o(z, w). Ob ervemos que k(z w) ser
distinta de cero para eso valores de (z, w) que corresponden a valores
de (x, y) para los cuate f (x, y) es distinta de cero.
110 \lariabk:~ alntori11.' bldlmen~iooale!> y d mayor dimensioo
w
y
(a) z (b)
FIGURA 6.8
Pue to que e upone que fes conocido. puede calcularse el segundo miembro de la integral.
Dierencndola con respecto a z y w obtenemos la fdp pedida. En la mayora de los textos
de clculo avanzado se demuestra que esta tcnicas c<>nducen al resultado formulado en
el teorema anterior.
(b) Ntese la gran semejanza entre el resultado anterior y el obtenido en el caso unidi-
mensional tratado en el captulo anterior. (Ver teorema 5.1). La c<>ndicin de monotona
de la uncin y = H (x) se sustituye_ por la condicin de que la correspondencia entre (x, y)
y (z, w) es uno a uno. La condicin de difcrencialidad e sustituida por ciertas suposiciones
acerca de las derivada parciales consideradas. La olucin lina l obtenida es tambin muy
semejante a la obtenida en el caso unidimensional: la variables x y y sencillamente se sus-
tituyen por sus expresiones equivalentes en funcin de z y w, y el valor abso luto de dx/dy se
sustituye por el valor abso luto del Jacobiano.
F10 RA 6.9
upngase que e tamos intere ados en la variable alea toria R que repre enta
la distancia del origen. (Ver figura 6JO). s decir, R =
X 2 + Y ~ Encontra-
remo la fdp de R. digamo (J , a i : ea <1> = tan - l (Y/ .\'). Por tanto, X = H 1 (R , <l>)
y Y = H 2 (R, <1>) donde x = H 1(r, </J) = r co </>y y = Nz(r </>) = r en </J. ( imple-
mente hemo introducido coordenada potare ).
1 Jacobiano es
ax. ax co - r . en</>
ar aq,
} =
ay ay "' r co </>
en</>
il r o<J>
= r co 2
<P +rs n 2 </> = r.
~~
T
FIGURA 6. 10
l FIGURA 6. 11
(211', 1)
1
."'
As la fdp pedida de R, digamos h, est dada por
Teorema 6.4. Sea (X, Y) una variable aleatoria bidimen ional continua
y supongamos que X y Y son independientes. Por tanto la fdp f se puede
escribir como f(x y) =.. g(x)h(y). Sea W = X Y. - -
Luego la fdp de W, digamos p, est{t dada por
= -~e2 --:- lk
1 /3
q(z) =f
. ~
-.:()
g(vz)lr(v)lvl dv. (6.10)
~\ =v.
Por tanto, la fdp conjunta de Z = X/ Y y V = Y es igual a
2
q(z) = (z + 2)2 ' z ;;:::. O.
IGURA 6.13
(Ver figura 6.13). De nuevo es un ejercicio
fcil verificar que f g' q(z) dz = 1.
(X 1 (s), .. . , X "(s)).
( 'a raclcrizamo la distribucin de probabilidade (X 1 , .. X,.) e m igue:
iste una uncin densidad de probabilidades conjunta q ue satisface las con-
dicione siguientes:
Hay mucho casos en los cuale de eamos considerar las variables a leatorias
11-dimensionales. Daremo unos pocos ejemplos.
(a) Supngase que estudiamos el modelo de precipitacin debido a un is-
tema particular de tormenta . i tenemos una red de, digamos, 5 estacione de
observacin y si X; e la lluvia cada en la estacin i debido a un sistema frontal
particular, querramo considerar la variable penta-dimensiona l (X 1, X 2 , X 3 ,
X 4, X s).
(b) Una de las aplicacione m importante de la variables a leatoria
n-dimen ionales aparece cuando tratamos con medida repetida de una variable
aleatoria X. Supngase que se pide la informacin acerca de la duracin X, de
cierto tubo electrnico. Un fabricante produce un gran nmero de e to tubos,
de lo cuale probamos n. Sea X 1 la duracin del i- imo tubo, i = l , ... , 11. Por
tanto (X 1 , X") es una variable a leatoria 11-dimensional. Si suponemo que
cada X; tiene la misma di tribucin de probabilidades (pue to que todo lo tubos
116 1ri1blei. aleatorias bidlm nslonales y de mayor dim n In 6.tt
en donde A es una regin del plano (x, y). entonces la extensin de este concepto a
f f f (x., .. . . :c,.)dx 1 dx .
11
fJ f(x, y) dx dy
A
1cprescnta P [(X, Y) E A). nlogamente, f re pre en ta la fdp conjunta de (X 1, . X.)
cnl nces
J Jf(x,, ... . x.)dx 1 clx.
R
re presenta
P[(X 1 X.Je R].
PROBLEMA
~ 1
-
2 3
1 -h k o
2 o ~
1
'S'
3 ~ i ~
6.2. Supngase que la variable alcatona bidimensional (X, Y) tenga fdp conjunta
= O, en otra parte.
Calcular lo iguientc.
(a} P(X > l); (b) P(Y <X); (e) P(Y < ~ I X < !J.
6.4. Suponga que e acan dos carta a l azar de una baraja de cartas. ea X el nmero
de ase obtenidos y sea Y el nmero de renas obtenido.
(a) Obtener la di tribucn de probabilidade conjunta de (X. Y)
(b) Obtener la di tribucin marginal de X y de Y.
(e) Obtener la di tribucin condicional de X (dado Y) y de Y (dado X).
118 ari11blcs aleatorias bldimensi()nales y de mayor dim nsin
6.5. Para qu valores de k es f(x, y) = ke - 1" una fdp conjunta de (X, Y) en la regi n
0 <X < l. 0 <y < l?
6.6. upnga e que la variable aleatoria continua bidimen ional (X, Y) est distribuida
uniformemente en el uadrado cuyos vrtices son (l. 0), (O, 1), ( - 1, 0) y (0, - 1). Encontrar
la fdp marginales de X y de Y.
6.7. Supngase que las dimen iones, X y Y. <le una plancha metlica rectangular se pueden
considerar como variable aleatorias continua independientes con las siguiente fdp.
1000
f(X) = - 2
, X > 1000,
X
= O, en otra parte.
lormcmentc en (10, 20). upnga e, adcm , que las variables aleatorias X e 1 son indepen-
diente . ncontrar la fdp de la variable aleatoria H.
6.12. La inten idad de la luz en un punto dado est dada por la relacin 1 = C/0 2, en
donde es la potencia lum inosa de la fuente y D es la distancia de la fuente al punto dado .
upnga e que est distribuida uniformemente en (1,2), mientras que D es una variable
aleatoria continua, con fdp f(d) = e- 4 , d > O. Encon trar la fdp de / , si C y D son indepen-
dientes. [Indicacin: hallar primero la fdp de D2 y luego aplicar los re ultados de e te captulo.]
6.13. Cuando una corriente del (amperes) pa a por una resistencia de R (ohms), la po-
tencia generada e dada por W = 12 R (watt ). Supngase que l y R son variable aleatorias
independientes con las iguientes fdp.
'L p(l - pt - 1
= p[I +(l - p)+(l - p) 2 + .. -J
1
= p
1 - (1 - p)
=1 si O < IPI < l.
Teorema 7.1. Sea X una variable aleato ria distribuida binomialmente con
parmetro p. basada en n repeticiones de un experimento. ntonce
E(X) = np.
Demosiracn: pue to que P(X = k) = (~)pk(I - p)n - t, tenemos
= z:
k l
nt
(k - l)!(n - k)!
P"< 1 - Pr - k
= np
n- 1 ( n - ') T(l - p)" - 1- .
O S
liza un experimento. i repelimos este expermento 100 veces, por ejemplo, esperaramo!.
que A ocurriera alrededor de 100(0,3) = 30 veces. El concepto de valor esperado, presen-
tado anteriormente para variables discretas, se extender brevemente en el caso continuo.
JEMPLO 7.5. Una mquina impresora tiene una probabilidad con tante d
0,05 de fallar en cualquier da. Si la mquina no tiene fallas durante la emana.
se obtiene una utilidad de $S. Si ocurren l o 2 fallas, se obtiene una utilidad de $R
(R < S). Si ocurren 3 o m fallas se obtiene una utilidad de $( - L). (Suponemos
que R, S, y L son mayore que cero; tambin suponemo que i la mquina falla
cualquier da, permanece fuera de u o durante el re to de l dia.) Sea X la utilidad
obtenida en una emana de cinco das. Lo valores posibles de X son R, S y ( - L).
Sea B el nmero de fallas por semana. Tenemos
k = O, 1, ... , 5
Defmicin. Sea X una variable aleatoria continua con fdpf El valor esperado
de .X se deline como
E{X) = J: 00
xflx)dx (7.2)
es finita.
J- fx lf(x)dx
Observacin: debemos observar la analoga entre el valor esperado de una variable alea-
toria y el concepto de <{centro de masa en mecnica. Si una masa unitaria ei t di tribuida
a lo largo de la recta en los puntos discretos xi. ... , Xno . y si p(x;) es la masa en x;, vemos
entonces que l:";. 1 x 1p(x1) representa el centro de ma a (respecto a l origen). De modo se
mejante, si una masa unitaria est distribuida continuamente en una recta, y si f(x) represen-
ta la densidad de masa en x, entonces f '!: "'. xf(x) dx se puede interpretar nuevamente como
el centro de masa. En el sentido anterior, E(X) puede representar un centro de la distribu-
cin de probabilidad. Tambin, E(X) se llama algunas veces medida de tendencia central
y est en la mismas unidades que X .
7. 1 El valor perado de una nrlable alea1orl1 125
/{x)
- 1
= ( )2 (X - 3000), J5()() ~ X ;5; 3000,
1500
= O, para cualquier otro valor.
A
+oo
E(X) =
J_
00
xf (x)dx
E(X) =a; b.
b X x2,b
E(X) =
i - - dx
ab - a
= ---
l
b - a2
a+b
=--
2
126 Olras caraclcri,lica de h1 ~ariabl~ 11lealol'ia.' 7.2
( tese que e to representa el punto medio del nter alo [a. b]. como intuitiva
mente lo e peraramos.)
Observacn : valdra la pena recordar en este punto que una variable aleatoria X es una
funcin de un espacio muestra! S con relacin al recorrido Rx. 'orno repetidamente lo hemo
sea lado, para la mayora de la aplicacione esta no ha interesado slo en el recorrido
y en la probabilidades definidas en l. Esta nocin de valor esperado fue completamente
definida en funcin del recorrido [ver ecuaciones (7.1) y (7.2.)]. Ocasionalmente, in embar-
go, deberamos observar la naturaleza funcional de X . Por ejemplo, cmo cxprcsamo la
ecuacin (7. l.) en funcin de re ultados s ES, suponiendo que Ses finito? Puesto que x 1 = X(s)
para una se S y puesto que
p(x,) = P[s: X(s) = x 1],
podemos escribir
E(X) = L: x;p(x,) = L: X(s)P(s), (7.3)
j , s
en donde P(s) e la probabilidad del uceso {.~}e: S. Por ejemplo. si el experimento consiste
en cla ificar tres artculos como defectuosos (D) o no defoctuo o (N), un espacio mue tral
para este experimento era
Si X est definida como el nmero de defoctuo o , y si se supone que todos los resultado
anteriores on igualmente posibles, tenemos de acuerdo con la ecuacin (7.3.)
E(X) = L: X(s)P(s)
KS
QO
E( Y) =
r+, yg(y)dy.
J_ , (7.S)
+ QO
(7.7)
E(}') = E( H(X}) = f_ " H(x)flx)dx.
Observacin : este teorema hace mucho ms sencilla la evaluacin de E(Y), porque quiere
decir que no nece itamo en ontrar la di tribucin de probabilidade de Y a fin de evaluar
E(Y). Es uficiente el conocimiento de la distribucin de probabilidades de X.
2:
j= 1
H(x1)p{x;) = /=Ll YJL p(x,). j
Pero.
Lf p{x;) = Li P[xlH (x;) = yiJ = q(y1 .
Por tanto, 1:1 1 H(x;)p(x1) = 1:1= 1 y1q(y1). lo que e tablece la ecuacin (7.6).
= I 0
0,003v
2
/
0dv
= 0,1 lb/ pie 2
(b) Usando la definicin de E( W), nece itamos encontra r primero la fdp de
W, g, y luego evaluar J ~.., wg(w)dw. Para encontrar g(w), ob ervemos que w = 0.003 v2
es una funcin montona de , para v;;::::: O. Podemo apli car el teorema 5.1 y
obtenemo
g(w} = /ol:w
o~ w ~ 0,3,
=- i X > .
2
00
E( Y) = J_ lxl/(x)dx
(b) Para evaluar E( Y)u ando la definicin. necesitamos obtener la fdp de Y = IXI.
g. ea G la fda de Y. Lueg
/(x) = t 2 5 X 5 4,
Supongamos que por cada una de las unidade vendida e obtiene una utilidad
de $300, mientras que cada una de las unidade no vendida (durante un ao
determinado) produce una prdida de $100, ya que una unidad no utilizada tendr
que er de cartada. Suponiendo que el fabricante debe decidir pocos me es antes
del comienzo de cada ao cunto producir, y que decide fabricar Y unidades.
(Y no es una variable aleatoria, est especificada por el fabricante.) Sea Z la utilidad
por ao (en pesos). Aqu Z es evidentemente una variable aleatoria puesto que es
una funcin de la variable aleatoria X. specficamente, Z = H(X) en donde
FIG RA 7.2
Para evaluar esta integral debemos considerar tre ca os : Y < 2, 2 :::; Y :s; 4.
y Y > 4. on ayuda de la figura 7.2 y despu de algunas impliicaciones btenem .
E(Z)
FIGURA 7.3
7. 11rl11ble 1le11tori11 bidlmen,lunalc' IJ 1
Defmicin. Sea (X, Y) una variable aleatoria bidimen ional y sea Z = H(X, Y)
una funcin real de (X. Y). Por lo tanto Z e una variable aleatoria (unidi-
men ional) y definimos E(Z) como igue:
(a) Si Z es una variable aleatoria discreta con valore po ible z 1 z 2
y con
p(z1) = P(Z = z;),
entonce
E(Z) = iL I
L
j: l
H(x,. Y1)p(x;. Yi). (7.1 O)
(b) Si (X.Y) e una variable aleatoria continua con fdp conjuntaf, tenemo
E(E} = L 3
ep(e)de = r e~e(3 - e) de
= ~f: (3e
2
-
3
e )cle = i.
Demostracin F(x) 1
f+
J
+oo
E( X) = _ Cj(x)dx =C _ f (x)dx =
r C.
00
FIGURA 7.4
Propiedad 7.3. Sea (X, Y) una variable aleatoria bidimen ional con una
distribucin de probabilidade conjunta. Sean Z = H 1(X, Y) y W =
H1(X Y). ntonce E(Z + W) = E(Z) + E(W).
Demostracin
(b) En general. es dificil obtener expresiones para E( 1/ X) o E{X ' ' 2), por ejemplo, en funcin
de 1/ E(X) o (E(X)) 1' 2 Sin embargo. estn disponibles algunas desigualdade.<;. que .son muy
fciles de deri ar. (Ver los artculos de Fleis~. Murthy y Pillai, y Gurland en los nmeros de
febrero y diciembre de 1966 y abril de 1967. respectivamente, de The Amercan Stacistician.)
Por ejemplo, tenemos:
(l) Si X torna solo valores po itvos y tiene una esperanza finita, entonces E( 1/ X) ~ 1/ E(X).
(2) Bajo la mi ma hiptesis que en (1). E(X 1 ' 2) ,::;; (E{X))li2_
E (L" ) .
i 1
<l;X ; =
; 1
llE(X ).
Demos/ racin :
f f_+~
1
= _+ xyy(x)h(y)dxdy
Por lo tanto
T= 2 - C1 i D >
si D >
N
E(T) = N( 2 - C)P(D > ) + (C 2 + C3 ) L np(n)
rr = O
7.4 Propiedade del ralor "'IK'rado 1 7
N
( 2 - 1) + (C2 + C3) L: p(11)(11 - ).
n O
E(T) = 6N + 2[- (-
2
+ l) - 12]
i 1 ::;; 5.
= 6 + 2(15 - SI > 5.
2 ::;; 5,
= 7 si
= 30 - 4 > 5.
E(T)
FrG RA 7.5
Luego el mximo ocurre para 1 = 3.5. (Ver figura 7.5.) Para ' = 3 4, tenemos
E(T) = 12, el cual es el mximo obtenible pue to que N es un entero.
1 11 Olras car11ctersticas de las "ariabl aleatoria 75
Supongamos que para una ariable aleatoria X encontramos que E(X) e igua l
a 2. ,Cu l e la importancia de esto? s importante que no atribuyamo mits
significado a e ta informacin que la justificada. Significa, enci llamen te, que
i con ideram un gran nmero de alores de X, x., ... , Xn, y promediamo e os
va lore de X . e te promedio e aproximar{t a 2 i 11 es grande. Sin embargo. es
muy importante que no demos mucha importancia a un va lor esperado. Por
ejem plo supngase que X representa la duracin de una b mbilla que se recibe
de un fabricante, y que E(X) = 1000 hora . to podra significar una de va ria
po ibilidade . Podra ignifi ar que e e pera que la mayor pa rte de la bombillas
dure entre 900 y 1100 hora . Tambin podra ignificar que las bombilla q ue
e entregan estn formadas por dos tipo de bombilla muy diferentes: alrededor
de la mitad son de muy a lta calidad y con duracin de cerca de 1300 hora , mien-
tra que la otra mitad s n de muy ma la calidad y durarn ce rca de 700 horas.
Hay una nece dad ob ia de pre entar una medida cuantitati a que distinga
entre tale ituacione . Varias medidas se ugieren por s mi mas, pero la iguien-
te e la cantidad usada m comnmente.
Observaciones: (a) El 11mero 1 (X) est expresado en unidades cuadradas de X. sto es.
si X se mide en horas, entonces V(X) est cxpre ada en (hora )2 sta es una razn parn
considerar la desviacin estndar. Se expresa en las mismas unidades que X.
(b) tra medida po ible podra haber sido EIX - E(X)I. Por diferente razones, una de
las cuales es que X 2 es una funcin mejor comportada que IXI, se prefiere la varianza.
(c) i interpretamos a E(X) como el centro de una masa unitaria distribuida sobre una recta,
podemo interpretar V(X) como el momento de inercia de esta masa, respecto a un eje per-
pendicular a travs del centro de masa.
(d) V(X) como se defini en la ecuacin (7. 12) e un caso especial del concepto ms ge-
nera l siguiente. 1 k-~simn mnmenrn de la variable a leatoria X respecto a su e peranza se
define como t = E[X - E(X)]k. Evidentemente para k = 2, obtenemos la varianza.
Teorema 7.5.
V(X) = E(X 2 ) - [E X) 2.
= E(X 2
) - 2E(X)E(X) + [E(X)] 2 [Recurde e queE(X)esunaconstante.J
= E(X 2
) - [E(X)] 2
.
J MPL 7.15. La oficina meteorolgica cla ifica el tipo de cielo que es vi-
ib le en relacin con lo grados de nubo idad. Se usa una escala con 11 ca-
tegora : O. 1, 2.... , 10. en donde O repre enta un cielo perfectamente ciar . 10
representa un cielo compl tamenle cubierto, mientras que los otros val re re-
presentan diversas condicone intermedias. Supongamos que tal clasil'cacin
se hace en una estacin meteorolgica determinada en . un da y hora determina-
dos. ea X la variable aleatoria que toma uno de los 11 valores anteriores. Su-
pongamos que la distribucin de probabilidades de X es
Por tanto
E(X) = 1(O.15) + 2(0, 15) + 3(0,06) + 4(0,06) + 5(0,06)
+ 6(0,06) + 7(0.06) + 8(0, 15) + 9(0,15)
+ 10(0,05) = 5.0.
A fin de calcular V(X) nece itamo calcular E(X 2 ).
~_._~~~~~~~.,.....--x
-1
FIGURA 7.6
Luego
V(X) = E X 2 ) - (E(X)) 2 = 35 6 - 25 = 10,6.
E(X 2 ) = J~ 1 X 2 (1 + x)dx
+ J x 2
(l - x)dx = i.
Por tanto V(X) = -t.
Observacin : upnga e que una variable aleatoria continua tiene una dp que e 1me-
trica respecto a x = O. s deci r, f( - x) = /(x) para tocio x. Luego, siempre que exista E(X).
E(X) = O, qu es una con ecuencia inmediata de la definicin de E(X). sto puede extenderse
a un punto arbitrario de simetra x = a, en tal ca o E(X) = a (Ver el problema 7.33).
Demostracin :
V( X) = C 2 V(X). (7.14)
Demosrracn :
V(CX) = E(CX) 2 - (E(CX))2 =C 2
E(X 2 ) - C 2 (E(X)) 2
=C 2
[E(X 2
) - (E(X})2] =C 2
V(X).
1.b Propieilades d~ 111 nriann de una ~ariabl e 11le11torla 141
Demostracin:
Prnpiedad 7.11. Sea X una variable aleatoria con varianza finita . Luego
para cualquier nmero real ix,
Observaciones: (a) Esta e una extensin obvia del teorema 7.5, porque al hacer a = O
obtenemos el teorema 7.5
(b) i interpretamo V(X) como el momento de inercia y E( ) como el centro de una
ma a unitaria, entonces la propiedad anterior e una formu lacin del teorema muy conoci-
do en mecnica de los ejes paralelos: el momento de inercia respecto a un punto arbitrario
es igual al momento de inercia re pecto al centro de masa ms el cuadrado de la distancia
de .este punto arbitrario al centro de masa.
(c) E[X - a 1 es minimizado si a = E(X). sto e deduce de inmediato de la propiedad
anterior. As el momento de inercia (de una masa unitaria distribuida en una recta) respec-
to a un eje que pasa por un punto arbitrario e mi n imiza si este punto se escoge como el
centro de masa.
P(X = k) = (~)pk(J - p)" - ", k = O. l, ... , n. Por tanto E(X 2 ) = !:Z 0 ki(i:)p"(t -
pt - k. sta urna puede ca lcular e fci lmente, pero en vez de hacer e to. emplea-
remo un mtodo ms imple.
uevamen te usaremos la repre entacin de X pre entada en el ejempl 7. 13,
X = Y 1 + Y 2 + + Y . Observemo que la Y ; son variables aleator ias in-
dependient es puesto que el valor de Y; depende olo del resultado de la i-sima
repeticin, y e upone que las repeticione uce ivas on independiente . Por
tanto podemo aplicar la propiedad 7. 10 y obtener
Por tanto
Observaci11 : con ideremo V(X) = 11p( 1 - p) como una funcin de p para un n dado.
Dibujemos un grlico como se muestra en la igura 7.7.
Resolviendo (d/ dp)np(I - p) = O encontramos que el valor mximo pa ra V(X) ocurre
cuando p = t. El va lor mnimo de V(X) ocurre evidentemente en lo extremo del interva lo
en p = O y p = 1. sto es intuitivamente como debera er. Recordando que la varianza e:;
una medida de la variacin de la variable aleatoria X definida como el nmero de veces que
ocurre el suceso A en 11 repelicione , encontramos que esta variacin es nula si p = O 1 (es
decir, si A ocurre con probabilidad O l) y es mxima cuando es t n ((sin certeza como po-
demos estar acerca di! la ocurrencia o no ocurrencia de A, es decir. cuando P(A) = t.
V(X)
--~~~-1-~~~--->.~---p
p=4
F IGURA 7.7
2 f.b 2 l b
3- a3
E(X ) = a X b - a dx = 3(b - a) .
7.7 E pr ione 1pro imad puu la e\peran1a ) 111 rarlan111 14]
P r tanto 2
V(X) = E(X 2) - [E(X)] 2 = (b - a)
12
despus de un clculo sencillo.
Observaciones: (a) E te re-;ultado es intuitivamente significativo. Indica que la varianza
de X no depende individualmente de a y b sino lo de (b - a)2, e decir, del cuadrado de su
diferencia. Por tanto dos ariable aleatorias distribuidas cada una uniformemente en un
intervalo (no necesariamente el mismo) tendrn iguales varianzas mientras las io1gi111des
de los intervalos sean iguales.
(b) E bien abido el hecho de que los momentos de inercia de una barra delgada de
masa M y longitud L respecto a un eje tran versal que pa a por el centro estn dados por
ML 2 / 12.
E( Y) ~ H(tt) + H__
"( ) 2
a , (7.18)
2
V(Y) - [H'(11)] 2 0' 2 . (7.19)
)2 H"( )
Y = H(1) +(X - )H'() + (X - + R .,
2
en donde R 1 e un resto. Si de cartamos el trmino resto Ri, entonce , toman-
do el valor e perado en ambo miembro , tenemo
E( Y) ~ H() + H"() a 2 ,
2
144 Otru~ 11r11c11~ ri~11ca., de 111' nrlbl , al atoria 7.7
puesto que E(X - 11) = O. A fin de establecer la ecuacin (7, 19), desarrollemos
JI en una erie de Taylor para x = con un trmino. Luego Y = H(1) + (X -
)H'() + R 2 i de cartamos el re to R 2 y tomamo la varianza en ambos lados,
tenemo
J. 0
(1 - 0,0051) 1 2 t - 4 dt
y
f." (1 - 0.0051) 2 4 1 4
dt.
Luego
H( 15) = 1,82, H '( 15) = 0,01.
De un modo semejante,
0 8
H " (t) = - 0.0024(1 - 0.005t) - (- 0,005) = 0,000012(1 - 0,005t)- 0 8 .
Por lo tanto
H " (l 5) = 0,000012 = O+
(0.925)8
?.7 Expre~ione apro Imada!> para la c~pernnru y la ~aria nra 145
tcncmo
Teorema 7.7. Sea (X, Y) una variable aleatoria bidimensi nal. upongamo
que E(X) = X. E( Y) = 1>,; V(X) = 2 y V( Y) = u
ea Z = JJ(X. Y). a;.
[Supondremo que exi ten la diver a. derivada de H para 11;... y).]
Luego si X y Y on independiente . tenemos
+ [H]
2 2
2 2
oy r
en donde t da las derivada parciales se evalan en (1,., iy).
l (12H l
2r
L -;;--2 CT
l vX
E[M] ~ E(l)E(R),
146 Olrll\ cu11tlcrstk11'> de 111'> variables ale111orias 7.1!
Hay una de igualdad muy conocida del matemtico ru o Chebyshcv que de-
sempea un papel importante en lo que resta de nue tra obra. Adem , no dar
un medio para comprender cabalmente como la arianza mide la variabilidad
respecto al valor esperado de una variable aleatoria .
Si conocemo la di tribucin de probabilidades de una ariable a leatoria X
(la fdp en el caso continuo o la probabilidad puntual en el caso discreto), podc-
mo calcu lar E(X) y V(X). si existen. Sin em argo. lo recproco no es verdadero.
sto e . conociendo E(X) y V(X) no p dcmo recon truir la distribucin de pro-
babilidade de X y por tanto no podemo calcular cantidades tales como P[IX
- E(X) j :;:; CJ. Sin embargo, resulta que aunque no podemo evaluar tale pro-
babilidades [a partir de un conocimiento de E(X) y V(X)] , podemo dar una cota
_ upe rior (o inferior)....!!1UY tile para tale probabilidades. te re ultado e t
contenido en lo que e conoce como la de iguladad de Cheby hev.
1
P[IX - el ~ E] :;;; 2 E(X - c)2. (7.20)
E
1
P[IX - el < EJ ~ 1 - , E(X - c) 2.
E" .
(7.20a)
(7.21)
sta ltima forma (7.21) indica es pecialmente cmo Ja varianza mide e l grado
de concentracin de la probabilidad prxima a E{X) = .
Demostracin (Oemostraremo lo 7.20 puesto que la otra e deducen como
e indic. Tratarem s lo el ca o continuo. En e l caso discreto, el arg umento
e muy parecido a l de las integral..::, subst ituida por urna . Sin embarg . ha}
que tener cuidado con lo punto~ ex tremos de los intervalo ):
on ideremo
P[IX - el ~E] = Jx:lx-I ;:., f(x)dx .
7.8 Desigu1ldad d heb sh v 147
.$ f,
R
(x -2 c)2 f(x) dx,
E
en donde
R = {x: lx - el ~ E}.
E ta integral, a u vez, e
f:: ~~ c)
2
.$ f(x)dx
lo que es igual
12 E[X - c]2,
E
Definicin. Sea (X, Y) una variable aleatoria bdimen ional. Definimo Pxy
el i2efici ente de correlacin , entre X y Y , como sigue:
E X - E(X) [Y - E(Y)] }.
Px,= ~-- (7.22)
V(X)V(Y)
Observacio11es : (a) Suponemo que todas la esperanza existen y que amba V(X) y V( Y)
son distintas de cero. uando no hay duda de cua les variables a leatorias estn implicadas
escribiremos simplemente p en vez de Pxr
(b) El numerador de p, E{[ X - E(X)](Y - E(Y)]} , e llama la covaria11za de X y Y, y
se denota algunas veces como <1xy
(e) 1 cocfeicnte de correlacin es una cantidad adimen ional.
(d) Antes de q ue la definicin anterior pueda ser signilicativa, debemos establecer exac-
tamen te lo que mide p. Esto lo haremos al considerar un nmero de propiedades de p.
Teorema 7.9.
E(XY) - E(X)E(Y)
p = j V(X)V( Y) .
7.1) El co ficicnlc de orre lacln 14\1
Demos1racin : consideremos
E(XY) = E(X)E(Y)
y Y son independiente .
Observacin : el recproco del teorema 7.10 no es verdadero en general. (Ver el proble-
ma 7.39.) Esto es. podemos tener p = O. y an a i X y Y no necesitan ser independientes.
Si p = O decimo que X y Y son ;;;; correlacionados. As, sit:ndo no correlacionados e in-
dependiente no son. en general. equivalente . El ejemplo siguiente ilu tra e te punto.*
ean X y Y variables aleatoria cualesquiera que tienen la misma distribucin. ea U =
X - Yy V = X + Y . LuegoE(U) = Oycov(U, V) = E((X - Y)(X + Y)] = E(X 2 - Y2) = O.
Luego U y V 011 no correlacionados. An i X y Y son independientes. U y V pue"den ser
dependientes como lo indica la eleccin iguiente de X y Y. Sean X y Y lo nmeros que
aparecen re pectivamente en el primero y segundo dados, cuando e han lanzado un par de
dados regulares. Ahora, por ejemplo, hallamo que P V = 4 I U = 3) = O (puesto que i
X - Y = 3, X + Y no puede ser igual a 4). mientras que P( V = 4) = 3/36. A i U y V son
dependiente .
V
(a) (b)
IOURA 7.8
El ejemplo en este prrafo est tomado de una exposicin de un articulo titulado 1.u-
tually Exclu ive Events, lndep ndence and Zero Correlat ion. por J. D. Gibbon . que apa-
reci en Tl1e American Stati tician. 22. nm. 5, diciembre 1968. pgs. 31-32.
150 Otras caracler1 lica d las ariables aleatorias 1.1}
Teorema 7.15.
E[E(X 1 Y)] = E(X), (7.25)
E[E(Y 1X)] = E(Y). (7.26)
E[ E(X 1 Y)] = f+
- et>
E(X 1y)li(y) dy = f+ -
[J -
+ x f(lix . y) dx] h(y) dy.
(y)
Si toda las e peranza exi ten , e po ible e cribir la integra l iterada anterior
con el orden de integracin invertido. As
n: 10 J1 12 13 14 15
P( = n): 0.05 0,10 O.JO 0,20 0,35 0.20
T = O03 Y si Y < X,
= 0,03X + O,Ol(Y - X) si Y > X.
l
Si 10 < X < 20,
E(T 1 x} = g~ 0,03y,.\ dy i 20 < < 30,
i'ti[O015x 2 - 1.5 + 2 + 0,4x - 0,005x 2 - 0.02x 2 ]
= si JO < x < 20,
1/o- S 20 < X < 30,
_ { 0,05 + 0,04x - 0,00 1x 2 JO< X< 20,
- 0,45 20 < X < 30.
Por tanto
(a) (b)
FIGURA 7.10
x - 1 x- 1
FlG RA 7. 11
Jl="Xl 2 2
y(x) =
f
o
- dy =-
Tt 1t
- 1 ::;;; x:::; I ;
li(y) = f
.fl=rr 2 dx =
- 1 - y Tt
~
Tt
o :::; y:::; J.
Por tanto
1
g(X 1 y) = J
2 1 -y 2 -Jl=Y2:::,; X~ Jl'=Y2;
h(y 1 x) = J 1 1- x2
,. O ::::;; y ~ 1 - x 2
Luego
r~
E( Y 1 x) = Jo yh(y 1 x) dy
156 Otra, caracter tica d la variabl aleatoria 7.11
-Jo.Jt=Xljl---'-~, .'ly -J
1- r
- 1
1-
y2
x2 2
I'
0
1- x' -
- .),.. - x 2.
De modo semejante
+JT=Yl
E(X 1 y) =
f
-Jr=-;l
+ 1 -2
xg(x 1 y) dx
1
-
J
-~
X
2
= o.
Puede suceder que una o ambas cur as de regre in ean en rea lidad lneas
rectas (figura 7.12). E decir. E( Y 1 x) puede ser una funcin lin l'al de x y/o E(X 1y)
puede se r funcin lineal de y. n e te caso decimo que la regresin del prome-
dio de Y sobre X (p r ejemplo) e lineal.
y
IGRA7. \ 2
EJEMPLO7.25. Supongamos ~ue (X , Y) est distribuida uniformemente en
el tringulo indicado en la figur; 7.13. Por tanto f (x, y) = J, (x. y) e T . Las ex-
presiones siguientes para las fdp margina l y condicional se verifican fcilmente:
2 - y
g(x) = 2x, O $ x $'. 1; h(y) = - 2- , o :$'. y $'. 2.
2 1
g(X y)
1 = - - , y/ 2 ,s; X .S: 1: h(y 1x) = x , O s; y ,s; 2x.
2- y 2
E(X 1 y) =
il
y{2
xg(x 1 y) dx = il
112
x -2- dx = l
2- y 4
+ -1
2
y y
(1, 2) (1, 2)
E(X Jy)
(7.28)
Obse,.vacio11es : (a) Como se . ugiri en la exposicin anterior. e posible que una de las
regre iones del promedio sea lineal mientra que la otra no lo ea.
(b) tcsc el importante papel desempeado por el coeficiente de correlacin en la ex-
presiones interiore . Si la regre in de X obre Y, por ejemplo, e lineal. y si p ='o. enton
ce (nuevamente) encontramos que E(X 1y) no depende de y. tese tambin que el "igno
algebraico de p determina el signo de la pendiente de regresin.
(c) Si amba funcione de regresin son lineales. encontramos. al re olver las e.c uaciones
(7.27) y (7.28) imultncamente. que las rectas de regre in se cortan en el centro de la dis-
tribucin, (,,, 11,.).
158 01111 c:araclerislca~ de las variables alealorias
omo lo hemo ob ervado (ejemplo 7.23 por ejemplo), las funciones de re-
gresin no nece itan er lineales. Sin embargo an no podra interesar el tratar
de aproximar la curva de regresin con una funcin lineal. orrientemente e hace
recurriendo al principio de los mnimos cuadrados, lo que en el contexto presente
es como igue: e e cogen las con tan tes a y b de modo que E[E(Y 1 X) - (aX + b)] 2
ea minimizada. Anlogamente e e cogen las constante c y d de modo qu
E[E(X 1 Y) - (cY + d)] 2 ea minimizada.
Las rectas y = ax + b y x = cy + d se llaman las aproximaciones mnimas
cuadrticas a la correspondientes curva de regresin E(Y l x) y E(X 1y) re pec-
tivamente. 1 teorema siguiente relaciona e a recta de regresin con la ex-
puestas anteriormente.
PROBLEMAS
ble aleatoria que representa la di tanca del impacto al centro. Suponiendo que la fdp de
R sea f (r) = 2/n( 1 + r 2 ), r > O. a lcular el valor esperado del puntaje despu de 5 dis-
paros.
7.28. Supngase que la variable aleatoria continua X tiene la fdp
(2,4)
(2, 0)
!GURA 7. 15 FIGURA 7. 16
7.31. u pngase que X y Y son variable aleatorias para las cuale E(X) = ~. E( Y) = ti,..
V(X) = ai y V(Y) = 11;. sando el teorema 7.7 obtenga una aproximacin para E(Z) y V(Z),
en donde Z = X/ Y.
7.32. Supnga e que X y Y on variables aleatoria independientes, distribuida cada una
uniformemente en (1 , 2). ea Z = X/ Y.
(a) U ando el teorema 7.7 obtener expre iones aproximada para E(Z) y V(Z).
(b) U ando el teorema 6.5 obtener la fdp de Z y luego encontrar el valor exacto de E(Z) y
V(Z). omparar con (a).
7.33. Demo trar que si X es una variable aleatoria continua con fdpf que tiene la propiedad
de que el grfico de fes simtrico re pecto a x = a, luego E{X) = a. dado que existe E(X).
(Ver el ejemplo 7.16.)
7.34. (a) Supnga e que la variable aleatoria X toma lo valore - 1 y 1 cada uno con
probabilidad 1/ 2. Considerando P(IX - E(X)I ~ k-Jii(X}] como una funcin de k, k > O.
162 Otral> car11ct ri tica de las variables 1Jeatorias
-l
FIGURA 7.17 FIGURA 7. 18
7.38. Supnga e que la variable aleatoria bid imcn iona l (X, Y) tiene la fdp dada por
TABLA 7.1
IX - 1 o 1
-1
CD [}] CD
o [[] o [}]
1
CD w (])
Problema' 163
Definicin. Sea X una var.iable aleatoria que toma los valores posibles:
O, 1, .. . , n, ... Si
e- "rxk
P(X = k) = ~, k = O, 1, ... , n, ... , (8.1)
Teorerna 8.1. Si X tiene una di tribucin de Poisson con parmetro ix, en-
tonce E(X) = rx y V(x) = o:.
164
8.2 La diJ.lribuci(111 de Poi..-.on 165
De modo semejante.
[pue to que la primera urna repre enta E(X) mientras que la segunda urna es
igual a uno]. Luego
babilidad de dos llamadas durante el intervalo de tres minuto (es decir, 2 xito
en 9 experimentos con P(xito) = (0,5) es igual a (~)(1 /2)9 = 9/ 128.
a dificultad con esta aproximacin es que ignoramo las posibilidade de,
digamos, dos o tres, etc., llamadas durante uno de nue tros en ayo con perodo
de 20 segundo . Si e ta posibilidad e tomase en con ideracin, el u o anterior
de la di tribucin binomial no era legtimo ya que e a distribucin es aplicable
s lo cuando exi te una dicotoma, una llamada o nin una llamada.
Para evitar e ta dificultad hacemos la aproximacin siguiente y, realmente,
nos lleva a una suoe in completa de aproximacione . Una manera de e tar ms
o menos seguro de que al menos se recibe una llamada en la central durante un
pequeo intervalo de tiem~o , es hacer que ese intervalo ea muy corto. A , en
vez de con iderar nueve intervalo de 20 egundo de duracin, consideremos
los 18 intervalos iguientes, cada uno de 10 segundo de largo. Podemos repre-
sentar ahora nue tro experimento como 18 experimentos de Bernoulli con P(xi-
to) = P(recibir una llamada durante un ubintervalo) = (1,5)10/60 = 0,25. Por
tanto P(dos llamadas durante el intervalo de tres minutos) = (1 8 )(0,25) 2 (0,75) 16
Ntese que aunque ahora tratamo una distribucin binomial diferente a la de
ante (es decir, que tiene parmetros n = 18, p = 0,25 en vez de n = 9, p = 0,5),
el valor esperado es el mismo, a aber np = 18(0,25) = 9(0,5) = 4,5.
Si continuamo de e ta manera, aumentando el nmero de ubintervalos
(es decir, n), di minuiremos al mismo tiempo la probabilidad de recibir una lla-
mada (e decir, p) de tal manera que np permanece constante.
As el ejemplo precedente nos conduce a formular la pregunta siguiente :
qu u cede a la probabilidades binomiales (~)p11 (1 - p)" - k si n --+ oo y p --+O , de
tal manera que np permanezca constante, es decir, np = a.?
Los clculo siguientes dan la respuesta a e ta pregunta muy importante.
Consideremos la expre in genera l para la probabi lidad binomial,
P(X = k) = (n)
k
pk(l - p} - = n!
k!(n - k)!
pk(l _ p) - k
_ n(n - l)(n - 2) (n - k + 1) . k - k
- k! p (1 - p)" .
Teorema 8.2. Sea X una variable a leatoria distribuida binomia lmente con
parmetro p (con ba e en n repeticiones del experimento). Esto es,
Observaciones : (a) El teorema anterior, esencialmente, dice que podemo aproximar las
probabilidades binomiales con las probabilidades de la distribucin de Poisson siempre que
ri sea grande y p pequeo.
(b) Ya hemos verificado que si X tiene una distribucin binomial, E(X) = 11p, mientras
que si X tiene una distribucin de Poisson (con parmetro ex), E(X) = ex.
(c) La distribucin binomial est caracterizada por dos parmetros, 11 y p. mientras que
la distribucin de Poisson est caracterizada por un solo parmetro, ex = 11p, que representa
al nmero esperado de xitos por unidad de tiempo (o por unidad de espacio en algn otro
caso). Este parmetro tambin se designa como la intensidad de la distribucin. E importan-
te distinguir entre el nmero esperado de ocurrencia por unidad de tiempo y el nmero es-
perado de ocurrencia en el tiempo especificado. As, en el ejemplo 8.1 la intensidad es l ,5 lla-
madas por minuto y por lo tanto el nmero esperado de llamadas es un periodo de 10 mi-
nutos, por ejemplo, seria 15.
(d) Tambin podemo con iderar el siguiente argumento para evaluar la varianza de una
variable aleatoria X de Poisson con parmetro a: X se puede oonsidernr un caso limite de una
variable aleatoria Y distribuida binomialmente con parmetro n y p, en donde 11-+ oo y p-+ O
de tal manera que 11p-+ o:. Pue to que E(Y) = np y Var(Y) = np(l - p), observemos que en
el limite Var(Y)-+ rx.
Hay extensas tablas disponibles para la distribucin de Poi son. (E. C. Moli-
na, Poisson's Exponential Binoma/ Lmit, D. Van Nostrand Company, lnc., New
York, 1942). Una breve tabulacin de esta distribucin se da en el apndice.
168 La ~ariable aleatoria de Polsson y otra variables aleatorias 11.2
Consideremo otros tres ejemplo adicionalc que ilu tran las aplica ione de
la di tribucin de Poisson mencionada previamente.
x2 x3
= X - 2(1()()) + 6(100) 2 -
(8.2)
lc = 2
(c) Podemos escribir
Po(l +Al)= P[Xr+t.t =O]
= P'[X, =O y (X1+ 6 1 - X,) = O]
= p0 (l)po(At). [Ver conclusin (a).]
"'p 0 (t)[l - A.M]. [Ver ecuacin (8.2).]
(d) Luego tenemo
Po(l + Al) - Po(t)
_ _ _A _ t_ _ _ .... -A.po(t).
n- 2
"' "'
Utilizando las hiptesi A3 y A4 y tambin la ecuacin (8.2), obtenemos
Pn(l + Al) ,..., Pn - 1(t)..lAt + Pn(t)[ l - ). Al].
K. El proceso de Pobwn 17J
Luego
Pn(l + l) - Pn(l)
t - ~.Pn - 1{l) - APn(l).
En general, q~(t) = A.q,, _ 1(t) y por tanto qn(t) = (A.t}"/n ! Recordando la definicin
de qn, finalmente obtenemos
Pn(l) = e-l1(A.t)"/ n!, n = O, l , 2,. .. (8.4)
Hemo demo trado as que el nmero de partcula emitidas durante el in-
terva lo de tiempo [O, t) de una fuente radiactiva, bajo las upo iciones hechas an-
teriormente, es una variable aleatoria, con una di tribucin de Poi on con pa-
rmetro (A. t).
Observaciones : (a) s importante darse cuenLa de que la di tribucin de Poi on apare-
ci como una consecuencia de cierta suposicione que hicimos. Esto significa que cada vez
que dichas uposiciones sean vlidas (o al meno lo sean aproximadamente) la distribucin
de Poi son debe usarse como un modelo apropiado. Resulta que hay una gran cantidad de
fenme no para lo cuales es apropiado el modelo de Poi son.
(i) Repre entemos por X, el nmero de llamada telenicas que llegan a una central
telenica gurante un perodo de tiempo de longitud c. La supo icione anteriores se
satisfacen aproximadamente, en especial durante el periodo congestionado del d.a.
Luego X, tiene una distribucin de Poisson.
(ii) Representemos por X, aJ nmero de electrones que salen del ctodo de un tubo
al vaco. Nuevamente las suposiciones son apropiadas y por tanto, X, tiene una di tri-
bucin de Poisson.
(iii) El ejemplo iguiente (de astronoma) indica que el razonamiento anterior puede
aplicarse no slo al nmero de ocurrencia de un suceso durante un perodo de tiempo fijo,
ino tambin al nmero de ocurrencias de un uce o dentro de los lmites fijados de tt
rea o un volumen. Supngase que un astrnomo iove liga una parte de la Va Lctea
y supngase que en la parte c-0nsiderada la densidad de e trellas. llammosla A. es cons-
tante. (Esto significa que en un volumen de V (unidades cbica ), e encontraran, en
promedio, A. V estrella ). Sea X v igual al nmero de estrellas encontradas en una parte
de la Va Lctea, que tiene un volumen V. Si se satisfacen las suposiciones anteriores (sus-
tituyendo volumen por tiempo), entonces P[Xv = 11] = (A.vre - H'/nl (Las upos-
ciones, interpretadas en el ejemplo presente, estableceran esencialmente que el nmero
174 La variable alealoria de Poi>!;<>n y olras ~11ri11bl.es ale111orias IU
Sea i = x - k. ntonce
t- p)"
e_,,, "" (pa.tY+k
P(R, = k) = ( -p - -k!- l:oLQ 1..1
As encontramos que R, tiene una distribucin de Poi son con parmetro (1 - p)a.t.
Se dice que una variable aleatoria con una di tribucin de probabilidades ecua-
cin (8.5), tiene una distribucin geomtrica .
176 Le variable alea1oria de Poi otra arlables aleatoria
~ P(X = k) =
= p(l + q + q2 + ) = p[- 1
- ] = l.
1- q
Podemo obtener el valor e perado d~ X como igue.
E(X) = L kpqk - 1 = p L -d qk
k=1 k "' dq
1
= p.!!_ I: qk = p.!!_ q = -
dq k= 1 dq 1- q p
E.J MPLO 8.9. Si la probabilidad de que cierto examen d una reaccin po-
sitiva igual a OA ,cul e la probabilidad de que ocurran meno de 5 reacciones
H.4 L1& di~lribu 1611 geom lrlcu 177
La distribucin geomtrica tiene una propiedad intere ante que est re Ul\)i-
da en el teorema iguiente.
Teorema 8.4. Supngase que X tiene una di tribucin geomtrica dada por
la ecuacin (8.5). Entonces para do entero po itiv ualesquiera s y t ,
d
dp P(X = n) = O.
178 La nriahle uleatoria de Poi son otra variabl al atorias !l..
E to da
p(n - t)(t - p)" - 2 ( - J) + ti - Pr- = o.
lo que equivale a
(l - pn- 2 (1 - p) - (n - l)p] = O,
L P(Y = k) = 1
k ,
obtenerno
~ =
(rk-- 1') tfq - = p' L
t r
(k - ') qk - = p'( l -
r - 1
q) - '
( ! _ q) - r = ( - ') ( - q)n,
=O n
K.6 Relaci6n entr la~ dlstribuclon s binomial y de P;i~cul 17\1
es igual
k - ') -,
t (r - l q
ea
Z1 = nmero de repeticiones necesarias hasta incluir la primera ocurren-
cia de A.
2 2 = nmero de repeticiones nece arias entre la primera ocurrencia de
A ha ta incluir la segunda ocurrencia de A.
Teorema 8.5. i Y tiene una di tribucin de Pascal dada por la ecuacin (8.7).
luego
E(Y) = r/ p, V( Y) = rq/ p2 ( .8)
J MPLO 8.11. La probabilidad de que un experimento sea exilo o e 0,8.
Si el experimento e repite ha ta que curran cuatro re ultado exitoso , cul
e el nmero esperado de repeticione necesaria ? De lo anterior, tenemos E(n-
mero de repeticione ) = 4/0,8 = 5.
~ (~l!:;) = 0.28.
P(X l) =I- P(X = O) = I -
5
11.11 l distribuci6n multinomlal 181
para grande.
Demostracin: dejaremos lo detalles de la demo tracin al lector. (Ver proble-
ma 8.19.)
Observacin : la propiedad (c) del teorema 8.6 e tablcce que i el tamao del lote es
sulicienlcmente grande, la distribucin de X puede ser aproximada por la distribucin bino-
mial. sto es razonablemente intuitivo. La di tribucin binomial se aplica cuando mues-
treamos con u titucin (puesto que en ese ca o la probabilidad de obtener un artculo defec-
~ permanececon tante), mientras que la distribucin hipergeomtrica e aplica cuando
~treamos in sustitucin. i el tamao del lote es grancfe. no sera mucha la dli'erCnela si
~teulo en particular es devuelto o no al lote antes de escoger el siguiente. La propiedad
(e) del teorema .6 e simplemente una expresin matemtica de e ~ hecho. te e tambin
que el valor esperado de una variable aleatoria hipcrgeomtrica X es el mismo que el de
la variable aleatoria correspond iente distribuida binomialmente, mientras que la varian-
za de X e un poco m pequea que la correspondiente en el ca o binomial. 1 trmino
de correccin (N - n)/( - 1) e aproximadamente igual a 1, para un grande.
P(X = 0) = --
N
- r
- -r-1 1 = ( l - -r) (l - r )
N - 1.
(8.10)
en donde 1:~. 1 n1 = n.
Demostracin : el argumento es idntico al utilizado para establecer las proba-
bilidades binomiales. Simplemente debemo observar que el nmero de maneras
de agrupar n objetos, n1 de lo cuales son de una clase n 2 de los cuales on de se-
gunda da e, ... , nk de los cuales son de una k-sima clase e t dado por
n!
n 1 ! nk !
Tenemos
10! 5 3 2
5!3!2!(0,25) (065) (0,1).
PROBLEMAS
8.1. Si X tiene una distribucin de Poi son con parmetro p, y i P(X = 0) = 0,2 calcu-
lar P(X > 2).
8.2. Sea X una distribucin de Poisson con parmetro l. ncontrar el valor de k para
el cual P(X ""'k) e la mayor. [Indicacin : comparar P(X = k) con P(X = k - I).]
8.3. ( ste problema e tomado de P1obabilily a11d Statistical llljerence for E11gi11eers
por Derman y Klein, xford University Pres . LonJr~ !959.) 1 nmero de buques tanques.
digamo N, que llegan cada dia a cierta re meria ttene una di tribucin de Poisson con par-
metro ). = 2. La actua le instalaciones portuaria ~ pueden de pachar tres buques a l da. Si
ms de tre buque tanques llegan en un da, los que estn en exce o deben enviarse a otro
puerto.
(a) En un dia determinado, cul e la probabilidad de tener que hacer salir buques tanques?
(b) n cunto deben aumentarse las instalaciones actuales para permitir la atencin a
todos lo buques tanques aproximadamente el 90 por ciento de los das?
(c) ul es el nmero esperado de buque tanques que llegan al dia?
(d) ul es el nmero ms probable de buques tanques que llegan diariamente?
(e) i.Cul es el nmero esperado de buques tanques atendidos diariamente'?
(f) , 'ul es el nmero e perado de buques tanques devueltos diriamente?
8.4. Supngase que la probabilidad de que un artculo producido por una mquina es-
pecial ea defectuoso es igual a 0,2. Si JO artculos producido , e seleccionan al azar, cul
es la probabilidad de que no se encuentre m de un articulo defectuo o? Use las distribu-
cione binomial y de Poisson y compare las re puesta .
8.5. Una compaia de eguros ha descubierto que slo alrededor del 0.1 por ciento de la
poblacin tiene cierto tipo de acciden te cada ao. Si los 10.000 asegurados fueran seleccio-
nados aleatoriamente en la poblacin cul ser la probabilidad de que no m de 5 de estos
clientes tengan un accidente de ese tipo el prximo ao?
8.6. Supngase que X tiene una di tribucin de Poisson. Si
(b) Lo mi mo que en (a) excepto que la mquina llega a ser inoperante si fallan 2 o ms
transistores.
8.14. Al formar nmeros binario con ,. dgito , la probabilidad de que aparezca un
dgito incorrecto es, digamo , 0,002. Si los errorc son independientes, ,cul es la probabilidad
de encontrar cero, uno o ms de un dgito incorrecto en un nmero binario de 25 dlgitos?
Si el computador orma 106 de tales nmeros de 25 dgitos por segundo, cul es la proba
bilidad de que se forme un nmero incorrecto durante cualquier perodo de un segundo?
8.15. e emplean do procedimientos independientes en la operacin de lanramiento
de cohetes. Supngase que cada uno de los procedimiento se contina hasta que se produce
un lanzamiento exitoso. Se supone que al usar el procedimiento 1, P(S), la probabilidad de
un lanzamiento exitoso es igual a p., mientras que para el procedimiento 11, P(S) = p 2 Se
upone adems, que cada semana se hace un intento con cada uno de los dos mtodos. Repre-
entemos con X 1 y X 2 al nmero de semanas necesaria para obtener un lanzamiento exitoso
por medio de 1 y [I respectivamente. (Luego X, y X 2 son variables alea1orias independientes,
que tiene cada una una di tribucin geomtrica). Sea W el mnimo (X., X 2 ) y sea Z el m-
ximo (X 1, X 2) . Por tanto W repre enta al nmero de semana necesarias para obtener un
lanzamiento exitoso mientras que Z repre enta el nmero de semanas necesarias para obtener
lanzamientos exitosos con ambos procedimiento . (Luego si el procedimiento 1 resulta en S S,
mientras que el procedimiento 11 re ulta en SSS, tenemos W = 3, Z = 4).
(a) Obtener una expresin para la distribucin de probabilidades de W. [Indicacin :
ex pre e en runcin de X 1 y X 2 , el suceso { W = k }.]
(b) Obtener una expresin para la distribucin de probabilidade de Z.
(c) E cribir nuevamente la ex.presiones anteriore si P = p 2
8.16. Se arman cuatro componentes en un solo aparato. La componentes originan
uente independientes y p 1 = P(i- irna componente es deectuosa), i = 1, 2, 3, 4.
(a) Obtener una expresin de la probabilidad para que el aparato completo funcione.
(b) Obtener una ex.presin de la probabilidad' para que al meno tres componentes un-
cionen.
(c) Si p 1 = p2 = 0,1 y p3 = p4 = 0,2, calcule la probabilidad de que funcionen exacta-
mente dos componentes.
8.17. Un mecnico mantiene un gran nmero de arandelas en un depsito. El 50 por
ciento de esas arandelas son de! pulgada de dimetro, el 30 por ciento on de t pulgada de
dimetro, y el 20 por ciento restante con i pulgada de dimetro. Se upone que se eligen
10 arandelas.
(a) Cul es la probabilidad de que haya exactamente cinco arandelas de! pulgada, cuatro
de t de pulgada, y una de i de pulgada?
(b) ul es la probabilidad de que lo haya dos clase de arandelas entre las elegidas?
(e) Cul es la probabilidad de que las tres clases de arandelas estn entre las elegidas?
(d) Cul es la probabilidad de que haya tre de una clase, 1re de otra cla e, y cuatro de
la tercera clase en una muestra de IO?
8.18. Demo trar el teorema 8.4.
8.19. Demo trar el teorema 8.6.
8.20. 1 nmero de partculas emitida por una fuente radiactl\'a duran!..: un perodo
especfico es una variable aleatoria con una di tribucin de Poisson. Si la probabilidad de
ninguna emisin es igual a t, cul es la probabilidad de que ocurran 2 o ms emisiones?
1116 l .a varfahle 11lea1oriA de Pol~n y otra~ variabl s aleatorias
l!.2 L Supngase que X,. el nmero de panculas emitidas en 1 horas por una fuente
radiactiva. tiene una distribucin de Pois:.on con parmetro 20 l. ;, ul es la prohahilidad
de que exactamente 5 partculas sean emitida. durante un perodo de 15 minuto ?
8.22. La probabilidad de un lanzamiento exito o e igual a 0,8. Supongamos que se hacen
en ayos de lanzamientos ha ta que han ocurrido 3 lanzamientos exitoso . , ul es la pro-
babilidad que ean necesarios 6 in tento ? ,Cul es la probabilidad de que sea n necesarios
menos de 6 intento ?
8.23. n la ituacin de crita en el problema 8.22, supongamo que los ensayos de lan-
zamiento se hacen ha ta que ocurren tres lanzamientos conseclllivos exitoso . Responda las
preguntas formulada en el problema previo en este caso.
8.24. Con idere nuevamente la ituacin de crita en el problema 8.22. Supngase que
cada uno de lo ensayo de lanzamiento cuesta 5.000. Adcm , un lanzamiento que fracase
produce un costo adicional de 500. alcular el co to esperado para la situacin de crita.
8.25. on X y Y definidas como en la seccin 8.6. probar o refutar lo iguiente:
P(Y < n) = P(X > r).
9
Algunas variables aleatorias continuas importantes
9.1 Introduccin
Ji (J 2
[X -
f(x) = -l - exp ( --l - -
(J
] 2) , <x< (9.1)
normal sirve como una aproximacin excelente a una gran ccmtidad de distribuciones
que tienen mucha importancia prctica. An m , e ta di tribucin tiene varia
propiedades matemticas apreciable que hacen posible deducir importante re-
sultado tericos.
(a) Digamo que f e una fdp leg.tima. videntemente f(x) ~O. Adems
debemos verificar que J"!: 00 f(x) dx = l. Notemos que al hacer t = (x - )/ q, po-
demo e cribir J!:: J(x)dx como (1 /Ji) J ~ e- 12' 2 dt = J.
El true utilizado para evaluar esta integral (y esto es un truco) e considerar
en vez de / ,el cuadrado de e ta integral, llamada 12 As
=
1
21t ff
_+ _+
e - <1 + ,2112 dsdt.
12 = -
21t o
12" looo re - . drdcx.
2
12
J f 2n
= 2tr o dcx = 1.
l u f+
= --
fl -
ze - l/ 2 d z + -1-
.Jii -
f
+
E(X 2 ) = - -f
J2
1
(J -
+
2
1
x 2 exp ( - - x -
(J
2
) dx .
E( X 2 ) = -1- f +
fi -
+ 2 1
pr:;
... .t.1t
f
-
+ e- zl/ 2 d z.
14JO li:una' uriablc~ al aloria~ continua~ importan! s 9.3
+ = -ze -: /21+
2
f
--
1
fo - f z2 e- =212 dz
fo -oo
+ --.
fa
+oo
- oo
e- 12 dz =O+ l = l.
FIGURA 9.2
(d) Si X tiene una distribucin N(O, 1) decimo que X tiene una distribucin
normal e iandarizada. Esto es, la fdp de X puede escribirse como
( )
<pX = -1- e - ,,212. (9.2)
J2
(U aremo la letra <p slo para la fdp de la variable aleatoria X anterior). La im-
portancia de la distribucin normal estandarizada se debe a que e t tabulada.
Cada vez que X tiene una distribucin N(, q 2) siempre podemo obtener la forma
estandarizada, tomando simplemente una funcin lineal de X como lo indica
el teorema siguiente.
g(y) =
fo
-1
u 2u a
[y -
exp ( - - 12 - -b -11 ]
2
) 1-11
a
= ~ I I exp( - 2a
2n a a
+ , [y -
a
(at + b)J 2) ,
Esta integral no pue.de evaluarse por mtodos ordnario . (La dificultad proviene
del hecho que no podemo aplicar el Teorema undamental del lcu lo puesto
que no podemo encontrar una funcn cuya derivada ea igual a e-x 212 ). in em-
bargo, lo mtodo de integracin numrica pueden u ar e para evaluar inte-
grales de la forma anterior, y de hecho ha ido tabulado P(X ~ s).
La fda de la distribucin normal e tandarizada se denotar permanentemente
como <D. to e ,
<D(s) = vFJ:::
12n f'
_
e- " 212 dx . (9.3)
192 Algunas variables alealorias rontinulis importantes 9.4
.p(x)
FIGURA 9.3
(9.4)
sta relacin e muy til puesto que en la mayora de la tablas la funcin <1> se
tabula slo para valore positivos de x.
Calculemos finalmente P( - ka s:; X s:; + kq), en donde X tiene distri-
bucin N( , q 2 ) . La probabilidad anterior puede expresarse en funcin de <l>
escribiendo
= <ll(k) - $( - k).
Usando la ecuacin (9.5), para k > O tenemos,
EJEMPW 9.L Supnga e que X tiene distribucin (3, 4). De eamo encon-
trar un nmero e tal que
P(X >e) = P ( -X 2
-- 3> -e -2-3) = 1 - (e- -2-3) .c1>
Tambin,
P(X < O) = P
X - J 165 < O
- - 16) = (l>( - 55) - O.
( 3
La situacin que aparece aqu ocurrir con frecuencia: se upo ne que cierta variable aleatoria X
que sabemos que no puede tomar valore negativos tiene una distribucin normal. tomando
asi (tericamente. a lo meno') ambos. valore positivo y negativos. Mientras que e escojan
los parmetros y a 2 de modo que P X < 0} sea prcticamentc cero. tal representacin e
perfectamente vlida.
2
1 ( 1[,. - 1]
f(r) = J 2n (0.2) exp - 2 .2
)
SI X< 10,
X > 12.
9. La d~lribucin e ponL'ftcial 195
Luego
+( 1 + 2) ~ exp ( - ( l O - ) 2) = O.
v 2x
o
A
= 11
[E fcil para el lector verificar que lo anterior da. un valor mximo para E(T)].
Definicin. Se dice que una variable aleatoria continua X que toma todos
los valore no negativos tiene una distribucin exponencial con parmetro
a positivo si su fdp e t dada por
/(x) = ae-"", x > O
= O, para cualquier otro valor. (9.7)
1% Ali:una~ \'ariabl s al 11torl11i. ontinuns importantes 9.6
e f(x)dx = 1
f(x)
FrGU:RA 9.4
(9.9)
9.6 Propiedad d la di~trlbucin oponencl11l 197
EJEMPLO 9.5. upngase que un fu ible tiene una duracin X que puede
considerar e como una variable aleatoria continua con una di tribucin expo-
nencial. Hay do proce os mediante los cuale se puede fabricar el fu ible. 1
proce o 1 da una duracin e perada de 100 hora (e to e , el parmetro e igual
a 100 - 1). mientra que el proce o Il da una duracin esperada de 150 hora (esto
e . el parmetro es igual a 150 - t). Suponiendo que el proceso 11 es dos vece m
costo o (por fu ible) que el proce o l, el cual cuesta C por fu ible. upnga e.
adems, que i un fu ible dura menos de 200 horas. e carga una prdida de K pe o
en contra del fabricante. Qu proce o e deber usar? alcu lemo el costo espe-
rado para cada uno de lo proce o . Para el proce o l. tenemo
Por tanto.
E( 1) = CP(X > 200) + ( + K}P(X ~ 200)
= ce - 0 1100) 200 + (C + K)(J _ e - 0 11001200)
EJEMP o 9.6. Supngase que X tiene una distribucin exponencial con pa-
rmetro ex. ntonce E(X) = 1/a.. Calculemos la probabildad de que X sobrepase
u valor e pcrado (figura 9.5). Tenemo
P (x > ~) = e - (1 1">
f(x)
= e- 1
<i.
x .. 1/a
FIGURA 9.5
T ::,; H .
Ntese que R e una variable aleatoria pue to que es una funcin de T. Luego
dE(R) = (C2 - Ci)[H( - /J)e -llH + e-1111 - e- 1111 + (p-1 + H)(/J)e - PH] - C3
dH
= (C2 - Ci)e - llH - C3.
[A fin de que la olucin anterior sea significativa, debemo tener H > O lo que
ocurre i y slo si O < C 3 /(C 2 - C 1) < 1, lo que a su vez es equivalente a C2 - i > O
y C 2 - C 1 - C 3 >O. Sin embargo, la ltima condicin requiere sencillamente
que las cifras del costo sean de una magnitud tal que pueda obtenerse una uti-
lidad.]
Suponiendo en particular que fJ = 0,01 , e, = 3, C 2 = 10, y C 3 = 4.
Luego H = - 100 In[~] = 55,9 horas ~ 56 horas. Luego el operador debe ser
contratado por 56 horas a fin de obtener la utilidad mxima. (Para una modifi-
cacin ligera del ejemplo anterior, ver el problema 9.18.)
Pre entemos primero una funcin que es muy importante no slo en la teora
de probabilidad, sino en muchas reas de la matemtica .
9.7
= O+ (p - 1) (' e - ~xP 2 dx
o
As hcmo demo trado que la funcin Gama sigue una importante relacin re-
cur iva. uponiendo que p es un entero positivo. hagarno p = 11. "ntonces apli-
cando la e uacin (9.13) repetidamente, obtenernos
(n) = (11 - 1) (n - 1)
= (n - l)(n - 2)f(n - 2) =
= (11 - l)(n - 2) f(I).
(9. 15)
Definicin. Sea X una variable aleatoria continua que torna slo va lores
no negativos. Decimos que X tiene una di.stribucin de probabldades Gama
si su dp est dada por
f(x)
IOURA 9.6
l
oo llr - le - u
F(x) = 1- -
,._.(r - 1) !
- du, X> 0.
r- 1
F(x) = 1 - e-"-'"(-x )k/k!. x >O. (9.17)
k O
Por tanto, la fda de la distribucin Gama puede expresarse mediante la fda ta-
bulada de la di tribucin de Poisson. (Recordamo que e to es vlido i el par-
metro r es un entero po itivo.)
(c) i X tiene una di tribucin Gama dada por la ecuacin (9.16). tenemos
z > O. (9.19)
Una variable aleatoria Z que tiene fdp dada por la ecuaci n (9.19) e dice que
tiene una distribucin x-cuadrado C0/1 n grados de libertad (den tada por x;). En
la igura 9.7, la fdp paran = I, 2 y rr > 2. Una con ecucncia inmediata de la ecua-
cin (9.18) es que si Z tiene dp de la ecuacin (9.19), tenemos
(a) (e)
FIGURA 9.7
..
'
204 Alguru1i. ~ariables alealorias conlinuas importantes 11.8
/(z)
IGURA 9.8
= s- 1/ 2
-1- e -s/2 .
fi
Si comparamos esto con la ecuacin (9.19) y recordamos que r(t) = ft, obser-
vamos que S tiene una distribucin xi. Luego encontramos que el cuadrado de
una variable aleatoria con distribucin N(O, 1) tiene una distribudn ;d. (Este es
el resultado que generalizaremos posteriormente). --
Ahora podemos obtener la fdp h de la energa cintica K. Puesto que K es una
funcin montona de V2 cuya fdp est dada por la g anterior, tenemos directa-
mente
h(k) = l
m
g (l k) = l-b (l
m m..2n m
k) -
112
e - k/m, k > O.
A fin de evaluar P(K ::;; 5) por ejemplo, no necesitamos u ar la fdp de K sino que
podemos usar sencillamente la distribucin tabulada de x-cuadrado como sigue:
Teorema 9.2. upngase que la variable aleatoria Y tiene una distribucin x~.
ntonce para 11 uficientemente grande la variable aleat ria 2 Y apro-
ximadamente tiene la di tritucin (~[ 1). (La demo tracin no
. e da aqu).
sle teorema puede utilizar e como igue. Sup niendo que nece itamos
P( Y ~ 1). en donde Y tiene la di tribucin x.7 y ne tan grande que la probabilidad
anterior no puede obtenerse directamente de Ja tabla de la di tribucin de x-
cuadrado. U ando el teorema 9.2 podemo escribir
P(Y s; t) ~ P( 21)
= P( 2n - 1 ~ ,(ii - 211 - 1)
::::: <1>( 2n - 1).
Obseriacin : nte e la imilitud entre (a)) Id). (b) y (e). y finalmente entre (e) y (1).
Toda s las varia ble aleatoria que hemo presentado han ido variable alea-
toria unidimen iona les. 'orno lo mencionamos en el captulo 6. la variables
aleatoria de mayor dimen in de empean un papel importante para de cribir
re ultados e perimentale . Una de las ms importante variable aleatorias bidi-
men ionale continuas, una generalizacin directa de la distribucin normal
unidimen ional, e define como igue.
X exp { - 1 2
2( l - P )
[(x -<1 x
... )2- 2p (x - x)(Y -
U ;oc <11
,.) (y J'")z }
-<1
,
a fdp anterior depende de 5 parmetros. Para que f defina una fdp le-
gtima [o sea, f(x.y);::: O. I ~' J ~ f(x.y)dxdy = 1]. debemo poner la
iguiente restriccione a lo parmetro : - < ,. < oo; - < ,. < oo;
<1x > O; u,> O - 1 < p < l. La iguiente propiedade de la di tribucin
normal bivariada pueden verificar e fcilmente.
9.11 La di tribucilln nonn1I bl~1rlad1 207
[
.. + O"x 2 2
p - (y - y). a.. (1 - p)
a,. [ 1
u., (x
+ p a,, J
- ,,), u.,2 ( 1 - p 2 ) .
Observaciones : (a) El recproco de (a) del teorema 9.3 no e verdadero. po ible tener
una fdp conjunta que no es normal bivariada aunque la fdp de X y de Y on normales uni-
dimen ionales.
(b) Ob ervemos de la ecuacin (9.21) que si p == O. la fdp conjunta de (X. Y) puede facto-
rizarse y, por tanto, X y Y on independientes. Luego en el caso de la distribucin normal bi-
variada, encontramos que la correlacin cero y la independencia son equivalentes.
(c) La parte (c) del teorema anterior demuestra que ambas funcione de regresin del
promedio on lineales. Tambin demue tra que la varianza de la distribucin condicional
e reduce en la misma proporcin que (1 - p 2). sto es, si p est prxima a cero, la varian?.a
condicional es esencialmente la misma que la varianza incondicional, mientras que si p est
prximo a l. la varianza condicional est prxima a cero.
..
'
2011 lgWJa~ ~ariablc alcalurla~ continua~ imporlanl\.>s 9. 12
F(x) = P(X s; x)
= P( Y s; x Y 1 :s; 2) = 1 si x > 2.
= P(Y s; x)/ P(Y :s; 2) si x s; 2.
(Ver la figura 9.9). Luego/.la fdp de X. est dada por
- 2.2]
_ ~exp( - ~[ 0.1
2
)
- $( - 2)
o 2
FIGURA 9.9
pue to que
K =- I _ _ =- - - -
$((r - )/q J P(Z s; r)
9.12
f(x) = O i X< y,
(9.23}
K = - )]-
[ (.!q
1 - <I>
f(x) = O . <y,
(9.24)
P(X = i) = O ji ;'2:: k + 1,
A.' - .!
-:- e si i = O, L ... , k. (9.25)
l.
As
EJBMP 9.11. Supnga e que X repre enta la duracin de una comp nente.
Si X est di tribuida normalmente con
E(X) = 4 y V(X) = 4,
encontramo que
f(x) =O i X~ O,
= -vbi
--=(2=~-)(-2) exp - ~( x ; 4)2] <D~2) X> 0.
Observacin: hemos indicado que a menudo usamos la di tribucin normal para representar
una variable aleatoria X de la cua l sabe"ws que no puede tomar valores negativo . (Por ejemplo,
el tiempo para fallar, el largo de una varilla, etc). Para ciertos valores de los parmetros
= E(X) y a 2 = V(X) el valor de P(X < O) ser despreciable. Sin embargo, si no e este
el caso (como en el ejemplo 9.11) deberamos considerar el uso de la distribucin normal trun-
cada a la izquierda en X = O.
(Z)(l - ptp - k
P(X = k) =
P(sistema falla)
. k = 1, 2 . .. , ti.
Puesto que P (el si tema falla) = 1 - pn, podemo e cribir
e- .t ,tk
P(Y = k) = kT e A[l +A.+ (A.2/2)]' k = 1,2,
= O, para cualquier otro valor.
f(x) =O si x ~ .-.
1
= Ji u exp
[
-
)(X - )
2 - a-
2
] 1
<l>[(i- - )/ u]
X ~ T.
) [ f(r - i)/a
(sa + )e - 112 ds
<l>[(r-)/ a] 2x _
= + (] -1- e - l/2 (
- ) )j(t- - )/ a
<l>((i- - ) fu] J2rr.
<J
= - <J>((t - )/uJ J2ir. exp
1 [ )
- 2 - u-
(T - ) 2]
Nte e que la expre in obtenida para E(X) e expre a mediante la funciones
tabulada . a funcin <l> naturalmente e la fda corriente de la distribucin (O, 1),
1
mientra que (1 /J2ii}e- " ' 2 es la ordenada de la fdp de la distribucin N(O, 1)
y tambin e t tabulada. n realidad, el cociente
I
212 lgum1' \llriabl ~ a l e111oria~ conl inua\ Importante~ Y. 12
- A= <l>[
"
t _
1 .
)/<! y'2exp
[
-
t - ) .
zl ('-"-
2
]
PROBLEMAS
9. L upnga e que X tiene una di tribuein N(2, O, 16). Use la tabla de la distribucin
normal. para evaluar las probabilidades siguiente .
9.2. 1 dimetro de un cable elctrico est d1 tribuido normalmente con promedio 0,8
y varianza 0,0004. ul es la probabilidad de que el dimetro sobrepa e 0.81 pulgadas?
9.3. Suponiendo que el cable en el problema 9.2 se considere deectuoso si el dimetro
se diferencia de u promedio en ms de 0,025. Cul es la probabilidad de obtener un cable
decctuoso?
9.4. Se abe que los errores en cierto instrumento para medir longitudes estn distribuidos
normalmente con valor esperado cero y de viacin estndar de l pulgada. Cul es la pro-
bablidad de que al medir los errores, ean mayores de 1 pulgada, 2 pulgada , 3 pulgada ?
9.5. Suponiendo que la duracin de lo in trumentos electrnicos D 1 y D2 tienen distri-
buciones N(40, 36) y N(45, 9) respectivamente. Cul debe preferir e para usarlo durante
un perodo de 45 horas? Cul debe preerirse para usarlo durante un perodo de 48 horas?
l'rublc11111~ 2 IJ
9.12. e especifica que el dimetro exterior de una lecha, llammoslo D. debe ser de 4 pul-
gada . Supngase que D es una variable aleatoria di tribuida normalmente con promedio
4 pulgada y varianza 0.01 pulgada 2 Si el dimetro real se dierencia del valor e pecilicado
por rn de O05 pulgada pero en meno de 0,0 pulgada, la prdida del fabrican le es de 0,50.
Si el dimetro rea l e diferencia del dimetro especificado en ms de 0,08 pulgada. la prdida
es de 1,00. La prdida L. puede considerar e como una variable a leatoria. neuentre la
di tribucin de probabilidades de L y calcule EIL).
9.13. 'ompare la cola superior .de la probabilidad P[IX - E(X)I;;::; 2Jil(X)] obtenida
con la desigualdad de heby hev con la probabilidad exacta en cada uno de lo casos
s iguiente :
(a) X tiene dis tribucin (fl. u 2).
(b) X tiene distribucin Poisson con parmetro ..\.
{c) X tiene distribucin exponencial con parmetro a..
9.14. Supngase que X es una variable aleator ia para la cual E(X) = y V(X) = u 2
Suponiendo que Y est distribuida un iformemente en el interva lo (a, b), determine a y b de
modo que E(X) = E( Y) y V(X) = V( Y).
9.15. Supngase que X , la re istencia a la ruptura de una cuerda (en libra), tiene dis-
tribucin (100, 16). Cada 100 pies de a lambre para cuerda produce una utilidad de 25,
si X > 95. i X ::;; 95, la cuerda puede utilizarse con un objetivo diferente y se obtiene una
utilidad de 10 por a lambre. Encuentre la utilidad esperada por alambre.
9.16. Sean X 1 y X 2 variables aleatorias independientes cada una con una distribucin
-
214 lguna., ariablcs al aloria c-onlinua impOrl nlc'
9.25. Supnga e que X tiene distribucin N(, a 2 ). Obtener una expresin aproximada
para E(Y) y V(Y), u ando el teorema 7.7. Si Y = In X.
9.26. Supngase que X tiene una dist ri bucin normal truncada a la derecha como e da
en la ecuacin (9.22). Encontrar una expre~1n para E(X) mediante unciones tabuladas.
Problem lt!I
9.27. Supngase que X tiene una distrbuciri exponencial truncada a la izquierda como
est dada en la ecuacin (9.24). Obtener E(X).
9.28. (a) Encontrar la distribucin de probabilidades de una variable aleatoria distri-
buida binomialmente (con base en n repeticiones de un experimento) truncado a la derecha
en X = n; esto es, X = n no puede er observado.
(b) Encontrar el valor esperado y la varianza de Ja variable aleatoria descrita en (a).
9.29. Supngase que una variable aleatoria distribuida normalmente con valor espe-
rado 11 y varianza u 2 est truncada a la izquierda en X = t y a la derecha en X = I' Encontrar
la fdp de esta variable aleatoria truncada doblemente>>.
9.30 Supngase que X, el largo de una varilla tiene distribucin N(lO, 2). En vez de
medir el valor de X, slo se especifica si se cumplen ciertas exigencias. E pecficamente, cada
varilla fabricada se cla ifica como sigue: X < 8, 8 ::;; X < 12, y X <?: 12. Si se fabrican 15 de
tale varillas, cul es la probabilidad de que un nmero igual de varillas caiga en cada una
de las categoras anteriores?
9.31. Se abe que la lluvia anual que cae en cierta regin es una variable aleatoria dis-
tribuida normalmente con promedio igual a 29.5 pulgadas y desviacin tandard 2.5 pulgadas.
Cuntas pulgadas de lluvia (anuales) caen en exceso alrededo.r del 5 por ciento de las veces?
9.32. Suponiendo que X tiene una distribucin N(O, 25), calcule P(I < X 2 < 4).
9.33. ea X, el nmero de partculas emitidas en 1 horas por una fuente radiactiva y
e supone que X, tiene una distribucin de Poisson con parmetro Pt. ea T el nmero de
hora hasta la primera emisin. Demuestre que T tiene una distribucin exponencial con
parmetro P [Indicacin: encuentre el suce o equivalente (mediante X,) del suceso T > t].
9.34. Supnga e que X, e t definida como en el problema 9.33 con p = 30. ul e
la probabilidad de que el tiempo entre emi iones sucesivas sea > 5 minutos? > 10 minutos?
< 30 egundo ?
9.35. n algunas tabla de la distribucin normal H(x) = (l/Jf,t) J~ e- 1' 12 di est ta-
bulada para valores positivos de x (en vez de lf>(x) como aparece en el Apndice). Si la varia ble
aleatoria X tiene distribucin N(l, 4) expre ar cada una de las probabilidades guientes
mediante valores tabulados de la funcin H.
(a) P[IXI > 2] (b) P[X < O].
9.36. Supngase que un dispo itivo para telemedir satlite recibe do clases de seales
que pueden anotarse como nmeros reales, X y Y, y que X y Y son variables aleatorias con-
tinuas independientes con fdp f y g, respectivamente. Supngase que durante cualquier ~
rodo de tiempo e pecfico lo puede recibirse una de esas seales, y luego retransmitida a
la tierra, la eal que primero llega. Adems la seal que origina X llega primero con proba-
bilidad p y por tanto la seal que origina Y llega primero con probabilidad 1 - p. Denotemos
por Z la variable aleatoria cuyo valor realmente es recibido y transmitido.
(a) xpresar la dp de Z mediante f y g.
(b) Expresar E(Z) mediante E(X) y E( Y).
(c) Expresar V(Z) mediante V(X) y V(Y).
(d) upngase que X tiene di tribucin N(2, 4) y que Y tiene di tribucin N(3, 3). Si
p = j calcule P(Z > 2).
(e) Suponiendo que X y Y tienen distribuciones N(i, ai) y N( 2 , ui} respectivamente.
Demuestre que si 1 = 2 , la distribucin de Z es c<Uni-modah>, esto es la dp de Z tiene un
mximo relativo nic-0.
..
216 l11un11~ variable' 11lc11turh1 continua importante~
9.37. Supngase que el nmero de accidentes en una fbrica se puede representar por un
proceso de Poisson con un promedio de 2 accidentes por semana. Cul e la probabilidad
de que (a) el tiempo entre un accidente y el siguiente ea mayor de 3 das, (b) el tiempo de un
accidente al tercero sea mayor de una emana? [Indicacin : en (a), sea T = tiempo (en da)
y calcule P(T > 3)].
9.38. Un proce o de fabricacin produce en promedio un articulo defectuoso entre 300 fa.
bricados. Cul es la probabilidad de que aparezca el tercer artculo defectuoso :
(a) antes de que sean producidos 1000 artculo ?
(b) cuando se produce el 1000 simo artculo?
(c) despu de que sea producido el 1000 simo artculo?
[l ndicacin : supngase un proce o de Poisson] .
lO
La funcin generadora de momentos
10.1 Introduccin
----- ~--)----
__ Jog X
y ------ -
- -- log y
FIGURA 10.I
217
2UI 11 fun i.1 generadoru d momentos I0.2
(10.3)
(b) Mx(I) es el valor que toma la funcin M x. la variable (real)/, La notacin que indica
la dependencia de X , se usa porque podemos de ear considerar dos variable aleatoria , X
y Y , y luego investigar la funcin generadora de momentos de cada una, Mx y Mr .
(c) Usaremos la abreviacin fgm para la funcin generadora de momentos.
(d) La fgm como se defini anteriormente, se escribe como una serie infinita o integral
(impropia), egn que la variable aleatoria sea discreta o continua. Tal serie (o integral) puede
que no exista siempre (es decir que converja a un valor infinito) para todos los valores de t.
10. Ejemplos de (uncioo gt'llenduna' de momenlo' 219
Por tanto pueden uceder que la gm no e t definida para todo los valores de 1. Sin em-
bargo no nos interesar e ta posible dificultad. Cada vez que hagamos uso de la fgm, siempre
supondremos que existe. (Para t = O, la fgm existe siempre y es igual a 1.)
(e) Hay otra funcin muy relacionada con la fgm que a menudo se usa en su lugar. Se
llama la fun cin caracterstica, se denota como Cx , y se define por Cx(t) = E(er'x), en donde
i = - , la unjdad imaginaria. Por razone terica , hay una ventaja considerable al usar
Cx(t) en vez de M x(I). [Por e ta razn, Cx(I) existe siempre para todos los valores de t). Sin
embargo, a fin de evitar clculos con nmeros complejo restringiremos nuestra exposicin
a la funcin generadora de momentos.
(1) Postergaremos hasta la seccin I0.4 la exposicin de la razn para llamar a M x la
funcin generadora de momentos.
rb e
Mx(r) =J., b _ /x
1
- - - [ e1" - e'], t #- O. (10.4)
(h - a)t
k
i"' (n)k (pe'f(l - p)" - "
EJEMPLO 10.3. Supngase que X tiene una distribucin de Poisson con par-
metro .t As
(La tercera igualdad se deduce del desarrollo de e1 en I::' .. 0 (y"/n !). Usamos e to
con y= le').
220 1. funci11 l:l'nl'ri.dorn ti mom nto'
(Esta integral converge slo si L < a. Por tanto, la fgm existe slo para eso valores
de l. Suponiendo que e sati face esta condicin, e ntinuamo .) Luego
Mx(l) = - - e* - "'>/ oo
t - GI'. o
Ohsa11arin ; pue to que la fgm es slo un valor esperado de X. se puede obtener la fgm
de una funcin de una variable aleator ia in obtener su di tribucin de probabilidades pri-
mero (ver el teorema 7.3). Por ejemplo, si X tiene distribucin A'(O, 1) y de eamos encontra r
la fgm de Y = X 2 ; podemos proceder sin obtener primero la fdp de Y. Simplemente pode-
mos e cribi r
Mx(l) =- 1
-J+
2n a _ ..,
e'"exp( -
2
~[x - ] )dx.
a
2
= e'I' 2n _
f +co
exp (- Hs 2 - 2ats]) ds
1
= e' ----==
f +co
exp { -![(s - at) 2 - a 2 t 2 ]} ds
2n _
(10.8)
10.4 Propi1:dadcs de 111 funcin :Cfleradoru d1: mnm1:nln~ 221
~
1
= (;)
IX' f CI
dx = (c/11)/(:x - t).
y obtenemo
Mx(t) = ry_'
(:x - t)r(r) o
i'( -ti-) ' -
:x - t
1
e - du
=(-et )'-I f
et - l r(r) o
11' - e- "du.
Mx(I) = ( - :x
:X - l
)~ (10.9)
=
Observaciones: (a) Si r 1, la funcin G<1ma se convierte en la distribucin exponencial.
Ob ervemos que si r = 1, las ecuaciones (I0.7) y (10.9) son iguale.
(b) Pue to que la distribucin de x fuadrado se obtiene como un caso especial de la dis-
tribucin Gama al hacer a = 1/2 y r = 11/2 (n es un entero positivo), tenemos que i Z tiene
distribucinx;, entonces
Mz(I) = (1 - 21) - "12 (10.10)
(tx) 2 (tx)"
e1" = 1 + LX + --
2!
+- .. + - - + ..
n!
Ahora 2
(t X)"
M (t)
X
= E(e'X) = E ( 1 + rX
(1 X)
+- - + ... + -
2!
- + ...) .
11 !
Hemos demo trado que para una suma finita, el valor esperado de la suma
es igual a la suma de lo valores esperados. Sin embargo. con iderando una suma
222 l .11 fuiuI m 11cn~rndorn dl' 111m1 nl<l\ I0.4
y haciendo l = O, tenemos
M " (O) = E(X 2 ).
Continuando de e ta manera btenemos el siguiente teorema [suponiendo que
M< >(0) existe].
11
en donde h1" 1(0) es la n-sima derivada de la funcin h calculada en t = O. Aplicando este re-
sultado a la funcin Mx , podemos escribir
M~1 (0)1~
Mx(l) = Mx(O) + Mx(O)t + ... + - - - + ...
n!
(e) El lector puede preguntarse si el mtodo anterior es del todo til. No sera ms simple
(y ms elemental) calcular directamente los momentos de X en vez de obtener primero la
fgm y luego diferenciarla? La respuesta es que para muchos problemas este mtodo es ms
sencillo. El siguiente lo ilu trar.
EJEMPLO 10.7. Supngase que X tiene una distribucin binomial con par-
metros n y p. Por tanto (ejemplo 10.2), M x(t) = [pe 1 + q]". Por tanto
Por tanto E(X) = M'(O) = np, que concuerda con nuestro resultado anterior.
Tambin, E{X 2 ) = M"(O) = np[(n - 1 )p + 1]. Luego
S nos restrngmos a aquello valore de 1 para lo cualc O < qe' < 1[esto e .
t < ln(1 /q)] podemo entonce umar la erie anterior como una erie geomtrica
y obtener
p
Mx(l) = - qe'[l + qe' + (qe') 2 + ]
q
p qe' pe'
= --- = - -
q 1 - q1/ J - qe'
Por tanto
, ( 1 - qe') pe' - pe'! - qe') pe' .
M (t) := (1 - qe')2 = (I - qe')2,
( 1 - qe') 4 ( 1 - qe1)
3
Por tanto
E(X) = M'(O) = p/(1 - q)" = l / p,
E(X 2) = M"(O) = p(l + q)/ ( 1 - q) 3 = (1 + q)/p2 ,
y
V(X) = (1 + q)/ pi. _ ( l/ p)2 = q/ p2.
(10.12)
Teorema J0.3. Sean X y Y dos variables aleatorias con fgm , M x(r) y M r(l) re pec-
tivamente. Si Mx(t) = Mr(r.) para todo los valore de t, entonces X y Y
tienen Ja misma distribucin de probabildades.
Demostracin : la demostracin de este teorema es muy difici l para darla aqu.
Sin embargo, e muy importante comprender exactamente lo que e tablece el
teorema. Dice que si dos variables aleatoria tienen la mi ma fgm. tienen la mi ma
distribucin de probabilidades. E to e , la fgm determina unvocamente la di tri-
bucin de probablidade de la variable aleatoria.
I0.5 Propkd11d" reprodu tl~llll 22.'I
Por tanto
Mr(t) = ell1[e~11+<aa1 1 12]
2 2
= e<ll+ap)le(aa)22/2 .
Pero sta es la gm de una variable aleatoria distribuida normalmente con espe-
ranza rx + p y varianza <1. 2 a 2 Luego, de acuerdo con el teorema 10.3, la distri-
bucin de Y es normal.
El teorema siguiente tambin de empea un papel vital en nuestro trabajo
posterior.
Z = X, + ... + Xn,
est dada por
Mz(!) = Mx,(r)' Mx.(t). (I0.14)
Luego Mz(I) = ' 1 +~ 211"' - 11 Pero e ta e la fgm de una variable aleatoria con una
di tribucin de Poisson que tiene parmetro '.X 1 + ix 2 Ahora podemo completar
la demost racin del teorema con ayuda de la induccin matemtica.
11).5 Propiedades r~produl'tl\ :" 2r/
EJEMPLO 10.14. Supnga e que Xi. .... X" son variable aleatoria inde-
pendientes cada una con distribucin N(O, 1). Sea T = X 1 + + x;. De
nue tra exposicin previa sabemo que T 2 tiene distribucn ;d.
Para encontrar la fdp de T. llamada h. proseguiremos como es corrente:
!lit) = H '(l)
2t" 1 I' rl l
2 (11 SI 1 ~ O.
- 2" 21
s ~o.
El grfico de g se da en la figura 10.2 para u = 2. Ob erve que valores muy grandes o muy
pequeo de S son muy improbables. (Puede demostrar e que la constante u que aparece
como un parmetro en la distribucin anterior. tiene la .iguiente interpretacin fisica: u=
. en donde T es la temperatura absoluta, M es la masa de la molcula. y k se cono-
ce como la constante de Boltzmann.)
FIGURA 10.2
I0.6
Observaciones : (a) El teorema 10.9 no se cumple i los parmetros de las diversas distri-
bucionc eJCponcnciales son diferentes. sto llega a ser evidente cuando con ideramos la
fgm de la suma de las variables aleatorias que resulta.
(b) El corolario siguiente del teorema anterior tiene mucha importancia en ciertas apli-
caciones estadsticas: la variab le a leatoria W = 2aZ tiene distribucin x~,. Esta es una con-
secuencia inmediata del hecho de que Mw(ll = M z{2at) = a/(a - 2at)]' = (1 - 2r- i12.
Compuando esto con la ecuacin (J0.10) da el corolario anterior. Luego podemos usar
la distribucin tabulada de x cuadrado a nn de calcular ciertas probabilidades asociadas
con Z. Por ejemplo, P(Z ::;; 3) = P(2aZ ::;; 6a:). Esta ltima probabilidad puede obtenerse
directamente de las ta las de la distribucin de 7. cuadrado. si se dan a y r.
Teorema 10.10. Sean X., ... . X" ' una uce in de variables alealorias con
fda Fi. ... , F,,, . .. y fgm M 1 , M., ... Supngase que limn ... >Mn(t) =
M(t), en donde M(O) = t. Luego M(t) e la fgm de la variable aleatoria
X cuya fda F est dada por limn G;> Fn(l).
Observacin: el teorema 10.10 dice que para obtener la distribucin lmite buscada, es
suficiente estudiar las funciones generadoras de momentos de las variables aleatorias que se
consideran. Obtenernos el valor lmite de las sucesiones M 1, , M ., . .. , llamada M(t~
Debido a la propiedad de unicidad de la fgm, existe slo una distribucin de probabilidades
que corresponde a la gm M(.1). Podemos aceptar M como la fgm de una distribucin conoci-
da (tal como la normal, Poisson, etc.) o bien podemo usar mtodos ms avanzados para
determinar la distribucin de probabilidades de M . Tal como podemos obtener la fgm co-
nociendo la fdp tambin podemos obtener (en condiciones completamente generales) la dp
conociendo la fgm. Esto implicara ciertos teoremas de inversin y no continuaremos ms
con esto.
, Hemos visto que la fgm puede ser una herramienta muy poderosa para es-
tudiar diversos aspectos de las distribuciones de probabilidades. En partcular,
encontramos muy til el uso de la fgm para estudiar sumas de variables alea-
torias independientes e idnticamente distribuidas y obtener diversas leyes re-
productivas. Estudiaremos nuevamente la sumas de variables aleatorias inde-
pendientes en el captulo J2, in u ar la fgm. pero con mtodos semejantes a los
que usamos cuando estudiamos el producto y el cociente de variables aleatoria
en el captulo 6.
PROBLEMAS
10.1. Suponiendo que X tiene fdp dada por
f (x) = 2x, 0 :5: X :5: 1.
(a) Determine la gm. de X .
(b) Usando la gm, calcule E(X) y V(X) y verifique su respuesta. (Ver oooervacin, p. 232.)
10.2. (a) Encuentre la fgm del voltaje (incluyendo el ruido) tal como se expuso en el pro-
blema 7.25.
(b) Usando la fgm, obtenga el valor esper;ldo y la varianza de este voltaje.
10.5. Encontra r la fgm de la variable aleatoria X del problema 6.7. Usando la fgm, en-
contrar E(X) y V(X).
10.6. Supngase que la variable a leatoria continua X tenga fdp
<x<
(a) btener la fgm de X.
(b) Usando la fgm, encontrar E(X) y V(X).
I0.7. Usando la fgm , demostrar que . i X y Y on variables alea to rias independ ientes
con distribuciones (", a;) y N( ,,. a;) res~ctivamente. entonce Z = aX + b Y est nue-
vamente distribuida normalmente, en donde /1 y b on con tantes.
I0.8. Suponiendo que la fgm de una variable a leatoria X es de la forma
M x(I) = (0,4e' + 0,6)8 .
(a) , 'ul es la fgm de la variable aleatoria Y = 3X + 2?
(b) Calcular E(X).
(c) Puede verificar su rcspue ta (b) por algn otro mtodo? [ rate de reconocen>
M x(t)].
10.9. Varias re istcncias R 1, = 1, 2..... 11, e ponen en serie en un circuito. u poniendo
que cada una de las resistencia est distribu ida normalmente con E(R 1) = 10 ohms y
V(R;) = 0, 16.
(a) i /1 = 5, cul es la probabilidad de que la resi tencia del circuito obrcpa e los
49 ohms?
(b) ,Cul debe ser el valor de /1 de modo que la probabilidad de que la resi tencia total
obrepase los 100 ohms sea aproximadamente 0.05'!
10.10. n un circuito se ponen 11 resi tencias en serie. Supngase que cada una de las
resi tencias est di tribuida uniformemente en (0,1] y supnga e adem . que todas las
rcsi tcncias son independientes. ea R la resistencia total.
(a) Encontrar la fgm de R.
(b) Usando la fgm, obtener E(R) y V(R). Verifique su respuesta con un clcu lo directo.
10.11. Si X tiene una distribucin x;, utilizando la fgm. demuestre que E(X) = 11 y
V(X) = 211.
IO. l2. upnga e que V, la velocidad de un objeto (cm/ eg), tiene distribucin N(0,4).
Si K = mV 2 /2 ergs es la energa cintica del objeto (donde m = masa), encuentre la fdp de
K. i m = 10 gramos, calcu le P(K ~ 3).
10.13. Supnga e que la duracin de un artculo e t distribuida exponencialmente
con parmetro 0,5. Supnga e que 10 de tale artculos se instalan sucesivamente, de modo
que el i- imo artculo se instala inmediatamente despus de que el (i - 1) articu lo ha
fallado. Sea Tr el tiempo para fallar del -sirno artculo, i = 1, 2, ... , 10, medido siempre
desde el tiempo de instalacin. Luego S = T 1 + + T 10 representa el tiempo total de
funcionamiento de los 10 artcu lo . Suponiendo que los T 1 son independientes, calcu le
P(S ~ 15,5).
10.14. Supnga e que X., ... , X 80 on variables aleatorias independientes, donde cada
una tiene distribucin N(O,I). Calcular P[Xi + + X j 0 > 77]. [I11dicacic.11 : u e el teore-
ma 9.2.)
232 La funcin generador de mnmenlO!l
=
10.15. Demuestre que si X, i 1, 2, .... k representa el nmero de xitos en n1 repe-
ticiones de un experimento, en donde P(xito) = p, para todo i, entonces X 1 + +X~
tiene una distribucin binomial. ( sto es la distribucin binomial tiene la propiedad repro-
ductiva.)
10.16. (La distribucin de Poisson y la multinomial.) Supngase que X 1 i = 1,2, ... , n
son variables aleatorias independientes con una distribucin de Poi on con parmetros
i, i = l, . . . , n. Sea X = !:~. 1 X ;. Entonces la distribucin de probabilidades condicional
conjunta de X., ... , X,, dado X = x est dada por una distribucin multinomial. Esto es,
P(X 1 = x,, . . . ' X. = x.IX = X) = x!/(X1 ! ... x,,!)(:x,/!:7 =10:1)"' . . . (o:./!:7= ,o:,)"n.
10.17. Obtener la fgrn de una variable aleatoria que tiene una distribucin geomtrica.
Posee esta distribucin una propiedad reproductiva bajo la adicin?
10.18. Si la variable aleatoria X tiene una gm dada por Mx(t) = 3/(3 - t), obtener la
desviacin estndar de X .
10.19. Encontrar la fgm de una variable aleatoria que est distribuida uniformemente
en (-1,2).
10.20. Cierto proceso industrial produce un gran nmero de cilindros de acero cuyas
longitudes estn distribuidas normalmente con promedio 3,25 pulgadas y desviacin estn
dar 0,05 pulgada. Si se elige.in al azar dos de tales cilindros y se ponen ex.tremo con extremo,
cul es la probabilidad de que la longitud combinada sea menor de 6,60 pulgadas?
R(I) = f~ f(s)ds.
f(t) f(t)
(11.1)
Z(t} = l - F(t) = R(t) '
es decir, la probabilidad de que el articulo falle durante las prximas .6.c undade de tiempo,
dado que el artculo est funcionando correctamente en el instante t. Aplicando la definicin
de probabilidad condicional, podemos e cribir lo anterior como
La egunda integral del egundo miembro representa E(T). Por tanto la de-
most racin e, t completa i podemos demostrar que tJ, f(s) ds e anula en t = O
y cuando t . La anulacin en t = O es inmediata. Sabiendo que E(T) es fi-
nita , el lector puede completar la demostracin.
Los concepto de confiabilidad y lasa de falla e tn entre la herramientas
nece arias m importante para un estudio de los modelos de falla. Breve-
mente vamos a ocupamos de las iguiente preguntas:
(a) 'u le on las leye de fall<ll> fundamentales que razonablemente se
pueden suponer? (Es decir, ;,qu forma tendra la fdp de T?)
2.1' Apllcadones a la tcoria de 111 connabilldad 11.2
o en paralelo
LNuevamente ob ervamos que el tiempo para fallar T, debe ser mayor que (o
igual) a cero. Por tanto a fin de que el modelo anterior sea aplicable debemos
insistir en que P(T < O) sea forzosamente cero.] Como la forma de la fdp normal
lo indica, una ley normal de fallas implica que la mayor parte de los artculos
fallan alrededor del tiempo promedio de falla, E(T) = y el nmero de fallas
disminuye (simtricamente) cuando IT - aumenta. Una ley normal de fallas
significa que alrededor del 95,72 por ciento de las fallas tiene lugar para Jos valores
de r que satisfacen {ti lt - I < 2u }. (Ver figura 11.1.)
R(t)
= 1- -J-
$u -
f 1
00
exp ( - -1
2
[X--=--
u
]2) dx
Observacin : la uposicin de que una tasa constante de fallas puede ser interpretada como
una indicacin de que despus de que el artculo ha sido usado, su probabilidad de fallar no
ha cambiado. Dicho de una manera ms inform;1l, no hay erecto de uso cuando se estipula
el modelo exponencial. Existe otra manera de expresar esto que hace esta parte an ms
evidente.
Considrese para t > O, P(i ~ T ~ t + Atl T > 1). Esta representa la probabilidad de que
el artculo falle durante las prximas At unidades dado que no ha fallado en el instante l.
Aplicando la definicin de probabilidad condicional, encontramos que
e - 7r - e - a(r +.dlr)
P(t s; T s; 1 + tl T > t) = e
-o:r =l - e- "'
FIGURA 11.3
11.3 La le e ponencia! dt fall ., l3'J
0,90 = e- 0 011
Luego t = - 100 In (0,90) = 10,54 horas. Por tanto, si la 100 componente fun-
cionan durante 10,54 hora , aproximadamente 90 no fallarn durante ese perodo.
e= 3 2
Supngase que se obtiene una utilidad de D pe os por cada hora que el artculo
funcione. Luego la utilidad por artculo e t dada por
P = DT- 3 2,
240 1\ 1111 u lonl'\ 11 h1 lcurh1 di' lu l'lmfivbilldad 11.4
E(P) = D - 3 2
Hay una conexin muy prxima entre la ley exponencial de fallas descrita en la
eccin pre ia y un proce o de Poi on. Supnga e que la falla ocurre debido a la
aparicin de ciertos accidentes aleatori S}>. tos pueden qeberse a fuerzas
externa tales como una repentina rfaga de viento o un aumento de voltaje o por
cau a interna tale como una de integracin qumica o un mal funcionamiento
mecnico. Sea X, el nmero de accidente que ocurren en un intervalo de tiempo
de longitud l y supongamos que X 1.1 ~O. determina un proceso de Poisson. E
decir. para cualquier t fijo. la variable aleatoria X, tiene una distribucin de Poi on
11.4 La 1 y e:w.ponencial d fall1 y 11 dhtrlbudn de PolMOO 241
E ta vez, T > t i y slo si (durante [O. t]) no ocurre ningn accidente. u ocurre un
accidente y ninguna falla aparece, o dos accidentes ocurren y no a parece ninguna
falla , o. . . Por tanto.
Z(l} = (a/J)r 11 - 1
( 11.4)
Se dice que la variable aleatoria que tiene la fdp dada por la ecuacin (11.5) tiene
una distribucin de Weisbu/I. La figura 11.4 muestra la fdp para r:t. = 1 y fl = 1, 2, 3.
La funcin de confiabilidad Re t dada por R(t) = e- .,_,, que es una funcin decre-
ciente der.
f{t)
fJOURA 11.4
0,4 0.8 1,2
IG RA. 11.5
11.()
( 11. 7)
E to ignifica que, para que el si tem;i anterior funcione, ambas componentes deben
funcionar. Si, adems suponemos que las componente funcionen independiente-
ment e, debemos conocer la confiabilidad del si tema, llammoslo R(t), mediante la
confiabilidad de la componentes llammo lo R1(t) y R2(t), como igue:
R(t) = P(T > t) (en donde Te el tiempo para fallar del sistema)
= P(T1 > t y T2 > t) (en donde T, y T2 son los tiempo para fallar de
lo componente 1 y C 2 respectivamente)
= P(Tt > 1)P(T2 > t) = Rt(l)R 2(1).
Luego la fdp del ti empo para falla del sistema. llammoslo T, es dado por
La ltima frmula indica que R(r) ~ mximo [R 1(t). R 2 (r)). Es decir, un si tema
compuesto por do componente que funcionan independientemente en paralelo
ser m confiable que cualquiera de la componentes.
JOURA 11.6
Toda la idea pre entada anteriormente para dos componente pueden gene-
ralizar e en el teorema siguiente.
A menudo sucede que toda las componentes tienen igual confiabilidad. digamos
que R ;(l) = ,.(t} para todo i. En e te caso Ja expresin anterior se tran forma en
As la fdp del tiempo de falla del si tema en paralelo. llamm lo T. e t dada por
l 1 l
E(T) =- + - - - -
a1 rt.2 a, + a2
Por cuanto a menudo una erie de operacione e obligatoria (e decir, un nmero
de componentes debe funcionar para que el i tema funcione), frecuentemente
usamo una operacin en paralelo a fin de aumentar la confiabilidad del i tema.
El ejemplo iguiente ilu tra e ta parte.
R(r)
0,999
0,9
FIGURA 11 .7
JO 50 100 200 300 400
n la figura 11.7 vemo las curva de confiabi lidad de la unidad nica ver us la
tres unidade en paralelo. Para la unidad ola, R(t =e -"", mientra que para la
tres unidade en paralelo, R(t) = 1 - (1 - e-'11 ) 3 con a = 0,01.
Hemos con iderado, ha ta ahora, lo la maneras m encilla para combinar
unidade individuales en un si tema, llamada operaciones en erie y en paralelo
de las componentes. Hay muchas otras maneras de combinar componentes, y
(a) Serie~ en paralelo (b) Paralelas en serie
FIGURA 11.8
PROBLEMAS
11.1. Supnga e que T, el tiempo para fallar. de un artculo est di tribuido normalmente
con E(T) = 90 hora y de -viacin estndar 5 hora . A fin de obtener una confiabil idad de
0.90, 0,95. O99, ,cuntas horas de operacin deben considerarse?
11.2. Suponiendo que la duracin de un in trumento electrnico e d tribuida exponen-
cia lmente. e sabe que la confiabilidad del instrumento (para un perodo de operacin de 100
hora ) es 0,90. untas horas de operacin deben con iderarse para obtener una confiabilidad
de 0.95?
24K A11lic11rio11l" a la 1corh de la conliuhilidad
11.). Suponiendo que la duracin de un instrumento tiene una tasa con tan te de falla
C0 para O < t < 10 y una ta a con tante distinta C, para t ~ r0 . Determinar la fdp de T, el
tiempo para fallar. y dibujarla.
11.4. Supngase que la ta a de falla Z e t dada por
1"(1) = j 1
('Jfl J({ ~ji 1 >o. fl > o.
(a) ,Para qu valore de c1 es la anterior una fdp'!
(b) Obtener una expre in para la funcin de confiabilidad y la funcin de riesgo.
(c) Obtener una expresin del promedio del tiempo para fallar.
(d) Responder (b) y (e) si {J1 = {J para todo j.
11.7. 'ada uno de los seis tubo de un equipo de radio tiene una duracin (en ao ) que
puede con iderarse una variable aleatoria. Supngase que e os tub s funcionan independiente-
mente uno de otro. i. 'ul es la probabilidad de que ningn tubo tenga que ser reemplazado
durante los primeros dos mese de ervicio si:
2
(a) La fdp del tiempo para fallar esf(t) = Ot l! ~''. 1 > O?
25
(b) La fdp del tiempo para fallar es/(1) = 25te ', t > O?
11.8. Demo t rar el teo rema 1 1.4.
11.9. La duracin de un satlite e una variabl a leatoria distribuida exponencialmente
con un tiempo de duracin e perado de I, aos. Si trc satlites e lanzan imultncamente,
cul e la probabilidad que a lo menos dos estarm an en rbita de pu de 2 ao '?
FIGURA 11.9
11.10. Trt:s componentes que func ionm1 111depend1cntcmcntc estn conectadas en un
istema aislado como e indica en la figura 11.9. Suponiendo que la confiabilidad de cada com-
ponen! para un periodo de t horas de operal.'in est dada por
O.OJr
R(I) = 1
l'rnhl111111\ 149
i Tes el tiempo para fallar del s i tema completo (en horas), cu l la fdp de T! 'ul es la
confiabilidad del istema?; cmo se compara con e- 0 03 '?
11.11. Supngase que 11 componente que estn funcionando independientemente son
conectadas en una agrupacin en serie. Suponiendo que el tiempo para fallar de cada una de
las componentes e t distribuido normalmente con esperanza 50 hora y de viacin e tndar
5 hora .
(a) Si 11 = 4, cul es la probabilidad de que el sistema funcione despus de 52 horas de
operacin?
(b) i 11 componente se conectan en parafefn. ,cuiil debera ser el valor de 11 a fin que la pro-
babilidad de fallar durante las primeras 55 horas sea aproximadamente igual a 0.01?
11.12. (Sacado de Derman and Klein. Prohuhility and Statistical Inference. Odord Uni-
versity Press, New York, 1959.) La duracin (L) en meses de cierto tubo al vaco usado en un
equipo de radar est distribuida exponencialmente con parmetro /J = 2. Al establecer su
programa preventivo de mantencin, una compaia desea decidir cuntos mese (m) despus
de la in talacin debera remplazarse el tubo para minimizar el coste esperado por tubo.
El co to por tubo en dlares est denotado por C. 1 tiempo til ms corto empleado entre la
instalacin y la u titucin es 0,01 mes. Obedeciendo a e ta restriccin, q u valor de m minimiz
E(C), el costo esperado en cada una de las situaciones siguientes, en donde el costo es la
funcin dada de L y m?
(a)C(L,m) = J IL - ml. (b)C(L,m) = J si L < m.
= S(L - 111) si L<::: 111.
(c) C(L, m) = 2 si L< m,
= 5(L - m) si L <::: 111.
(En cada uno de los casos, dibuje un grfico de E(C) como funcin de m.)
Observacin: evidentemente C es una variable aleatoria puesto que es una funcin de L
que e una variable aleatoria. E(C) e una funcin de m, y el problema simplemente pide encon-
trar el valor de m que minimiza E(C). ujeta a la restriccin que m 2::: 0.01.
1J.1 3. Suponiendo que la tasa de fallas usociada con la duracin T de un artculo est
dada por la funcin siguiente:
FlG RA 11. IO
11.1 S. (a) Supngase que " componentes estn conectado en una agrupacin en serie.
Luego k de tales conexiones en erie se conectan en paralelo para formar un sistema completo.
(Ver la figura 11.10.) Si cada una de las componentes tiene la misma confiabilidad, R, para un
perodo determinado de operacin, encuentre una expresin para Ja confiabi lidad del sistema
completo (para ese mismo perodo de operaciones).
(b) Supngase que cada una de las componentes anteriores iguc una ley exponencial de
fallas con tasa de falla 0,05. Supngase adem que el tiempo de operacin es 10 horas y que
n = 5. Determinar el valor de ka fin de que la confiabilidad del istema completo sea igual a
0,99.
11.16. Supngase que k componentes estn conectados en paralelo. Luego n de tales
conexiones en paralelo son unidas en serie en un solo sistema. (Ver la figura 11.11.) Responder
(a) y (b) del problema l l.15 para ta ituacin.
1
1
1
1
1 1
i_ ___ J
FIGURA 11.11
11.17. Supngase que 11 componentes, que tienen cada una la misma ta a constante de
fallas A, estn conectadas en paralelo. Encontrar una expresin para el tiempo promedio para
fallar del istema re ultante.
11.18. (a) Un si tema de propulsin areo consta de tres motore . Supngase que la tasa
constante de fallas para cada uno de lo motores e A. = 0,0005 y que los motores fallan inde-
pendientemente uno de otro. Los motores estn conectado en paralelo, cul es la confiabilidad
de este sistema de propul in para una mi in que necesita 10 horas i al menos dos motores
deben resistir?
(b) Responder la pregunta anterior para una misin que necesita 100 horas; 1000 horas.
(Este problema sugerido por una expo icin en l. Bazov ky, Reliabilit y 111eory and Practice.
Prentice-Hall, Inc., Engtewood Cliffs, N. J., 1961.)
11.19. Con ideremos las componentes A, A', B, B' y C conectadas como e indica en las
figuras 11 .12 (a) y (b). (La componente C puede pensarse que representa un seguro si ambas
A y B dejaran de funcionar.) Representando por R,., R.t:, R 8 , R8 , y Re; ta confiabilidades de tas
componentes individuales (y uponiendo que la componentes funcionan independientemente
una de otra), obtener una expresin para la confiabilidad del sistema completo en cada uno de
l'robl rna~ 251
lo~ casos. [Indicacin : en el egundo caso (ligura l 1.12 (b)), use consderaciones de proba-
hilidad condicional:]
11.20. Si todas las componentes consideradas en el problema 11.19 tienen la misma tasa
con tante de fallas A., obtenga una expre in para la confiabilidad R(L) del sistema indicado
en la figura 11.12 (b}. Tambin encontrar el tiempo medio para que falle este istema.
11.21. La componente A tiene una confiabilidad 0,9 cuando se utiliza con un propsito
particular. La componente B que puede usar e en lugar de la componente A, tiene una conliab-
lidad de slo 0,75, cul es el nmero mnimo de componentes del tipo B que tendran que
concretarse en paralelo a fin de obtener la confiabilidad que la componente A tiene por si
misma?
11.22. Supngase que dos componentes que funcionan independientemente, cada una
con la misma tasa constante de falla estn conectadas en paralelo. Si Tel tiemp para fallar del
si tema resultante, obtenga la fgm de T. Tambin determinar E(T) y V(T). usando la fgm.
11.23. ada vez que hemo considerado un si tema formado por diversa componente .
siempre hemo supuesto que las componentes funcionan independientemente una de otra.
sta suposicin ha implif1cado con iderablemente nue tro clculos. Sin embargo, esto puede
no ser siempre una uposicin realista. En mucho caso es sabido que el comportamiento de
una componente puede afectar el comportamiento de la otras. Esto es, en general, un problema
muy dificil para enfrentar, y lo consideraremos un caso especial aqu. Supongamos especfi-
camente que do componentes, C 1 y C 2 siempr fallan juntas. Es decir, falla C 1 si y slo si
falla 2 Demostrar que en te caso. P( 1 falla y C 2 falla) = P(C, falle) = P(C i falle).
FIGURA 11.1)
12.l Introduccin
. "' P[lf,, - PI
lim < E] = 1 para todo E > O.
s decir, para E = 0,01 de eamos escoger n de modo que 1 - p(I - p)/[n(0,01) 2) = 0,95.
Resolviendo paran obtenemos n = p(I - p)/(0,01) 2 (0,05). Sustituyendo los valores especficos
de 0,05 y 0,01 por b y E, re pectivamente, tenemos
p(I - p}
P[IJA - PI < E] ~ 1 - ,, cuando n~~-
Nuevamente deberia insistir e en que tomando n ~ p(l - p)/E 2 6 .!!.. garantiza nada acerca
de lfA - PI Slo hace probable que if,. - PI sea muy pequeo.
EJEMPLO 12.l. untas vece habra que lanzar un dado regular a fin de
estar a l meno 95 por ciento seguro de que la frecuencia relativa que salga un seis
di te 0,01 de la probabilidad terica f;?
Aqu p= l;, l - p = i, E= 0,0 1 y = 0,05. Luego de esta relacin encontra-
mo que n ~ (i)(i)/(0,01) 2 (0,05) = 27.778.
TABLA 12.1
(12.3)
en el supue to de que lim ..,(n !}/( 21t e - "n" +112) = l. (Una demostracin de
esta aproximacin puede encontrarse en muchos textos de clculo avanzado.)
La tabla 12.1 puede dar una idea al lector de la exactitud de e ta aproximacin.
Esta tabla est tomada de W. Feller. Prnhabilty Tlieory Gfld /ts Applications.
l." edicin, New York: John Wiley and Son . lnc .. 1950.
2
1 ( 1[ k - np ] ) (12.4)
::::: ) 21tnp(I - p) exp - 2 jnp( l - p}
12.3 proxlmd6n oormI a la di,tribudi111 bl11om al 257
P(X ~ k) = p[ X - np
np(I - p)
$; k - np
np(I - p)
J
( 12.5)
y_ X - 11p
- [np( 1 - p)J1 ' 2 '
TA8 A 12.2
11 = 8, p = 0.2 11 = 8, p = 0,5 11 = 25, p = 0,2
k
Aproximacin xacto Aproximacin Exacto Aproximacin xacto
EJEMPLO 12.4. Supnga e que un sistema est formado por 100 compo-
nente cada una de las cuale tiene una confiabilidad igual a 0,95. (E decir la
probabilidad de que la componente funcione correctamente durante un tiempo
especfico e igual a 0,95.) Si esas componentes funcionan independientemente
una de otra, y i el istema completo funciona correctamente cuando al menos
funcionan 80 componentes, cul es la confiabilidad del istema?
Sea X el nmero de componente que funcionan , debemos evaluar
Teorema del lmite central. Sea X., X 2 . , X,, ... una uccsin de variable
aleatoria independientes con E(X;) = fl; , y V(X 1) = uf. i = l. 2, .. . Sea
X = X 1 + X 2 + + X .. Luego bajo ciertas condicione generales (que
no e indicarn explcitamente aqu).
Obsetvaciones: (a) Este teorema repre enta una generalizacin obvia de la aproximacin
de DeMoivre-Laplace. Las variables aleatorias independientes X 1 que toman slo lo valores
1 y O han sido ustituidas por variables aleatorias que poseen cualquier clase de di tribucin
(mientras tengan e peranzas y varianza finitas). El hecho de que la X 1 pueden tener (eviden-
temente) cualquier clase de distribucin y an as la urna X = X 1 + + X. puede ser
aproximada por una variable aleatoria distribuida normalmente. representa la razn bsica
para la importancia de la di tribucin normal en la teora de probabilidade . Resulta que en
muchos problemas, la variable aleatoria que se considera, puede ser representada como la
urna de ri variables aleatorias independientes y, por tanto, su distribucin puede aproximar e
por la di tribucin normal.
Por ejemplo, el consumo de electricidad en una ciudad en cualquier hora dada e la urna
de lo pedido de un gran nmero de consumidores individua le . Puede considerarse la cantidad
de agua de un embalse como la repre entacin de la urna de un gran nmero de contribucione
individua le . Y el error de medida en un experimento li ico est compuesto de mucho. errores
pequeos no ob ervables que pueden considerarse aditivos. 1 bombardeo molecular sobre
2MI Su1m1~ d~ trl1bh' al 11orla 12.4
una partcula suspendida en un liquido es la causa que la obliga a desplazar e en una direccin
y una magnitud aleatorias, y su posicin (despus de un tiempo especificado) puede considerarse
como una urna de de plazamiento individuale .
(b) Las condiciones generale citadas en la formulacin anterior del teorema del lmite
central pueden re umir e informalmente como sigue: lo trminos individuales en la suma
contribuyen con una cantidad despreciable a la variacin de la suma y es muy improbable
que cualquier tamao individual haga una gran contribucin a la suma. (Parece que los errores
de medida tienen e ta caracterstica. El error final puede ser representado como una urna de
muchas pequeas contribuciones ninguna de las cuales contribuye mucho al error completo).
(c) Hemos e tablecido ya (teorema 10.5) que la suma de cualquier nmero finito de variables
aleatorias independientes distribuida normalmente e de nuevo distribuida normalmente.
El teorema del limite central establece que lo sumandos no necesitan estar distribuidos
normalmente a fin de que la urna sea aproximada a una distribucin normal.
(d) No podemos demostrar el teorema anterior aqui, sin exceder el nivel de presentacin
programado. Sin embargo, hay un caso especialmente importante de este teorema que e table-
ccremos y para el cual damos al menos un bosquejo de demo traci6n.
2
M(t) = 1 + M'(O)t + M";O)t + R ,
Luego
In Mr.(l) =- n111 + n ln[I + u + ( 2 + 0' 2)r 2 + R]
u ~ 2n0' 2
t ( 2 + 0' 2) 12
X= - - + + R;
n O' 2nu 2
2
}ll
lnMTJt) = - + ( 2 + u 2) -1 -2 + R)
nu 2nq
_ _1 ( -r=
2 v nu
L + ( 2 + u z) __
t2 +
2nu 2
R )2+ .. .J.
Puesto que implemente e tamos bo quejando los paso principale de la de-
mo tracin sin dar todo los detalles, omitamo algunos pasos algebraico e
indiquemos simplemente lo que estamos haciendo. Queremo investigar la ex-
presin anterior (ln Mr.(t))cuando n -+ ualquier trmino que tiene una po-
tencia po itiva de n en el denominador (tal como n - lf 2 , por ejemplo) tender
a cero cuando n -+ oo. Despus de un proce o algebraico muy directo, pero te-
dioso, encontramos que
lim In M rn(t) = 12/ 2.
Luego tenemos
(b) La forma especial del teorema del lmite central como e estableci anteriormente
expresa que el promedio aritmtico ( l/n):Ei 1 X 1 de n ob ervaciones de la misma variable
aleatoria tiene aproximadamente una distribucin normal, para una n grande.
(c) Aunque una demo tracin matemtica establecera la validez de un teorema, puede
que no contribuya mucho a la idea intuitiva del resultado. Por lo tanto pre entamos el ejemplo
que sigue para quienes estn orientados ms numricamente.
.EJBMPLO 12.5. Considrese una urna que contiene tres clases de objetos
identificado como O, l y 2. Suponiendo que hay 20 cero , 30 unos y 50 do e .
Se saca un artculo al azar y e anota su valor, digamos X. Supngase que X
tiene la distribucin siguiente. (Ver la figura 12.1.)
X O 2
P(X - x) P(M m)
/
, ,
/
,/ /
/
/
/
/
./
,/
.___ _.___ _,__ _ X
'----'--~-~3,.-~2~-m
0,1 0,2 i
M O 1 2
N o j t 4
"3" i 2
...........
,. ,
/,
,,
'''
,, '
I
I
I
I
I
I
/f 2
3
4
j
2
11
FIGURA 12.3
22+! - 30)
P(X :S 22} :;;;; P( Y ~ j30
en donde Y tiene distribucin N(O 1). Luego la probabilidad anterior e igual
a <I>( - 1,37) = 0,0853.
(b) La distribucin de Pascal. Si Y = nmero de en ayo de Bernoulli ne-
ce ario para tener r xitos. entonces Y tiene una distribucin de Pascal y e puede
repre entar como la suma de r variables aleatorias independientes (ver la ec-
cin 8,5). Luego para un r suficientemente grande, e aplican los resultados de
la eccin anterior.
ErnMPLO 12.8. Encontrar un valor aproximado de la probabilidad de que
se necesiten 150 o menos ensayos para obtener 48 xitos cuando P(xito) = 0,25.
Haciendo X == nmero de ensayo , tenemos (ver la ecuacin 8.8) E(X) = r/ p =
48/0,25 = 192, y Var X = rq/p2 = (48)(0.75)/(0,25) 2 = 576. Luego
P(X
-
< 150) ~
-
<I> ( 15 + - 192)
576
= <I>( - 173)=O0418.
'
sando la transformacin:
Z =X+ y. 11' =
J = l~ - 1
11 = - 1.
FIGURA 12.5
Diferenciando S(z) con respecto a z (bajo el igno integral, lo cua l puede ju tificar e) obte-
nemos
- - -- + - - - - - - + - -- - --411
o FIGURA 12.6
Esta representa a una distribucin Gama (ver la ecuacin (9.16). El grfico de esta fdp aparece
en la figura 12.8. El mximo ocurre para t = 1/a: = E(T1) E{T2 ). =
s(I) s(t)
v-10 O 11 10 v1 O v- 10 10 11 I"
(a) v - 10 :s;; 10 y O :s;; v :s;; 10 que juntas implican que O :s;; v :s;; 10.
(b) O :s; v - 10 :s;; 10 y v ~ 10 que junta implican que 10 ;::;; u :s;; 20.
n el ca o (a). u 1 puede tomar los valores entre O y u. mientra que en el caso (b).
v 1 puede tomar lo valores entre u - 10 y 10.
As obtenemos
FIGURA 12. IO
EJEMPLO 12.1 l. Como una ilu traci n final de la sumas de variables alea-
torias. reconsideremo un re ultado que ya hemos probado, usando el mtodo
ms indirecto de la funcione generadora de momentos (ver el ejemplo 10.11),
e to es. la urna de dos variable aleatorias normales e independiente est nue-
vamente di tribuida normalmente. A fin de evitar alguna manipulaciones alge-
braica complicadas. consideremos lo un caso e pecial.
12.() L di 1rib1Kin de I """' dt 11n nmn ro 269
!( X ) _ - ~ e
1 - xl/2
, - . <X< 00 ,
2n
1
g(y) = e- yl/ 2
,
211'.
Luego la fdp de Z est dada por
+ f(x)g(z. - . f +"
s(zl =
f
-oo
x) dx = - 1
2n -
= J_J +
e-
e - ll /2 Jtx2+:2-2u+x'J dx
2n _
= - 1 e -z2/zf +
e - 1x1 : ) dx
2n - ...
'omp letando el cuadrado en el exponente del integrando, obtenemos
Luego
....)
\z =-l - zl/2 ez2/4 f +oo e - (J / 2J(jl(x - :/2 )J l d
2n e _ x.
s(z) = 1 e- :/4 1
--;:;: J +oo e - 1122 du.
2n 2 v 2n -oo
s(z) = l e - 1112>1:1./7P
foJ2 .
Pero sta repre enta la fdp de una variable aleatoria con di tribucin (0,2)
lo que e iba a demo trar.
Al pre entar la distribucin de la suma de dos variable a leatorias indepen-
diente . nos hemo reducido a variable aleatorias continua . n el ca o discreto
el problema e algo m sencillo. al meno en ciertos casos, como lo indica el
teorema siguiente.
Demostracin:
11(1) = P(Z = i)
P[ X = O. Y
i
=i oX = l. Y =i -
1
1 . .. X = ;. Y = O]
= P[X = k, Y = i - k] = {J(,k)q(i - k)
k=O
P(Z = k) = L p(k)q(i - k)
k ~ o
(La ltima igualdad e obtiene aplicando el teorema del binomio a la urna an-
terior). La ltima expre in representa la probabilidad que una variable alea-
toria que tiene una distribucin de Poisson con parmetro ff 1t + {1 2 t tome el
valor i. As hemo verificado lo que ya abamo : la urna de do variable alea-
toria independiente de Pois on tiene una distribucin de Poi on.
PROBL MAS
12.1. (a) Una brica produce determinado artculos de tal manera que el 2 por ciento
resulta defectuoso. Se inspecciona un gran nmero de tales articulos, n, y se anota la frecuenca
relativa de deectuoso , f 0 Cul deberia . er el tamao den a fin de que la probabilidad sea
0,98 de que fo dil'iera de 0.02 en menos de 0,05?
(b) 'onteste la (a) si 0,02, la probabilidad de tener un artculo defectuo o se sustituye
por p que se supone de conocida.
12.2. Supnga e que e obtiene una muestra de tamao de un gran conjunto de pernos,
el 3 por ciento de los cuales on defectuo os. Cul e la probabilidad de que a lo m el 5
por ciento de los pernos elegidos ea defectuoso si:
(a) n = 6? (b) t1 = 60? e) t1 = 600?
l'rublen11 271
12.3. (a) n sistema compuesto est ~ rmado por 100 componentes que uncionan inde-
pendientemente. La probabildad de qu cualquier componente falle durante el perodo
de operacin es igua l a 0,10. A fin que funcione el sistema completo, al menos deben fun-
cionar 85 componentes. Calcular esta probabilidad.
(b) Supngase que el sistema anterior est formado por n componentes. cada una con
una confiabilidad de 0,90. El istema funcionar si al meno el 80 por ciento de las compo-
nentes funciona correctamente. Determinar n de modo :ue el sistema tenga una confabi-
bilidad de 0,95.
12.4. upngase que 30 instrumentos electrnicos, Di, ... , D30 , se usan de la manera
siguiente: tan pronto como D 1 falla empieza a actuar D2 'uando D2 falla empieza a actua r
D3 , etc. Supngase que el tjempo para fallar de D;, es una variable aleatoria distribuida expo-
nencialmente con parmetro p = 0,1 hora - . Sea Te\ tiempo total de operacin de los 30
instrumentos. Cul es la probabilidad de que Texceda 350 horas?
12.5. Al sumar nmeros, un computador aproxima cada nmero al entero ms prximo.
upongamos todos los errore de aproximacin on independientes y distribuido uniforme
mente entre ( - 0,5, 0,5).
(a) Si se suman 1500 nmeros, cul es la probabilidad deque la magnitud del error to.
tal ex.ceda 15?
(b) unto nmero pueden sumarse juntos a fin de que la magnitud del error total sea me -
nor que 10, con probabilidad 0,90?
12.6. Supngase que X r. i = 1, 2, .. . 50, son variables aleatorias independientes que
tienen cada una di tribucin de Poisson con parmetro A. = 0,03. Sea = X 1 + + X~o
(a) Usando el teorema del lmite central, calcular P(S ~ 3).
(b) Comparar la respuesta en (a) con el valor exacto de e ta probabilidad.
12. 7. En un circuito simple se conectan dos resistencias R 1 y R 2 en serie. Por tanto, la
resistencia total est dada por R = R1 + R 2 Supngase que R 1 y Ri on variables aleatorias
independientes que tiene cada una la fdp
13.1 Introduccin
'onsideremo nuevamente un problema expuesto previamente. Supngase
que tenemos una fuente de material radiactivo que emite partculas ~ y que la:-.
hipte i establecida en el captulo 8 on vlidas, as que la variable aleatoria X
definida como el nmero de partculas emitidas durante un perodo de tiempo
e pecificado t tiene una distribucin de Poi son con parmetro A.t.
A fin de usar este modelo probabilstico para describir la emi in de par-
tculas a nece itamos conocer el valqr de A.. La hiptesis que formulamo lo
conducen a la conclusin de que X tiene una di tribucin de Poisson con un
parmetro A.t. Pero si deseamos calcular P(X > 10), por ejemplo, la respuesta
er mediante A. a no ser que conozcamo u valor numrico. Anlogamente, los
parmetro importantes a ociado con la distribucin tale como E(X) y V(X)
son funcione de A..
Para buscar un valo r numrico de A. debemos dejar el mundo de nuestros
modelo matemtico terico y entrar al mundo de las ob ervacione . al meno
por ahora. s decir, en e te in tante debemo ob ervar la emisin de la partcula .
obtener los valores numricos de X y luego utilizar esos valore de una manera
sistemtica a fin de obtener una informacin atinada de A..
Es importante para el lector tener una idea preci a acerca de la relacin entre
la verificacin emprica y la deduccin matemtica que aparece en mucha reas
de matemtica aplicadas. Esto es muy importante cuando con truimo modelos
probabilsticos para el estudio de lo fenmenos observable .
Con ideremo un ejemplo trivial de la trigonometra elemental. Un problema
tpico puede implicar el clculo de la altura de un rbol. Un modelo matemtico
para este problema podra obtener e al postular que la relacin entre la altura
desconocida h, el largo de la ombra , y el ngulo a es de la forma h = s tg ce.
(Suponemos que el rbol permanece derecho y perpend icular al suelo, figura 13. t.)
s FIGURA 13. l
273
274 uestras y distrlbcione m trales 13.l
Por tanto si y a son conocidos, con ayuda de una tabla apropiada, podemo
calcular h. El hecho importante que aqu formulamo e que s y IX deben er cono-
cido ante de que podamo calcular h. E decir, alguien debe haber medido s y IX.
La deduccin matemtica que conduce a la relacin h = s tg IX es completamente
independiente de los medios mediante los cuales medimos s y a. Si e a medi-
ciones son exacta , entonces s tg a representar un valor exacto de h (suponiendo
que el modelo es vlido). Dicindolo en forma diferente, no podemos deducir
simplemente el valor de h con nuestro conocimientos de trigonometra y con la
ayuda de las tablas trigonomtrica . Debernos dejar nuestro santuario (cual-
quiera que ea) y hacer alguna mediciones! Y, precisamente, cmo se hicieron
esas mediciones, de ninguna manera inluyen en la validez de nuestra deduccin
matemtica, aunque deba resolverse un problema importante.
Al usar los modelo probabilsticos nece itaremo entrar nuevamente al mundo
emprico y hacer algunas mediciones. Por ejemplo, en el caso que consideramos
se usa la distribucin de Pois on como modelo probabilstico y por tanto nece-
sitamos conocer el valor del parmetro A.. A fin de obtener alguna informacin
acerca de A: debemos hacer algunas mediciones y luego u ar esa mediciones de
una manera sistemtica con el objeto de calcular A.. En el captulo 14 de cribiremos
la manera de hacer este clculo.
Finalmente, debemos in i tir aqui en dos puntos. Primero. la medicione
necesarias para obtener informacin respecto a A. sern generalmente ms fciles
de obtener que las que produciran mediciones para e- "'(A.cnk ! (tal como e ms
fcil obtener mediciones para el largo de la sombra s y el ngulo a que para la
altura h). Segundo, la manera como obtenemo mediciones para A. y la manera
como u amos e a mediciones de ninguna manera invalida (o confirma) la aplica-
cin del modelo de Poisson.
El anterior es un ejemplo tpico de una gran cantidad de problemas. n muchos
casos es relativamente natural (y apropiado) formular la hiptesis de que una
variable aleatoria X tiene una distribucin articular de probabilidade . a
hemos visto un nmero de ejemplos que indican que hiptesis muy simples acerca
de la conducta probabilstica de X conducirn a un tipo determinado de distri-
buciones tales como la binomial exponencial, normal, Poisson y otras. Cada una
de esas distribuciones depende de ciertos parmetros. En alguno casos el valor
de uno o ms parmetros puede .s er conocido. (Tal conocimiento puede provenir
debido al e tudio previo de las variables aleatorias). Muy a menudo, sin embargo,
no conocemos el valor de Jos parmetros implicados. En tales casos debemos
proceder como se sugiri anteriormente y obtener algunos valores empricos
de X y luego usar esos valores de alguna manera apropiada. Veremos cmo se
hace e to en el captulo 14.
facturados, etc.) acerca de la cual queremos hacer inferencia n mirar ac.la objeto.
As muestreamos. E decir, tratamos de con iderar alguno objeto tpicos
de los cuales esperamos extraer alguna informacin que de algn modo ea a-
racter tica de la poblacin completa. Seamo m preci o .
Supngase que designamos con ecutivamente cada uno de lo elementos de
una poblacin finita, de modo que in perder generalidad una poblacin que consta
de N objetos puede repre entar e como 1, 2, . . . N. Elijamos ahora n artculos,
de la manera como vamos a de cribir a continuacin. Defnamo la iguiente
variable aleatoria.
(c) Tal como lo hicimos anteriormente. u aremos letra maysculas para las variable
aleatorias y letras min culas para el valor de la variable aleatoria. uego lo valor que toma
una mueslra (X 1 , X.) e denotarn por (x 1. x.). A menudo hablaremo del pumo
11111escra/ x 1 , Xn) . Con e to indicaremo implemente que consideramos a (x 1 . . x.)
como las coordenadas de un punto en un espacio euclidiano,. dimen ional.
ll4
13.3 Estadgrafos
na vez que hemo obtenido los a lorc de una mue Ira. habit ualmente
queremos u ar eso valores muestrales con el objeto de hacer alguna inferencia
de la poblacin representada por la mue tra que en el prrafo actua l repre enta
la di tribucin de probabilidade ' de la variable aleatoria que e e t muestreando.
Puest que lo diversos parmetros que caracterizan una distribucin de proba-
bilidades on nmer , e apena natural que queramo calcular cierta carac-
terstica numricas especfica que e obtienen de los valore muestrales. lo que
nos podra ervir para hacer propo ici ne apropiada acerca de los a lores de
lo parmetros que a menudo no on conocidos. Definamo el iguiente c ncepto
importante.
N. del T. El autor emplea la palabra s1mis1ics. que hem s traducido por e tadgrafo
por st:r la m comnmente empleada en espaol.
(b) S 2 = [ l/(11 - l)] :E' 1 (X; - X) 2 se llama la 1 arianza 111t1es1ra/. (
plicaremo brevemente por qu dividimo por (11 - 1) en vez de elegir
implemente n).
(c) K = min (X 1 . . . , X n) e llama el mllimo de la miwstra. (K repre en ta
implemente el valor observado ms pequeo).
(d) M = max (X, ... , Xn) e llama el mximo de la muestra. (M repre enta
el mayor valor ob ervado).
(e) R = M - K se llama el recorrido muestra/.
(f) X!/ 1 = j- ima ob ervacin mayor en la muestra. j = l. 2..... n.
(T nemo que X~ 1 > = M mientra que xl,"> = K).
Observaciones: (a) Las variables aleatorias X~ 1 .j = l. 2... , 11. se llaman estadgrafos
de orden asociados con la variable aleatoria Xi. .... X . Si X es una variable aleatoria con-
tinua podemos suponer que xin > x~2 > > ... > x~>.
(b) Los valores extremos de la muestra (en la notacin anterior, X~ 11 y x~ son a menudo
de inters considerable. Por jemplo, en la construccin de represas para controlar inunda-
ciones, la mayor altura que ha alcanzado un rio en lo 50 aos anteriore puede er muy im-
portante.
aturalmente hay mucho otro estadgrafo importantes como lo que en-
contramo pero evidentemente los mencionados desempean un papel importante
en mucha aplicacione e tadstica . E tablcceremos (y demostrarcm ) alguno
teoremas que e refieren a los estadgraos anteriores.
_
E(X) = E ( -' LX;
n )
=-1 Ln E(X;) = -1 11 = .
n ,., lli = I 11
V(X)
1 n
= V( - L. X,
)
= 21 L:n V(X;) =
J
2 na 2
02
= -.
n; = i n ;~ 1 n n
(c) se deduce de una aplicacin directa del teorema del lmite central. Podemos
escribir X= (l / n)X 1 + + (1/ n)X,, como la urna de variables aleatorias in-
Q_ependientemente d tribuidas.
U.4
Teorema 13.2. Sea X una variable aleatoria continua con fdp f y fda F.
Sea Xi. .... X,, una muestra aleatoria de X y sea n K y M e l mnimo y
el mximo de la mue tra re pectivamente. Luego :
(a) la fdp de Me t dada por g(m} = n[F(m) n - 1 f(m).
(b) la fdp de K est dada por h(J.. l = n 1 - F(k)]n - 1 .f(k).
Demostracin: sea G(m) = P(M ::;:; 111) la fda de M . Ahora {M :::;; m} e equi-
valente al suceso {X; ::;:; m para todo ;: . Luego pue to que los X; on indepen-
dientes encontramo
o.uu1,
s2 = _ I _(X; - )z,
11 - l i= 1
= 'f. (X ; -
i= 1
) 2 + 2(1 - X) i
1 I
(X 1 - ) + n( - X) 2
n
= 2: (X; - ) 2 - 211( - X) 2 + n(l - X) 2
i= I
IJ
Lueg
E - J-
( n - 1 1
Ln (X; - X)2 ) = -l - [ na 2 - n- (l2] == a 2
1 11 - 1 11
(b) No demostraremo (b} ino que slo hacemos po ible u validez a l con-
siderar el ca o especial siguiente: Considerando Li., 1 (X ; - X) 2 paran = 2. Luego
X) 2 = [X, - ~(X1
2
(X, - X ) + (X2 - + X 2 )]2 + [X2 - t(X, + X2)] 2
== !(2X, - Xi - X2] 2 + ![2X 2 - X 1 - X 2 ] 2
= t[(X 1 - X 2) 2 + (X 2 - X .) 2 ] = [X 1 - X 2 ]2
. 2
IJ.4
Teorema l3.5. Sea X una variable aleatoria continua con fdp f. Sea
R = M - K e l recorrido de muestra basado en una mue tra a leatoria
de tamao n. Luego la fdp de R est dada por
Para 11 > 2. el grfico de la fdp de R tiene la forma que e indica en la figura 13.2.
bservc que cuando n _, el valor de,. en el cual ocurre un mximo e desplaza
a la derecha . Luego, cuando el tamao de la muestr3 se aumenta, llega a er m
y m posible que el recorrido R ea prximo a l , que e intuitivamente lo que
esperaramos.
284 Muestra< y dl!ttrlbudoo muestrales l .s
13.5 La transformacin integral
Una muestra de una variable aleatoria X puede usar e para obtener informa-
cin acerca de parmetros desconocidos asociados con la distribucin de pro-
babilidades de X. Sin embargo, podemos usar una mue tra con un objeto diferente.
Podramos tomar algunas observacione de una variable aleatoria cuya di tri-
bucin est completamente especificada y luego usar e o valore muestrales
para aproximar ciertas probabilidades que eran muy difcile de obtener con
un clculo matemtico directo. Por ejemplo, suponiendo que X tiene una distri-
bucin N(O, 1) y queremo e tudiar la variable aleatoria Y = e-x sen X. En es-
pecial, opongamos que queremo calcular P(O :::; Y :::; !). A fin de obtener la
re puesta exacta, nece itamo encontrar G, la fda de Y y luego calcular G{t) - G(O).
Encontraramos mucha dificultad para hacer esto. Sin embargo, podemo usar
otro enfoque que est basado en la idea de simular el experimento que da origen
a la variable aleatoria Y. Entonces usamos la frecuencia relativa como una apro-
ximacin a la probabilidad bu cada. Si esta frecuencia retativa se ba a en un
nmero de ob ervaciones suficientemente grande, la ley de lo grande nmero
ju tfica nue tro procedimiento.
E pecficamente, supngase que tenemos una muestra aleatoria de la variable
aleatoria anterior cuya di tribucin e t completamente e pecificada, X 1 , X n
Para cada X definimos la variable aleatoria Y1 = e - x, en X 1 Luego, evaluamos
la frecuencia relativa n.Jn en donde nA e igual al nmero de valore Y1, ean y;,
que ati facen O:::; y1 ::::;; !. Luego nAf n es la frecuencia relativa O ::;,; Y ::::;; t, y i n
es grande, esta frecuencia relativa e tar prxima a P [O : : ; Y :::; !] egn la
ley de los grandes nmeros.
Para aplicar el procedimiento anterior debemo encontrar un medio de
generar una mue tra aleatoria Xi. ... , X n de la variable aleatoria cuya di -
tribucin es N(O, 1). Antes de indicar cmo se hace esto, expongamo brevemente
una distribucin para la cual este trabajo ya se ha realizado debido a Ja dispo-
nibilidad de tabla . Supnga e que X est di tribuida uniformemente en el in-
tervalo [O, l]. A fin de obtener una mue tra aleatoria para tal variable aleatoria,
lo nece itamos ver una tabla de nmero aleatorios (ver el Apndice). Esas
tablas se han hecho de manera que sean tile para este propsito. Para u arla
sencillamente eleccionamo una ubicacin al azar en la tabla y luego obtenemos
nmero a lo largo de filas o columnas. Si queremos u ar e os nmero tabulados
para repre entar valores entre O y l , slo nece itamos poner una coma decimal
al comienzo del nmero. A , el nmero anotado 4573 e usara para repre entar
al nmero 0,4573, etc.
La di ponibilidad de esas tabla de nmero aleatorios hace la tarea de ob-
tener una mue tra aleatoria de una distribucin arbitraria relativamente encilla
debido al resultado contenido en el teorema siguiente.
Teorema 13.6. Sea X una variable aleatoria con fdp f y fda F. Se supone
t
que f(x) = O, x (a, b)]. Sea Y la variable aleatoria delinida por Y = F(X).
Luego Y e t distribuida uniformemente en [O, I] (Y e designa como la
transformacin integral de X).
1 .5 La lran fottn t 011 tnl r11 UlS
Por tanto la fdp de Y. g(y) = G'(y) = 1. to e tablece nue tra demo !racin.
Ob ervaciones: (a) omentemo brevemente cmo se examina realmente el valor de
una variable aleatoria Y. Dado un valor x de la variable aleatoria X . calculamo luego el valor
de Y = F(X) como y = F(x), en 'donde fe la fda de X (conocida).
(b) El teorema 13.6 enunciado y demo trado anteriormente para variable aleatorias
continuas tambin es vlido para variables aleatorias discretas. Hay que hacer un pequeo
cambio en la demo tracin pue to que la fda de una variable aleatoria discreta es una
funcin e calonada y no tiene una inversa nica.
y F(x)
IGURA 13.3
Podemo usar ahora el re ultado anterior a fin de generar una mue tra alea-
toria de una variable aleatoria con una distribucin e pecfica. on ideraremo
nuevamente slo el ca o continuo. Sea X una variable aleatoria continua con
fda F de la cual se ide una mue tra aleatoria. Sea y 1 un valor (entre O y 1) obtenido
de una tabla de nmeros aleatorios. Pue to que Y = F(X) est di tribuida uni-
rormemente en [O, l] , podemos consderii'ra ~como una observacin de e a
variable aleatoria. Re olviendo Y1 = (x1l para x 1 (lo que e po ible si X es
continua), obtenemos un valor de una variable aleatoria cuya fda e F. Conti-
nuando este procedimiento con lo nmero y 2 , . , Yn obtenido de una tabla
de nmero aleatorios, tenemo x;, i = l , ... , n, como olucin de la ecuacin
y; = F(x;), y por tanto. tenemos nuestros valore muestrales buscado .
EJEMPLO 13.3. Supngase que queremos obtener una mue tra de tamao
cinco de una variable aleatoria con di tribucin N(2 , 0,09) y supnga e que ob-
tenemo lo valore siguientes de una tabla de nmero aleatorio : 0,487; O, 722
0,661; 0.194; 0,336. Definamos x 1 como sigue :
28(, Mue;.lr 'I di trlbudue . m"' tralL-s l .s
0,487 = 1 f...
,J'Ei (O,J) _ exp - [ 21(t0,3
- 2) 2
]
dt
00
= --
l J(xi-2)/0.3 exp (-s2) (X _ 2)
- - ds = <I> - -
n -.., 2 OJ
_
T - C 1 YWZ
(~)l /(n - 1) (~)l /(n -
X+ C2 YWZ
1) + C3 .
PROBLEMAS
13.1. Deducir la ex pre in para la fdp del mnimo de una muestra. (Ver el teorema 13.2.)
13.2. Demo trar que si X 1 , , X. son variable aleatorias independiente . que tiene
cada una distribucin exponencial con parmetro !Xr, i = I, 2, ... 11 y si K = min (Xi, . . . , X.),
entonce K tiene una distribucin exponencial con parmetro a 1 ++(X . (Ver el teorema
13.3.)
13. upngase que X tiene una distribucin geomtrica con para metro/>. ca 1 , X.
una muestra aleatoria de X y sea M = max (Xi. .... X.) y K = min (X 1... , X n). ncontrar
la di tribucin de probabilidades de M y de K. [lmlicacin: P(M = m) = F(m) - F(m - 1).
"en donde Fe la fda de M.]
13.4. Se obtiene una muestra de tama 5 de una variable aleatoria con distribucin
(12,4).
(a) 'ul es la probabilidad de que el promedill muestra! exceda 13?
(b) Cul es la probabilidad de que el mnimo de la mue tra ea menor que 10?
(e) ,Cul es la probabi lidad de que el m:1x11nn dl 1:1 muestrn cxrcdu 1:'-'!
13.S. La duracin de un artculo (en hora~) est1 distribuida exponencia lmente con par-
metro fl = 0,00 l. e prueban eis artculos y se anotan sus tiempos para fallar.
(a) ;. 'ul es la probabilidad de que ningn articulo falle antes de ue hayan transcurrido
800 horas'!
(b) i. u1 I es la probabilidad de que ningn artculo dure ms de 3000 horas?
13.6. upngase que X tiene distribuci n (. 0,09). Se obtiene una muestra de tamao 25
de X ,. ea X 1. X is-, ul es la probabilidad de que l:f 5 1 X'f exceda LS?
13.7. tilizando una tabla de nmero aleatorios, obtener una mue tra aleatoria de ta-
mao 8 de una variable a leatoria que tiene las distribuciones siguientes:
(a) exp ncncial, con parmetro 2,
(b) x cuadrado con 7 grados de libertad,
(e) (4.4).
13.8. n la seccin 13.5 hemos dado un mtndo con el cual puede generarse una mue trn
aleatoria de una distribucin espccifi ada. Hay muchos mtodos distinto con lo cuales puede
hacer 'e e to. alguno de los cuales pueden preferir. e al dado, especialmente i hay in trumento
de cmputo di poniblcs. Uno de tale mtodos es el siguiente. upnga e que de eamo
tener una mue tra aleatoria de una variable aleatoria ..ue tiene una distribucin de x cuadrado
con 2k grado de libertad. Procederemos como sigue: se obtiene una mue tra aleatoria de
tamano k (con ayuda de la tabla de nmero aleatorio ) de una variable aleatoria que est
di tribuida uniformemente en (0,1), sea ., ... , Ut. Luego calculemo X 1 = -2ln(U 1
U 2 .. t) = - 2!:~ 1 In (U;). La variable aleatoria X 1 tendr entonces la distribucin pedida,
como lo indicaremos a continuacin. Luego, continuando con este esquema, obtenemos
otra muestra de tamao k de una variable aleatoria distribuida uniformemente y encontramos
a i el segundo valor muestra! X 2 te e que este procedimiento necesita k obse,rvacioncs de
una variable aleatoria distribuida uniformemente para cada ob ervacin de xjk Para verificar
la propo icin que e hizo anteriormente procederemos como igue.
(a) btener la funcin generadora de momentos de la variable aleatoria -2 In (U 1), en
donde es distribuida uniformemente en (0, 1).
(b) btener la funcin generadora de momentos de ta variable aleatoria -2l:~= 1 ln(U 1),
en donde las U; son variables aleatorias independientes cada una con la di tribucin anterior.
e compara esta fgm con la de la distribucin x cuadrado y luego se obtiene la conclu in
buscada.
13.9. U ando el esquema bo quejado en el problema 13.8. obtnga e una mue Ira aleato
ria de tamao 3 de la di tribucin xi.
13.10. na variable aleatoria continua X est di tribuida uniformemente en (-j- H
Se obtiene una muestra de tamao 11 de X y se calcula el promedio mue tral X. 'ul es la
desviacin estndar de ?
l'111hhmu' 289
13. 11. Se toman muestras independiente de la mao 10 y 15 de una variable aleat ria
distribui da normalmente con esperanza 20 y varianza 3. Cul es la probabilidad de que el
promedio de la dos muestras se diferencie (en valor absoluto) en ms de 0,3?
13.12. (Para este ejercicio y lo tres siguientes, lea la ob ervacin a l i nal del capi tulo 13.)
Use la tabla de las desviaciones normales (tabla 7 del Apndice) y obtenga una muestra de
tamao 30 de una variable alea toria X que tiene una di tribucin (l. 4). ar esta mue tra
para responder lo sigu iente:
(a) Comparar P(X ;:::; 2) con la frecuenca rela tiva de ese suceso.
(b) Comparar el promedio muestra! X y la varian7.a muestra! S2 con 1 y 4 re pcctivamentc.
(e) 'onstruir un grico de F(1) = P(X :::; 1). sando el mi mo sistema de coordenadas.
obtener el grico de la f1111cin de distribucin emprica F. definida como sigue:
Fn{I) =O si t < xm
= k/n SI X(kl :s; f < X(t+ I)
= 1 si 1 ;;:::: x<1,
en donde xm es la i-sima mayor obser acin en la mue tra (es decir. x<iJ e el e tadgrafo
de i- imo orden). (La uncin F. se usa frecuentemente para aproximar la fda F. Puede de-
mostrarse que bajo cond iciones muy generales lim. "' F.(1) = F(1).]
13.13. Tenga una di tribucin (O, 1). De la tabla 7en el Apndice.obtener una muestra
de tamao 20 de esta distribucin. ca Y = IXI.
(a) U ar esta mue tra para comparar P[I < Y ::;; 2 con la frecuencia relativa de ese
suceso.
(b) 'omparar E( Y) con el promedio muestra 1 Y.
(c) Comparar la fda de Y. F(t) = P(Y ::-:;; 1) con F,, la fda emprica de Y.
13.14. Supngase que X tiene distribuc n (2. 9). Sea X 1 , X 20 una mue tra alea-
toria de X obtenida con ayuda de la tabla 7. alcu lar
2 1 " - 2
S = - - L (X, - X)
n- l1 1
14.1 Introduccin
Pue to que esta puede er la primera vez que el lector encuentre pregunta de
esta cla e, vale la pena comentar brevemente la naturaleza general de e te problema.
A muchas preguntas matemticas, existe una re pue ta definida. ta puede ser
muy dificil de encontrar, puesto que implica mucho problema tcnicos y debemo
contentarno con una aproximacin. Con todo habitualmente es evidente cuando
tenemo una re pue ta y cuando no. {Por ejemplo, opongamos que nos piden
encontrar una raz real de la ecuacin 3x~ - 4x 2 + l 3x - 7 = O. Una vez que
hemos encontrado una solucin, es muy sencillo verificar si es la correcta: slo
necesitamos sustituirla en la ecuacin dada. Si tenemos dos re puesta aproxima-
das, r 1 y r 2 , e tambin sencillo decidir cul aproximacin e mejor.)
Sin embargo, el problema actual, particularmente la e timacin de p, no admite
un anlisi tan sencillo. En primer lugar pue to que nunca podemos conocer el
valor verdadero de p (en cualquier situacin real al menos), no tiene sentido decir
que nuestra e timacin p es correcta. egundo, si tenemo dos e timaciones
de p llammoslas p1 y p2 , debemo encontrar algn medio para decidir cul es
mejor. sto significa que debemo e: tablecer algn criterio que podamos aplicar
para decidir si una estimacin es preferible a otra.
o 8
o equi a lcntcmente, si
Teorema 14.l. Sea O una estimacin de() ba ada en una muestra de tamao n.
Si lim" E() = O, y si limn ~ V() = O, entonces (j e una estimacin
convergente de O.
Un criterio final que e aplica a menudo para estimar puede formular e como
sigue. uponiendo que X 1 , . X" es una muestra de X y() es un parmetro de co-
nocido. Sea 6 una funcin de (Xi. ... , X").
E(p) = J:)
L\ 11
=~n(np) = p.
eorema 14.2. Sea X una variable aleatoria con esperanza fin ita i y varianza
a 2 . Sea X el promedio mue tral, obtenido en una muestra de tamao n.
Luego X es un e timador in e gado y convergente de .
Observacin: que el re ultado demo trado en el ejemplo 14. l e un ca o e pccial del teore-
ma 14.2, se deduce cuando observamo que la proporcin de defectuo o en la mue tra, Y/11,
puede escribir e como ( L/ n){X 1 + + X.), en donde lo X toman lo valores uno y cero.
segn que el artculo in peccionado sea o no defectuo o.
11 = I a 1X 1 I 1= t.
i l ia 1
Luego
n
Var ii. = u2
i 1
ar
pue to que lo X 1 on variable aleatorias independiente con varianza comn u 2 .
E cribimos
n
I al = (a1 - 1/ n) 2 + :t- (a" - l/ 111 2 + (2/ 11Xa 1 + + an) - 11(1 /11 2)
i= 1
As. aunqu lo do e limadores 11Z y Tson insesgado . el ltimo tiene una varianza
mil pequea y por tanto debera preferirse.
Sin embargo, en esta situacin especial hay otra con ideracin que p dria
inluir en nuestra eleccin enlre lo dos e timadores sugeridos. Las n componentes
podran probarse simultneamente. (Por ejemp lo, podramos poner 11 bombillas
en /1 portalmparas y anotar el tiempo en que se queman.) Cuando usamo 11Z como
e timador. la prueba puede terminar e tan pronto como la primera comp nente
falle. Al usar Tcomo e timador debemos esperar hasta que todas la componentes
hayan fallado. s muy po ible que transcurra mucho tiempo entre la primera y la
ltima falla. Di indolo de una manera distinta, si Les el tiempo necc ario para
probar los 11 artculo y ca lculamos la e timacin para 1/ ff, u ando nZ, tenemo
L= min (T1, . T,,), mientras que al usar T. tenemos L = max (T1, . , T,,). Luego,
i el tiempo necesario para efectuar la prueba es de cualquier efecto serio (digamo
en trminos de costo). podramos preferir al e timador con mayor varianza.
~JEMPLO 14.3. Suponiendo que se desea un estimador inse gado de la varianza
a 2 de una variable a lea toria, ba ada en una mue Ira X 1, . . . , Xn.
Aunque podramo considerar (l / n) i: 1 (X - X) 2 , resulta que e te estadgrafo
tiene un valor esperado igual a [(n - l)/ n]a 2 . (Ver el teorema 13.4.) Luego un esti-
mador in esgado de a 2 se btiene al tomar
'2
<1 =- 1 L" (X -
-
X) .
2
11 - l j 1
Ob. ervacio11es : (a) Aunque dividir por (11 - 1) en vez de 11 e distinto cuando 11 es relativa-
mente pequeo. para un 11 gnmde la diferencia es pequea cualquiera que sea el estimador que
e use.
(b) l ejemplo 14.3 ilu tra una ituacin muy comn: puede suceder que un estimador ti,
de un parmetro ft, sea se. gado en el sentid o E(fi). = kft; en tal ca o con idcramos simplemente
al nuevo estimador /l/k. que ser insesgado.
(e) Puede demostrarse. aunque no lo haremos aqu, que el estimador anterior de (J 2 es con-
vergente.
ABLA 14. l
k o 1 2 3 4 5 6 7 8 9 IO 11 Total
-f--- - - ~ ~ -
111 57 203 383 525 532 408 273 139 49 27 10 6 26 12
14.3
Puesto que E(X) = !...l.. podemo u ar el promedio mue tral para obtener un
e timador in e gado de k.t Para ;., obtenemo entonce el e timador i = 8X.
Para calcular X implemente evaluamo
!:l 1 o knk .
li = 3,87part1culas.
k =o llk
TABLA 14.2
mero de inlamaciones, k o 1 2 3 4 5 6 Total
TABLA 14.3
Contenido de cenit.a en el carbn
X 9,25 9,7 5 10,25 10,75 11 ,25 ll ,75 12,25 12, 75 13,25 13,75
1 o 2 l l 2 5 4 7 6
"
X 14,25 14,75 15,25 15,75 16,25 16,75 17,25 17,75 18,25 18,75
llx 13 14 15 13 24 15 19 23 22 12
X 19,25 1975 20,25 20,75 21,25 21 ,75 22,25 22,75 23,25 23,75
11% 12 7 6 8 6 4 2 2 o 3
Total
de muestras 250
E[g(Ol] # g[E(O)],
resu lta que en muchos casos la igualdad e vlida. aproximadamente al menos, especialmente
si el tamao de muestra es grande. A , en el ejemplo anterior encontramos que E(X) =
=
y E(X) 2 = l + cr 2 /n, [con 8 X y g(z) = z2], que aproximadamen te es igual a 2 si n es
grande.
Slo hemos con iderado ciertos criterios con lo cuale podemo j uzgar un es-
timador. Es decir, conocido un estimador que se propone para un parmetro de -
conocido, podemos verificar si es insesgado y convergente, y podemos calcular
14.4 Eslimadon: de mbl.~I! t 1;11.Jlll,llllud 2W
(e) A fin de encontrar el e timador M L debemo. determinar el valor mximo de una funcin.
As, en muchos problemas podemos aplicar algunas de la tcnicas estndar del clculo para
encontrar este mximo. Pue to que In x es una funcin crecie11le de x. '
lnL(X1 .. . ,X.;0)
obtendr u valor mximo para el mismo valor de O que lo obtendr L(X 1 X. ; 0). Luego
bajo condicione muy generales, suponiendo que O es un nmero real y que UX 1.. x.: O)
e una funcin difcrenciable de O, podemo obtener el e timador ML Oal re olver lo que se
conoce como la et11acin de uerosimiliwd.
a
aO In L(X 1, . , X.- O) = O (14.2)
i O = (a, {J). la ecuacin anterior debe sustituirse por las ecuaciones de probabilidad simul-
tneas
(14.3)
a
il{ In L(X . . .. X 0 ; -x, fJ) = O.
1
Nuevamente e in istir en que el enfoque anterior no siempre es til. Sin
embargo, en un gran nmero de ejemplos importante (algunos de lo cuate
pre entaremo brevemente) e te mtodo proporciona el e timador M L pedido
con relativa facilidad.
Propiedades de lo eslimadores de mxima verosimilitud:
(a) El estimador ML puede er esgado. Muy a menudo tal se go puede evi-
tar e multiplicando por una con tante apropiada.
(b) Bajo condiciones muy generale , los estimadores ML son convergentes.
Es decir, si lo tamaos de mue tra obre los cuale se basan e grande. el e ti-
mador ML e tar prximo al valor del parmetro que e e tima. (Los estima-
dore ML poseen otra propiedad muy importante, la propiedad del gran ta-
mao de muestra que e expondr posteriormente.)
(c) Lo estimadores ML po een la muy importante propiedad de invarianza.
Supnga e que (} es el e timador ML de (}. Puede demo trarse que el e timador
ML de g(O) es g(O). E decir, i el estadstico A toma us medida en pe 2 y el e -
tad tico B mide en pie y i el estimador ML de A es O, entonces el de B era
O. Recordamo que e ta propiedad no la tienen lo estimadore in e gados.
onsideraremo ahora ciertas aplicacione importante de los e tmadores ML.
In L t1
-=-- L:n y. y ~= 0
iJ/J fJ 1 r a11
da fl = 1/ T donde T es el promedio muestra! de los tiempo de falla. Pue to que
el valor esperado de T. el tiempo promedio para fallar, e t dado por 1//J, usando
la propiedad de invarianza de los estimadore ML, encontramos que el e ti-
mador ML de E(T) e t dado por T , el promedio mue tral. abemos que E(T)
l /{J y por tanto f , el e timador ML de E(T), es in e gado.
iJ lnL k n- k k n- k
- - = - + - - ( - !) = - - - .
i)p p 1- p p 1- p
1 exp [ - l[ ;~
L(X , , ... , X.;) = ( n)"' 2
2
n
(X 1 - )
2 J
Por lo tanto
= - -2n In (21t) - l n
L: 1) 2
oIn L "
In L -
2; = 1
(X 1 - y -- =
o ,..L:. (X, - ).
. []n-1 (1)-
g(o:) = n - n(ii),,-
= - -,
1
ex a ex"
14.4 Estimadores de mblm11 ~,rolm lltud 303
L(Xi. .. . , X,,, u)
FIGURA 14.3
n + l
o:= - - max (X 1 . . , X,,).
n
Observemos que aunque E(a) # o: tenemos que lim. ..,E(a) = ix. As, para veri-
ficar la convergencia debemos demostrar an que V(&) O cuando n -+ . (Ver
el teorema 14. l.) Debemos calcular E(a)2 ;
1
E(a) 2 = f" (a) 2g(&) d2 = 2
(a)2 ri(a): - da
Jo Jo a
n (~)'1 +21 n 2
=!Xn 11+20 =n + 2.
Luego
V(a) = E(a)2 - (E(a))z = _ n_ az _
n+2
[-n
+
n
-a.] 1
2
= a2 [
(n
n
+ 2)(n + 1)2
] .
! [~] ) .
2
f(x) = l exp ( -
2n q 2 O'
304 Estimacin de los parmetros 14.4
o ln L =O y o In L= O
Tenemos
a .
aln L ~ (X; - ) _ O
-a;- = i;-1 u2 - '
0 ~n L =
vr
11 l n A. + E l n X; -
1= 1
n r'(r)) = O.
r(r
todo muy rpido para obtener las soluciones pedidas ha sido presentado en un
artculo por D.G. Chapman (Annals of Mathematical Statistic, 27, 498-506, 1956).
Este ejemplo muestra que la solucin de las ecuaciones de vero imilitud puede
conducir a dificultades matemtica considerables.
Como lo hemos mencionado anteriormente, los estimadores ML poseen otra
propiedad que los hace muy apreciados, especialmente si las e timaciones se
hacen en una muestra muy grande.
Propiedad asinttica de los ~timadores de mxima verosimilitud. Si es un e
estimador ML para el parmetro fJ, definido sobre una muestra aleatoria X , ... ,
X. de una variable aleatoria X , entonces paran suficientemente grande, la varia-
ble aleatoria 6 tiene aproximadamente la distribucin
N((J~) B= nE[:91nf(X;fJ) 2
en donde ; (14.4)
Pue to que
E(T) = l/ {J y E(T 2 ) = V(T) + [E(T)] 2 = 1//3 2 + 1/ {3 2 = 2/{3 2 ,
tenemo
2
1 2 l
E[
i)
ap ln f(T; {J)
]
= 11 2 - ji+ p22
p l
= pi
P
Luego encontramos que tiene aproximadamente la distribucin N({J, {3 2 / n), para
un n grande. (Esto verifica la propiedad de convergencia del e timador puesto
que {3 2 / n -+ O cuando n -. oo.)
14.5
TABLA 14.4
1142 13 1008 13
1742 7 208 113
280 14 439 14
437 16 1471 14
678 13 482 18
1002 11 673 13
1543 4 407 16
1002 9 1290 7
1103 . 5 1609 6
475 11 910 9
. 1049
566
995
10
15
10
1277
410
1
14
Y = a.X+ p +E,
y
FIGURA 14.4
X
308 tima In de los parmelro~ 14.5
Observacin: la interpretacin del criterio anterior es muy evidente. (Ver la figura 14.5.)
Para cada par (x,, Y1) calculamos la discrepancia entre Y,, el valor observado, y ax 1 + fl, el valor
perado. Puesto que slo estamos interesados en la magnitud de esta discrepancia elevamos
al cuadrado y sumamos todos los puntos de muestra. La lnea buscada es aquella para la cual
esta urna e ms pequea.
E(Y)
A fin de obtener los estimadores pedido para
a. y /J procedemos como sigue. ea S(a, /J) = ,. 1
[Y - (a.X; + {J}]1. Para minimizar S(a., /J}, debemos
re olver las ecuaciones
as= 0 y
iJS
iJ[J =O.
FIGURA 14.5
14.S El mtodo de IO!i 111lnln10 u1drados JO'J
as n n
- = L: 2[Y1 -(exx; + {J)]{ - 1) = -2 L: [Y; - cxx; - /J].
a{J i= I i= I
n n
a L X1 + n/J = L: Y;. (14.6)
i= 1 /a l
(x, - x) 2 # o.
i= I
P=Y- ax
1 n - 111
= - L Y - x zL (xi - i)Y
llr s 1 ~r . 1(X;-X) i I
=L:Y J _
1 -- x
(X - X) J .
1 n r. 1(x1 - x) 2
(c) E un ejercicio sencillo demostrar que E(a) = a y que E(Pl = /J. (Ver el problema 14.34.)
As, ay i son ambo estimadore in esgados.
14.6
a
(d) La~ Vllrianzas de y f) tambin e pueden calcular fcilmente. (Ver el problema 14.35.)
Tenemos
V(a) -- ..... (
al
-2
L,i IX - X
V(/J) = - + [1 X- 2
n l:i= 1(x1 - x)
z
J"2
(14.9)
ap
(e) Los estimadores y son realmente los mejores estimadores lineales in sesgados de a y p.
Es decir, entre todo los estimadore insesgados lineales, stos tienen la varianza mnima.
ste es un caso especial del teorema general de GaussMarkoff, que establece que bajo ciertas
condiciones los estimadores de cuadrados minimos y lo mejores estimadores lineales inses-
gados son sempre lo mismo .
(O El mtodo de los cuadrados mnimos puede aplicar e a modelos no lineales. Por ejemplo,
si E(Y) = aX 2 + {JX +y, podemo estimar a. {J y y de modo que
n
TAB A 14.5
T y T y
o 66,7 29 92,9
4 71,0 36 99,4
10 76,3 51 113,6
15 80,6 68 125,I
21 85,7
variable alealoria. Sin embargo, hay variable aleatoria bidimen ionales (X, Y)
que dan origen a una mue tra aleatoria (X., Y.), .. . , (X., Y.). Uno de los par-
metro ms importante a ociado con una variable aleatoria bidimensional es
el coeficiente de correlacin p,,,,.
TABLA 14.6
r=
Hasta ahora slo nos hemos intere ado por la obtencin de un estimador
puntual para un parmetro desconocido. Como lo in inuamos al comienzo de
este captulo, exi te otro enfoque que conduce a menudo a resultados muy sig-
nificativos.
Supngase que X tiene di tribucin N(, a 2 ), donde u 2 e supone conocido,
mientra que e el parmetro desconocido. Sea X 1> , X. una muestra alea-
toria de X y ea X el promedio muestra!.
Sabemos que X tiene di tribucin N(, a 2 /n). Por tanto Z = [(X - )/a] n
tiene una distribucin N(O, 1.) Ntese que aunque Z depende de , su distribu-
cin de probabilidades no. Podemos usar este hecho a nue tra conveniencia
como sigue.
14.7
'onsiderar
IG RA )4.7
l,96u/ n . 'uando hacemos la afirmacin de que 500,4 < 11 < 502,0 sencilla-
mente estamo adoptando el criterio de creer que algo es a i cuando sabemos
que es verdadero la mayor parte del tiempo.
t = (X - Jl) n (14.10)
q
Debera ser intuitivamente evidente que la di tribucin de probabilidades de la
variable aleatoria tes considerablemente m complicada que la de Z =(X - )
n/a. Ya que en la definicin de e tanto el numerador como el denominador
son variables aleatoria , mientras que Z sencillamente e una funcin lineal de
x lJ . . . , Xn. Para obtener 1a distribucin de probabilidades de t u emo los
11e~hos siguientes:
(a) Z = (X - ) n/a tiene distribucin N O, 1 .
(b) V= 1:7,,, 1 (X; - X)2 /u 2 tiene una distribucin de x cuadrado coa (n - 1)
g@dos de libertad. (Ver el teorema 13.4.)
(e) Z y V son variables aleatorias independiente . (E to no es muy fcil de de-
mostrar, y no lo verificaremo aqu.) Con ayuda del teorema iguiente podemo
obtener ahora la fdp de t.
314 E..~limadn de los parm uus 14.8
(d) Debido a su importancia esta di tribucin ha sido tabulada. (Ver el apndice.) Para
un a dado, 0,5 <a < 1, los valores de lt .~ sati faccn la condicin
J_ :~t(I) lil = a.
estn tabulados. (Ver la figura 14.9.) (Para los valores de a que atisfac.en O < a. < 0,5, pode-
mos u ar los va lores tabulados debido a la simetra de la distribucin.)
(e) Esta di tribucn se llama as en honor del estadstico ingls W. S. Go set, quien pu-
blic u trabajo bajo el p eudnimo de Studcnt.
. 11(1)
[e. (
IOURA 14.9
R(I ; ) R(r ; )
FIG RA 14.11
16 1 madoo d lo parim~lms 14.9
~ = 1 - <I>
~ (t--;;=
- ) y -
R = 1 - <I> - " -
(l - )
encontramos que P(R :::::; R ::::; R) = P( :::::; :::::; i) = 1 - a, y que por tanto
(R, R) no representa un intervalo de confianza para R(t; ) con coeficiente de
confianza (1 - a). (Ver figura 14.11 .) .
Usemos los valores muestrales obtenidos en la seccin 14.7 para ilustrar este
procedimiento. Supngase que deseamos un intervalo de confianza para la con-
fiabilidad de la componente cuando e u durante t = 500 horas. Puesto que
encontramos = 500,4 y ji = 502,0, obtenemos
500 - 500,4)
R = 1 - <I> ( = O 6554
- 4 ' '
Ha ta ahora slo hemos considerado intervalos de confianza bilacerales. Es
decir, hemos obtenido dos e tadgrafos (llamados algunas veces cota superior e
inferior de confianza), sean L(X l> ... , X") y (U(X i. . . . , X"), tales que P[ L ~ () :::::;
U] = 1 - a, en donde 6 es el parmetro desconocido.
A menudo estamos interesados slo en obtener intervalos de confianza uni late-
rales de la forma sigui en re:
p[
" (X; _ i)2
L 2 :::::; X n2 - l. 1 - o:
J
=1 - a.
i ~ 1 O'
14.9 Mb !l(lbre lo lnlrrHlo dt oofh11111 .117
2
!:7=1 (X1 - X)
P[ u
2
~ 2
Xn - 1,l - a
]
=1-cx.
/ ;;?; exp [ -
P { R(t ; p) = e- '" tX x2n
~" 1 - ... . =l-
}
.
p - PIn ~
[lh pq xJ = P[lh - PI ~ K pq/n] ::::
= 2cJ>(K) - 1,
en donde, como siempre <l>(K) = (1/ 2n)f~ 00 e- 212 dt. Luego, si hacemo igual a
( 1 - a:) la probabilidad anterior, podemos obtener el valor de K de la tabla de
"" lo\1hn11dc'>n de lo~ p11r'mtlrc" 14.\1
h =c
FIG RA 14.J
Por tanto {llr - vi ;: ; K pq/ 11} e equivalente a {Pi ~ p ~ Pz}. Luego i e e coge
K de modo que el suceso anterior tenga probabilidad (! - o:), obtenemos un
intervalo de confianza para p, ca (p., p 2 ), con coeficiente de confianza (1 - a).
Para re umir: con el objeto de obtener un intervalo de confianza para p = P(A)
con coeficiente de confianza (1 - ex), realit:ar el experimento 11 veces y calcular la
frecuencia relativa del suceso A, !lamrnosla h. Luego e calculan Pi y p2 de acuerdo
con las ecuaciones (14.12). en donde K se determina de la tabla de la distribucin
l'rublcmMs 19
PROBL MAS
14.3. Supngase que e obtienen 200 observac iones independiente Xi- .. . , X 200 de
una variable aleatoria X. Se dice que 'f.f2?X 1 = 300 y que I:r? Xr = 3754. sando esos
valores obtener un estimador insesgado de E(X) y V(X) .
14.4. na variable a leatoria X tiene fdp f(x) = (p + l)xi', O < x < l.
(a) Obtener el estimador ML de P. basndose en una mue tra X ., .. . . X .
(b) Evaluar la estimacin si los valores muestrale son 0,3; 0.8 ; 0,27 ; 0,35 ; 0,62 y 0.55.
14.5. Lo datos de la tabla 14.4 se obtu ieron de la distribucin del espesor de la ma-
dera en los postes telefnico . (W. A. Shewhart. Economic Conrrol of Qualil J' of Man11fac1ured
Produc1s. Macmillan and Co, New York, 1932. p. 66.) Supngase que la variable aleatoria
que e considera tiene distribucin N(, a 2) obtener el estimador ML de y a 2
TABLA 14.4
14.6. Supngase que T , el tiempo para fallar (en horas) de un instrumento electrnico,
tiene la siguiente fdp:
/(t) = {Je - #~t - oJ l > l o > O,
= O, para cualquier otro valor.
(T tiene una distrib ucin exponencial truncada a la izquierda en L0 ). Supnga e que se
prueban n articulos y que se anotan los tiempos para fal lar T 1 , . . . , T .
(a) uponiendo que t 0 es conocido, obtener el e timador ML de /J.
(b) Suponiendo que t 0 e de conocido, pero {J es conocido, obtener el est imador ML
de L0
14.7. Considrese la misma ley de falla descrita en el problema 14.6. sta vez se prueba n
N artculos durante T 0 horas (T 0 > lo) y se anota el nmero k de artculos que fallan. Res-
ponder la pregunta (a) del problema 14.6.
14.8. Supngase que X est distribuida uniformemente en ( -a:, u. ncontrar el est i-
mador ML de a:, basndose en una muestra aleatoria de tamao 11, X 1 . . , X,,.
14.9. (a) e efecta un proceso hasta que un uceso A ocurre por primera vez. n cada
repeticin P(A) = p. Se supone que son necesarias n 1 repeticiones. Luego se repite el expe-
rimento y esta vez son necesarias n 2 repeticiones para producir el suce o A. Si se hace esto k
veces, obtenemos la muestra 11 1 , .. , nk. Basado n esta muestra, obtener el estimador M de p.
(b) Supngase que k es muy grande. Encontrar el valor aproximado de E(ii) y V(}) en
donde pe el e timado r ML obtenido en (a).
14.10. e prob una oomponente que e supone que tiene una distribucin exp neneial
de fallas y se observaron las siguiente duraciones (en horas): 108, 212. 174, 130, 198, 169,
252, 168, 143. Usando esos valores mue trales, obtener una estimacin ML para la confia
bilidad de la componente cuando se usa durante un perodo de 150 horas.
14.11. Lo datos siguientes representan la duracin de bombilla elctricas (en horas):
1009, 1085. 1123. 1181, 1235, 1249, 1263, 1292, 1327, 1338, 1348,
1352, 1359, 1368, 1379, 1397, 1406, 1425. 1437, 1438, 1441. 1458,
1483, 1488, 1499, 1505, 1509, 1519, 1541, 1543, 1548, 1549. 1610.
1620, 1625, 1.638, 1639, 1658, 1673, 1682, 1720, 1729, 1737, 1752.
1757, 1783, 1796, 1809, 1828, 1834, 1871 , 1881. 1936, 1949, 2007.
De los valores de la muestra anterior obtener la e timacin ML para la confiabilidad de tales
bombilla elctricas cuando se u an durante 1600 horas, suponiendo que la duracin est
distribuida normalmente.
14.12. Supngase que se u an dos bombillas tal como se describieron en el proble
ma 14.11 en (a) una oonexin en serie y (h) en una conexin en paralelo. En cada uno de lo
casos encontrar la estimacin ML de la confiabilidad durante una operacin de l 600 horas
del sistema, basndo e en los valores muestrales dados en el problema 14. l l.
14.J3. Supngase que una uente radiactiva emite partculas ex de acuerdo con una dis
tribucin de Poisson. Es decir, si X es el nmero de partcula emitidas durante un intervalo
de t minutos, luego P(X = k) = e- Ar(,l.1)'/k ! En vez de anotar el nmero rea l d partculas
emitidas upngase que observarnos el nmero de ve<:e que no ue emitida ninguna particu
la. E pecficamente, supngase que e ob ervan durante 50 minutos 30 fuentes radiactivas
que tiene la misma potencia y que en 25 ca os al meno una partcula fue emitida. Obtener
la estimacin ML de A. con ba e en e ta informacin.
14.14. na variable aleatoria X tiene distribucin N(, 1). e toman veinte ob ervacio-
nes de X, pero, en vez de anotar su valor ob ervamos slo i X era negativa o no. upo-
niendo que el suceso {X <O} ocurri exactamente 14 veces, utilit.ar esta informacin para
obtener la estimacin ML de .
14.15. Suponiendo que X tiene una distribucin gamma; es decir, la fdp est dada por
A(..tx)' - 111 - .i..
f (x) = ----r(r)- - X> O.
14.17. Demostrar el teorema 14.3. [Jndicacn: ver la observacin (a) que igue a e te
teorema.]
14.18. omparar el valor de P(X ~ 1), en donde X tiene distribucin N(O. 1). con P(t ~ 1~
en donde 1 tiene una distribucin t de tudent con:
(a) S gl. (b) 10 gl. (c) 15 gl . (d) 20 gl. (e) 25 gl.
. 22 Estimdn d los parm ""
upngase que X tiene una distribucin (fi.o- 2 ). Una mue tra de tamao 30.
14.19.
sea X., ... X 30 da lo valore siguiente: !.l21 X;= 700,8; !.?21 X t = 16.395,8. Obtener
un intervalo de confianza de 95 por ciento (bilateral) para JL
14.20. Supnga e que X tiene una di tribucin N(,4). Una muestra de tamao 25 pro-
duce un promedio muestra! X = 78,3. Obtener un intervalo de confianza de 99 por ciento (bi-
lateral) para .
14.2 t. Supngase que la duracin de una componente tiene una distribucin nonnal
N(, 9). Se prueban 20 componentes y se anot;in sus tiempos para fallar X., ... , X io Su-
pnga e que X = 100,9 horas. Obtener un intervalo de confianza de 99 por ciento (bilateral)
para la confiabilidad R(JOO).
14.22. Obtener un intervalo de confianza unilateral de 99 por ciento (inferior) para
R(IOO) del problema 14.21.
14.23. Supnga e que X tiene distribucin N(. a 2 ) en donde y a 2 son desconocidos.
Una muestra de tamao 15 ha producido los valores !:.J! 1 X; = 8,7 y r,s 1 X f = 27,3. Ob-
tener un intervalo de 95 por ciento de confianza (bilateral) para a 2
14.24. Se probaron cien componente\ y 93 funcionaron ms de 500 hora . Obtener
un intervalo de confianza de 95 por ciento (bilateral) para p = P (una componente funciona
ms de 500 horas). [Indicacin : use la ecuacin 14.12.]
14.25. Supngase que X , la longitud de un perno. tiene distribucin N(J1, 1). Se fabrica
un gran nmero de pernos y posteriormente e separan en dos grande lotes. 1 lote 1 con-
tiene slo aquellos perno para los cuales X > 5, mientras que el lote 2 contiene el resto.
Una muestra de tamao n se aca del lote 1 y se miden las longitudes de los pernos elegidos.
Asi obtenemos una muestra Y., ... , Yn de la variable aleatoria Y que es una variable alea-
toria distribuida normalmente y truncada en 5 a la izquierda. scribir la ecuacin que debe
resolverse a fin de obtener el e timador M L de basado en la muestra (Y 1 , , Y.), median-
te las funciones <P y~ tabuladas, en donde </J(x) = (l /,J'I)e -" 212 y <Des la da de la distribu-
cin N(O, 1).
14.26. (La distri bucin F). Sean X y Y variables aleatoria independientes con distri-
x:
buciones 1 y i; 2 , respectivamente. Sea definida la variable aleatoria F como sigue : F =
(X/ n 1)/(Y/ n 2 ) = 11 2 X /n 1 Y. (Esta variable aleatoria desempea un papel importante en mu-
chas aplicaciones e tadsticas.) Demo trar que la fdp de F est dada por las expresiones
siguientes:
h(f) = r[(111 + n2)/ 2) (~)1/2 p1121 - 1(1 + (111/n2)f-012)<1+. f > O.
f(111 / 2)f(112/2) n2
[Esta e llama di tribucin F (Snedecor) con (11 1.11 2 ) grados de libertad. Debido a su impor-
tancia, e han tabulado la probabilidade asociadas con la variable aleatoria F.] [Indica-
ci11 : para derivar la fdp anterior. u ar el teorema 6.5.]
14.27. Dibujar el grfico de la fdp h como se da en el problema 14.26, suponiendo que
n 1 > 11 2 > 2.
14.28. Una razn para la importancia de la distribucin F es la siguiente. uponiendo
que X y Y son variables aleatorias independiente con distribuciones N(Jlx, u;) y N(,, u:i
respectivamente. Sean X., . .. , X e Y 1> , Y ni muestras aleatorias de X y Y respectiva-
mente. Luego el estadigrafo cr.7! 1 (X 1 - X) 2/!.7!: 1 (Y 1 - Y) 2 tiene una distribucin F para
una eleccin apropiada de . Demo trar esto y determinar C. Cules son los grados de li-
bertad asociados con esta distribucin?
Probl~m 323
14.29. Supngase que la variable aleatoria r t iene una distribucin 1 de Studcnt con 1
grado de libertad. Cul es la distribucin de 1 2? Identifiquela.
14.30. Supngase que X est distribuida normalmente. Se o btiene una muestra aleato-
ria de tamao 4 y se calcula X el promedio mues tra!. Si la suma de los cuad rado de las de -
viaciones de esas 4 medicones de X es igual a 48, obtener un intervalo de 95 por ciento de
confianza (bilateral) para E(X) mediante X.
14.31. La muestra siguiente de tamao 5 se obtuvo de la variable a leatoria bidimen-
sional (X, Y). Usando esos valores, calcular el coeficiente de correlacin mue tral.
X 2 3 4 5
y 4 5 3 2
14.32. Supngase que E(Y) = a.X + /J. Una muestra de tamao 50 e t disponible, sea
(X, Y,), i = 1, ... , 50 para la cual X= y = O, 'Er2. xr
= 10, r..~2 . Yr2 = 15 y El. X ; Y = 8.
(a) Determinar lo estimadores de cuadrados mnimos de los parmetros a. y p, e decir
a. Y p.
(b) CUl es el valor mnimo de la urna de cuadrados Lf~ 1 [Y - (ri.x; + /i)]2.
14.33. Se podra suponer (erradamente) que siempre puede encontrarse un estimador
in e gado, para un parametro desconocido. Que esto no e as, e ilust ra con el ejemplo si-
guiente. Supngase que se hacen n repeticiones de un experimento y un suceso especial A
se verifica exactamente k veces. Si hay una probabilidad constante p = P(A) por hiptesis
de que A ocurra cada vez q ue se hace el experimento, podramo e tar intere adosen estimar
la razn r = p/(I - p). Para verificar que no existe un estimador inse: gado de r = p/(I - p)
[basado en la observacione de kA y (n - k)A , suponemos que en realidad existe tal esti-
mador. Es decir, supngase que i = li(k) es un estadigrafo para el cual E(r) = p/(I - p). Es-
peclicamente, supngase que n = 2 y por tanto k = O, l. 2. Desgnense lo tres valores co-
rrespondientes de F por a, b y c. Demostrar que E(r) = p/(l - p) conduce a una contradic-
cin al obseTVar lo que sucede a la izquierda y a la derecha de esta ecuacin cuando p.....,. l.
14.34. Verificar que lo e timadore de cuadrados mnimos a y p como se dan en las
ecuaciones (14.7) y (14.8) son insesgados.
14.35. Verificar las expresiones para V(ci) y V(P) como se dan en la ecuacin (14.9).
14.36. Supongamos que E(Y) = aX 2 + PX + y, en donde X es preasignada. Basado
en una muestra (xi. Y1) , i = 1, .. . , n determinar los estimadores de cuadrados mnimos de
los parmetros a, P y -,.
14.37. Con ayuda de la tabla 7, obtener una muestra de tamao 20 de una variable alea-
toria que tenga distribucin N(2, 4).
(a) Supngase que esta muestra s.e obtuvo de una variable aleatoria que t iene la distri-
bucin N(a, 4). U ar lo valores muestrales para obtener un intervalo de 95 por ciento de
confianza para a..
(b) Lo mismo que (a) excepto que se supone que la muestra proviene de la distribucin
N(rx, p2) con p2 desconocido.
(c) Comparar las longitudes de los intervalos de confianza en (a) y (b) y comentar.
15
Docimasia de hiptesis
15.1 Introduccin
n este captulo presentaremos otra manera de abordar el problema para hacer
una afirmacin acerca de un parmetro desconocido asociado con una distribucin
de probabilidades, ba ndose en una muestra aleatoria. n vez de encontrar un
estimador para el parmetro a menudo encontraremos c nveniente formular
una hiptesi obre un valor para ste y luego usar la informacin de la mue tra
para confirmar o rechazar el valor de la hiptesis. Los concepto que e van
a pre entar en e te captulo pueden formularse en una ba e terica muy pro-
unda. Sin embargo, no continuaremo e te tema de un punto de vista formal.
En su lugar, consideraremos cierto nmero de mtodo que on intuiti amen-
te atractivo . studiaremos algunas propiedades de los mtodos sugerido-,
pero no intentaremos indicar por qu deberan preferirse algunos mtodos
propuestos en vez de uno alterno. El lector interesado puede obtener un fun-
damento ms terico de alguno de estos procedimientos al consultar alguna
de las referencias sugeridas al final del captulo.
e n ideremos el ejemplo siguiente.
EJEMPLO 15. l. Un fabricante ha e tado produciendo tijeras que se usarn
bajo cierta condicione de esl.lerzo. S ha encontrado que la duracin (horas)
de esos artculos est distribuida normalmente N(I00,9). Se ha diseado un nuevo
sistema de fabricacin cuyo objetivo es alargar su duracin. E decir, se e pera
que Ja duracin de vida X (correspondiente a los artculos producidos por el
nut:vo mtodo) tenga una distribucin N(, 9), en donde > 100. (Supongamos
que la varianza permanece igual. Principalmente, e' to ignifica que la variabi-
lidad del nuevo proceso es la misma que la del antiguo).
Luego el fabricante y el. comprador en potencia tn interesado en docimar
la iguiente hipte i :
H 0 :p = 100 contra H 1 : > 100.
(Estarna haciendo la supo icin tcita de que el nuevo proceso no puede ser
peor que el antigu~.) H 0 se llama la hiptesis nula, y...!:! 1 J!...hip1esis alterna.
L()
-
= P(X ::;; C 1) =P
(XJn
- : ; e -Jn) = <ti [(C -
/
) n
31 3 3
en donde, como siempre,
"'(S) -_
'V
1 f$ e - x
r-.=
1
/2 dX.
v 2rt -oo
Las siguientes propiedades de L() son verficadas fcilmente :
(a) L( -oo) =l.
(b) L( + oo) =O.
(c) dL/d < O para todo (Luego Les una funcin e trictamente decreciente
de).
Luego el grfico de la funcin L tiene en general la apariencia de la curva de
la figura 15.1. (La forma especfica depender naturalmente, de la eleccin de la
constante e y del tamao de muestra n).
L()
l()= I~
- ... IOURA 15. I
15.1 lniroducci6t1 "l1
L()
L() ~ 1
cificado, tal como (100, 0,95). (Debe ser evidente cmo e modificara el proce-
dimiento anterior si hubi emos escogido un valor distinto a 0,05 para el nivel
de ignificacin).
Ahora que la funcin OC est completamente especificada podemos encontrar
las coordenadas de cualquier otro punto. Por ejemplo, cul e el valor de L(102)?
L( )= 1
de la cual obtenemo
e = (102)(1 ,64) - (100)( - 2,33) = rno,s.
1,64 - ( - 2,33}
Una vez que e conoce , podemo obtener n elevando al cuadrado cualquiera
de la ecuaciones anteriore :
Por lo tanto
n = ~~~~ J = 34,6 ~ 35.
Hemos considerado con algn detalle un ejemplo relacionado con una hip -
tesi que implica el promedio de una variable aleatoria di tribuida normalmente.
Mientra alguno de los clculo e tn an fre cosen nue tra mente, generalicemo
este ejemplo como igue.
Supngase que X es una variable aleatoria con distribucin N(p, 0' 2 ) en donde
q
2
e supone conocida. Para docimar H 0 : = 0 versus H 1 : > 0 proponemos
lo iguiente: obtener una mue tra de tamao n, calcular el promedio mue tral X,
y rechazar H 0 i X > C, en donde C e una con tante que se ha de determinar.
La funcin O de esta dcima est dada por
1-o:=<l> ( r:.)
e -a vn;
L{)
-
= P(X ~ C)
. (C- cr-
=J- -
<I>
L()
= 110
IG RA 15.5
La figura 15.5 nos da un medio para comparar la tre dcima que es tamos
considerando. Toda la dcimas lienen el mi mo ni el de ignilicacin. (Debe
comprenderse claramente que C es slo un smbolo genrico de una con tante
y no er la mi ma en cada uno de los ca os. Lo importante e que en cada uno
de los ca os se ha escogido de mod que la dcima tendr el nivel de signifi-
cacin :x).
i > 0 , c,ntonces la dcima A es mejor que las otras dos puesto que dar
un valor m pequeo para la probabilidad del error del tipo 2. Sin embargo.
si < 0 la dcima A es la peor de hs que estn siendo considerada., mientras
que la dcima Bes la mejor. Finalmente, la dcima Des aceptable genera lmente
y an puede ser mejorada en cualquier caso especfico con la dcima A o la d-
cima B. Por tanto. ob ervemo que es muy importante tener una hiptesi alterna
especfica en mente debido a que la dcima que escojamos puede depender de
esto. (Slo comparamos las dcimas que tienen el mismo nivel de significacin;
e to no e nece ario en ab oluto y la comparacin resulta algo vaga si usamo
dcimas que tienen niveles de significacin diferente . Ntese la emejanza con
nue tra comparacin de ciertos e timadore : lo comparbamos las varianza
de lo cstimadorc que eran insesgado ).
n mucho casos es evidente cul hiptesis alterna deberamos cons iderar.
n el ejemplo anterior, posiblemente abemo que el nuevo proceso de fabrica-
cin producira tijeras de la misma durabilidad o bien aumentada y, por tanto.
u aramo la dcima A como ugeramos. ( i el nuevo proceso fuese a producir
tijeras de calidad inferior nuestra dcima sera muy mala. Si no se garantiza nin-
guna de tales hiptesis sera mejor u ar una dcima tal como D: rechazar H0
i IX 0 I > . Las dcima tale como A y B e llaman dcima unilaterales mien-
tra que una dcima tal como D se llama dcima bilateral.
Al considerar hiptesi alternas podramo encontrar la siguiente analoga
til. Supngase que una persona se pierde de un lugar M y sabemos que el indi-
viduo ha ido bien a la izquierda o a la derecha de M, mantenindo. e en una tra-
yectoria rectilnea. M
Pue to que 0.01 < 0.019699 < 0.05 direm s que el va lor ob ervado X es igni-
licativo al nivel del 5 por ciento pero no al nivel del 1 por ciento. decir, i u a-
mo et = 0.05 rechazaramos H 0 , mientras que al mi mo tiempo si usamos et = 0,01
no deberamos rechazar Ho
icindolo de un modo diferente. i ~1 = 100 obtenemos un re ultado que
ocurrir lo alrededor del 1 9 por iento de la vece . Si creemos que a fin de
aceptar H 0 un resultado debera tener a lo meno una probabilidad de ocurrir
de 0,05, luego la rechazamo . Si estamo ati fechos con una probabilidad de 0,01 ,
la aceptamo .
Obser11aci11 : la dcima anterior estipul que H 0 debera er rechazada siempre que X > C.
u poniendo que el tamao muestral 11 = 2. el t.:riterio anterior e reduce a (X 1 + X 2)/2 > C
o. equivalentemente. (X 1 + ?l > k. Luego el conjunto de valores muestra le posibles (x 1
x 2 ) ha sido dividido en do regiones: R = {(x 1 x 2 )jx 1 + x 2 > k} y R.
La regin especfica R depende naturalmente del valor de k, que a u vez depende del nivel
de ignilicacin de la dcima R, la regin de rechazo e llama alguna veces reyin crlica de
la dcima. (Ver la igura 15.6.)
1 .3 mplc 1dl 1>n11k lrl
' - - - - - ---X
FIGURA 15.6
= <I> (Ju;~n-+a;tm}
334 Docimasi11 de hiptesis IS.
= 1- ~ (
5
k ~ 49 k
) p(1 - p) 50 - k = 1 - p49(50 - 49p)
Observacio11es: (a) El ejemplo anterior puede generalizarse como sigue. upngase que X
es una variable aleatoria distribuida binomialmente, basada en 11 repeticiones de un experi-
mento con parmetro p. Para docimar la hiptesis Hv: p =Po versus H 1 : p > p0 , propone-
mos la dcima siguiente.
Rechazar H0 siempre que X > C, en donde es una constante para ser determinada.
(Por tanto aceptar H 0 siempre que X ~ C.)
La funcin O de esta dcima ser de la forma
(15.2)
~ - 111 - l .I
Sin embargo, puede acontecer que an no e temo seguros acerca de la forma ge-
neral de la di tribucin que se tiene. Con ideremos alguno ejemplos.
EJ MPLO 15.6. upnga e que se tienen 20 mue tra de una cla. e e pecial
de cable y que e miden la re i tencia s en ohm y e obtienen lo valores si-
guiente :
9,8; 14 5; 13,7; 7,6; 10,5 ; 9.3; 11 ,l; 10, 1; 12,7 ; 9,9 ;
10,4; 8,3 11,5; 100; 9,J; 13,8; 12,9; 10,6 ; 8,9 ; 9,5.
Son lo dato anteriore con i tente con la hipte i de que la ariable alea-
toria T, que est iendo mue treada, e t di tribuida exponencialmente?
Observaciones : (a) Puesto que E(n;) = 11p10 si p 1 = p1~ e te criterio para docimar tiene
mucho atractivo intuitivo. Exige que rechacemos H0 iempre que la discrepancia entre los
valore observado n1 y los valores esperado 11p1o sea <<muy grande. Alguna veces el es-
tadgrafo D 2 anterior se escribe de una manera muy sugerente como :I:t=1 (o; - e1) 2/e1, en donde
o1 y e1 representan respectivamente el valor observado y esperado de n;.
(b) importante establecer que D2 es un estadgrafo (e decir, una funcin de lo a-
lores ob ervados n 1 . . , nAl y e , por tanto. una variable aleatoria. En realidad, D2 es una
variable aleatoria discreta que toma un gran nmero finito de valores. La distribucin actual
de D2 es muy complicada. Afortunadamente, hay una aproximacin di ponible para la dis-
tribucin de D2 , vlida si /1 es grande, y que hace muy til el procedimiento ugerido.
'".:-:__ ;, ...
15.4 Ocima para la bondad de 1ju..l .UY
FIGURA 15.9
..J.. "~.[;~
~-' _ _ _ __
340 Docim~I de hlpte-.1\ IS.4
D2 = ~ (n; - np,,}2
i- 1 np;,,
2 2 2
= (47 - 58,5) + (40 - 36) + (35 - 22,5) + (28 - 33) 2 = 11 56
58.5 36 22.5 33 . .
n las tabla de la distribucin x cuadrado encontramos que P(D 2 > 1J,56) < 0,0 1.
en donde D1 tiene aproximadamente la distribucin x cuadrado con 4 - 1 = 3
grado de libertad. Por lo tanto rechazaramo (al nivel del 1 por ciento) la hi-
pte i de que lo dato repre en tan una muestra de una distribucin exponencial
con parmetro P = 0,005.
1 ejemplo anterior ilustra el procedimiento general que u amo para docimar
la hiptesis de que X 1 , . . , X,. repre en ta una mue Ira de una variable aleato-
ria con una distribucin completamente especificada:
(a) Dividir la recta real en k intervalos mutuamente excluyentes, A, ... , A~.
(b) ea ; el nmero de valore mue trales que caen en A;, i = I, 2, .. . , k.
(c) Sea p;0 = P(A 1). E o valores e pueden calcular pue to que la hiptesis
especifica completamente la distribucin.
15.4 Deima pu la bond d d( 11 "'"' l41
Observa in : este ltimo hecho es muy notable. ignilica que 0 2 tiene la misma distri-
bucin fundamental x2 que ante , la nica diferencia es que se pierde un grado de liberlad
por cada parmetro que debe estimarse. -
EJEMPLO 15.9. Se con idera11 los dato del contenido de ceniza en el carbn
tal como aparecen en el ejemplo 14.6. Supngase que deseamo docimar la hip-
te is de que esos dato fueron obtenido de una variable aleatoria di tribuida nor-
malmente. Primero debemos estimar Jos parmetro correspondientes y a 2
342 Dodm11,l11 de hlpte~ ~ 15.4
PROBLEMA
15.t. Se supone que X tiene distribucin N(. ui) con u 2 conocida. Para docimar H 0 :
= 0 versus H 1 : < 0 se propone el mtodo siguiente: una mue tra de tamao 11 y recha-
zar H 0 siempre que el promedio muestra! X < , en donde Ces una constante que debe de-
terminarse.
(a) Obtener una expresin para la uncin L() mediante la di lribucin nolllllal
tabulada.
(b) Si el nivel de significacin de la dcima es rx = 0,01, obtener una expresin para .
(c) Supnga e que u 2 = 4 y supngase que se e t docimando H 0 : = 30 ver u H 1 :
< 30. Determinar el tamao muestra! n y la constante C a fin de ati facer las condiciones
L(30) = 0,98 y L(,27) = 0,01.
(d) upngase que e obtienen lo iguientes valores de muestra de X :
27,l; 29,3; 31.5 ; 33,0; 30.l : 30,9; 28.4; 32,4 ; 31 ,6 ; 28,9; 27,3; 29, 1.
Rechaz.ara H 0 (versusH 1) como se estableci en (e) al nivel de significacin del 5 por ciento?
TABLA 15.J
lubricante l Lubricante 2 Lubricante 3
Aceptable 144 152 140
Inaceptable 1
56 48 60
15. J l. Al usar varias leye de falla hemo encontrado que la distribucin exponencial
desempea un papel muy importante y que por tanto intere a poder decidir si una muestra
particular de tiempos de falla proviene de una distribucin exponencia l bsica. Supngase
que e han probado 335 bombillas y el re umen siguiente de u duracin T (en horas) e t
disponible:
Duracin
(en horas) O~ T < 100 100 ~ T < 200 200 ~ T < 300 300 5 T < 400 T;;:: 400
mero 82 71 68 62 52
De los tiempos de falla que se registraron, se encontr que T el promedio mue tral era igual
a 123,5 horas. U ando esta informacin, docmar la hipte i de que T, el tiempo para fallar
e t distribuido exponencialmente.
15.12. Supnga.e que la variable aleatoria X tiene la sigu iente fdp:
o: co o:x
f( x) - O < x < n/2, en donde O < o: < l.
- sen (n/ 2)a '
Para docimar H 0 : o: = o: 0 e propone la siguiente dcima. acar una ob ervaci n de X , sea
X 1 y rechazar H o si X 1 > l.
(a) Obtener una expresin para la uncin O , L(a), de e ta dcima y graficarla.
(b) i, ul e el tamao de esta dcima i o: 0 n/4'! =
15.13. n una malla de 165 celdas, e cont el nmero de granos de grafito en cada celda.
As e obtuvieron lo dato de la tabla l5.2. Docimar la hipte is de que el nmero de granos
en cada una de las celdas es una variable aleatoria con una di tribucin de Poisson. [Indi-
cacin: junte las observacione 5 2 y tambin aquellas ;;:: 10.]
TABLA 15.2
o 1 7 17
1 1 8 22
2 5 9 21
3 7 10 4
4 20 11 2
5 34 12 1
6 30 '
Refereocias
En ingls :
BAZOVSKY, l., Relablity Theory and Practice. Englewood Cliffs, N . J.: Prentice-Hall, lnc.,
1961 (11).
BERMAN, SIMEO M. , Tlie Elements of Probability. Reading, Mass.: Addison-Wesley Publis-
hing Co., 1969.
BowKER, A. H., y G. J. LEBERMA , Engineering Stalistics. Englewood ClilTs, N. J.: Prentice-
Hall, Inc., 1959.
DERMA , C. , y M . KLEI , Probablity a11d Statistical Inference for Engineers. ew York :
Oxford University Press, 1959.
EHR NFELD, S., y S. B. LlTTAUER , lntroduction to Statistical Me1hod. New York: McGraw-
Hill Book Co., 1964.
F'ELL R, W., An !111roduction 10 Probability Theory and lts Applications. vol. 1, 3. edicin.
New York : John Wiley and Son , lnc., 1968 (1, 2, 3).
FRE o, J. E., Ma1hemarica/ Statistics. nglewood Cliffs, . J.: Prentice-Hall, lnc., 1962.
FRY, T. C., Probabilityand lts Engineering Uses, 2.8 edicin. Princeton, N. J .: D. Van Nostrand,
1964.
346
Uefenn iu~ 347
G EDE KO, B. V., The Tlu:ory o/' Probabili1y (traduccin del ru o). ew ork : 'hcl ca
Publishing Co., Jnc., 1962.
u MA , J. , y . S. W1LKS, /111rod11c1ory E11gi11eeri11g ta1is1ics. cw Y rk : John Wiley and
Sons, lnc., 1965.
HABER, A., R. P. Ru YO y P. BADIA, Readi11g. in 1a1i.wics. Reading Mass.: Addison-
Wc ley Publi hing o., 1970.
LI DGRE , B. W., y G. W. Me LRATH, l111rod11c1io11 to Probabili1y a11d w1istics, 3. 11 edicin.
ew York : The Macmillan o., 1969 (13, 14, 15).
LLOYD, D. K ., y M. L11>0w, Reliabili1y : Ma11ageme11t, Methods, and Marhema1ics. Engle-
wood lifT: , . J.: Prentice-Hall, lnc., 1962 (1 l).
Me ORO, J. R., 111, y R. M. MORO EY, JR ., flllroduction 10 Probabilily Theory. cw York :
The Macmillan o .. 1964.
MtLLER, l., y J. . FRE o, Probabili1y anti tati.wicsfor E11gi11eers. nglewood li!Ts, . J.:
Prentice-Hall, lnc., 1965.
Mooo, A. M., y F. A. GR YRlLL, !111roducrim1 111 1he Theory of 1a1istics, 2.u edicin . ew
York: McGraw-Hill Book o., 1963.
PARZE , ., Modem Probabili1y Theory ami lts Applications. New York : John Wiley and ons,
lnc .. 1960.
WADSWORTll, B. P., y J. G. BRYA , Jmroduction ro Probabili1y and Ra11do111 Variables. ew
York: McGraw-Hill Book o., 1960.
E11 espmiol:
Damos a continuacin una lista de libros de lo cuales exi te ver in espaola, para benefi-
cio del estudiante y del lector en general que quiera investigar algunos de los tema tratados
en este libro y, en especial, en relacin con algunas reas particulares. ( N. del T. )
ARLEY, IELS, y RM4DER BUC'H, /111rod11cc11 a la t1:oria de la probabilidad y de la Estadstica.
Madrid : Alhambra, J968.
ARRANZA, Roo E, Probabilidad y Esrad.wica. Buenos Aires: Universidad de Buenos Aires,
1965.
RAMER , HARALD, Mlados mc1te11uticos de Esrad.l'tica. Madrid : Aguilar, 1968.
DIXON, JoH , /111roducci11 a la probabilidad. Mxico: Limusa-Wiley, 1970.
01xo , W1 FRID, y FRA K MASSEY, !11trod11cci11 al anlisis esradstica. Madrid : diciones
del astillo, 1965.
FREE 1A , HAROLD A. , !111rod11cci11 a f(I inferencia es1ads1ica. Mxico: Trilla , 1970.
NEDENKO, B. V., y A. l. J1 cm , lfllroducci11 al clculo de probabilidades (traduccin del
ruso). Buenos Aires : udeba. 1971.
E THER, WILLIAJ\1, /111rod11cci11 a la inferencia estads1ica. ew York : McGraw-Hill, 1965.
HOEL , PA l., /111rodtud11 a la cs1adis1ica m(lfl'mtica. Barcelona: Ariel , 196 .
LIP Ji Z, YMOUR, Prohabilidad. Mxico : McGraw-Hill. 1970.
MA1SEL, Lou1s, Probabilidad y Estads1ica. Bogot: Fondo ducativo Interamericano, S. A.,
1973.
Rlos, StXTO, M1odos estadsticos, 5.a edicin. ew York: McGraw-Hill, 1967.
Apndice
<l>(z) = f -
1
- e- "212 d t'
21t
= P(Z ~ z)
: o 2 3 4 5 6 7 8 9
3.0 0.00 13 0.00 10 0.0007 0,0005 0.0003 0.0002 0.0002 0.0001 0.0001 0.0000
2.9 0,0019 0.0018 0.0017 0,00 17 0,0016 0,00 16 0.00 15 0.0015 0.0014 0.0014
2. 0,0026 0,0025 0.0024 0,0023 0.00:!3 0.0022 0.0021 0.002 1 0.0020 0,0019
2.7 0,0035 0,0034 0.0033 0,0032 0.()031 0.0030 0,0029 0.002 0.00:!7 0.0026
2.6 0.0047 0.0045 0.0044 0.0043 0,00-ll 0,0040 o.oo:w 0.0038 0.0037 0.0036
2.5 0,0062 0,0060 0.0059 0.0057 0.00 5 0.0054 0.0052 0.005 1 0.0049 0.0048
2.4 0.0082 0.0080 0.0078 0.0975 0.0073 0.0071 0,0069 0.0068 0.0066 0,0064
:u 0.0 107 0.0104 0.0102 0.0099 O.<l096 0.0094 0.009 1 0.0089 0.0087 0.0084
2.2 0.0 139 0.0136 0.0132 0.0129 0.0126 0.0122 0,0119 0.0116 0.0113 0.0 110
2. 1 0,0 179 0,0 174 0.0170 0.0166 0.0162 0,0158 0.0154 0.0150 0.0146 0.0 143
2.0 0.0228 0.0222 0.02 17 0.02 12 0.0207 0.0202 0.0 197 0.0192 0.0188 0.0183
1,9 0,0287 0.0281 0,0274 0,0268 0.0262 0.02 6 0.0250 0.0244 0.0238 0.0233
1,8 0,0359 0,0352 0.0344 0,0336 0.0329 0.0322 0,0314 0.0307 0.0300 0.0294
1.7 0.0446 0,0436 0.0427 0.0418 0,0409 0.0401 0,0392 0.0384 0.0:11 0.0367
1.6 0.0548 0.0537 0,0526 o.o 16 0,0505 0.0495 0.0485 0.0475 0.0465 0.0455
1.5 0.0668 0,0655 0.0643 0.0630 0.06 18 0.0606 0.0594 0,0582 0,0570 o.os 9
1.4 0.0808 0,0793 0.0778 0.0764 0,0749 0,0735 0.0722 0.0708 0.0694 0.0681
1,3 0.0968 0.095 1 0.09 4 0.091 0,0901 0,0885 0.0869 0.0853 0.083 0,0823
1.2 0. 1151 0. 11 3 1 0.111~ 0.1093 0.1075 0.10 6 0.1038 0,1020 0. 1003 0.(>98
1,1 0.1357 0. 1335 0.13 14 0. 1292 0.1271 0.1251 0. 1230 0.121(1 0.1190 0.1170
t.O 0.1587 0, 1562 0. 1539 0. 1515 0, 1492 0.146'1 0. 1446 0.1423 0,140 1 0.1379
0.9 0.1841 0. 1814 0. 1788 0. 1762 0.1736 0.1711 0. 1685 0.1660 0,163 0.1611
0.8 0.2119 0,2090 0.2061 0.2033 0,200 0,1977 0. 1949 0.1922 0,1894 0.1867
0,7 0.24'.!0 0.2389 0.2358 0.2327 0,2297 0.2266 0.2236 0,2206 0,2177 0,2148
0.6 0,_743 0.2709 0,2676 0.2643 0.2611 0.257 0.2 46 0,2514 0,2483 0.2451
- 0,5 0.3085 U,3050 0,30 15 0.29 1 0,2946 0.29 12 0.2877 0.2 43 0.2810 0,2776
0,4 0.3446 0.3409 0.3372 0.3336 0.3300 0.3264 0,3228 0.3192 . 0,3156 0.3 121
- 0.3 o. 821 0,3783 0,3745 0.3707 0,3669 0,363_ 0.3594 0,3557 0.3520 0,3483
0.2 0.4207 0.4 168 0,4 129 0.4090 0.4052 0.4013 o3974 0.3936 0.3897 0,3859
0.1 0.4602 0.4562 0.4 22 0,4483 0,4443 0.4404 0.4364 0.4325 0.4286 0.4247
o.o 0.5000 0.4960 0.4920 0.4880 0.4840 0.480 1 0.4761 0.4721 0.4681 0.4641
<D(z) = r
_ 00 "
~e- u: 2 du = P(Z s; z)
2n
-- o 2 3 ~ 5 6 7 8 9
o.o 0.5000 0,5040 0.5080 0.51:20 0.5160 0,5199 0.5239 0.5279 0,5319 0.5359
0. 1 0.5398 0.5438 0,5478 0.55 17 0.5557 0.5596 0,5636 0,5675 0.5714 0,5753
02 0.5793 0.5 32 0.5871 0.5910 0.594 0,5987 0.6026 0.6064 0,6 103 0,614 1
0.3 0.6 179 0.62 17 0,6255 0.6293 0.6331 0.636 0,6406 0.6443 0,64 o 0.65 17
0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6 44 0,6879
0.5 0,6915 0.69 o 0.6985 0.7019 0.7054 0.7088 0.7123 0,7 157 0,7190 0,7224
0.6 0.72 7 O. 7:291 0.7324 0,7357 0.7389 0.7422 0,7454 0,7486 0,7517 0,7549
0.7 0.7580 0.76 11 0.7642 0.7673 0,7703 0.7734 0,7764 0,7794 0,7823 0.7 -2
0:8 0.7881 0.7910 0.7939 0.7967 0,7995 0.8023 O, 051 0.8078 O, 106 0,8133
0.9 0.8159 o. 186 0.8212 0.823 0.8264 o. 289 0.83 15 0.8340 0,8365 o. 9
1.0 0.8413 0.8438 461 0.84 5 0.8508 0.853 1 0,8554 0.8577 0.8599 O, 621
l. I 0.8643 0.8665 686 0,870 0.8729 0.8749 0.8770 0,8790 0,8810 0.8830
1.2 0.8849 0.8869 0.8888 0.8907 0,8925 o. 944 o. 962 0,8980 0,8997 0.90 1
u 0.9032 0.9049 0.9066 0.9082 0.9099 0.9 115 0.9131 0,9147 0,9 162 0,9177
1.4 0,9192 0,9207 0.9222 0.9236 0.925 1 0.9265 0.9278 0.9292 0.9306 0.9319
1.5 0.9332 0.934 0.9357 0.9370 0,9382 0.9394 0,9406 0,941 0,9430 0,9441
1.6 0.9452 0,9463 0.9474 0.9484 0.949 0,9505 0.95 1 0,9525 0,953 0.9545'
1.7 0.9554 0.9 64 0,957_1 0.9 8_ 0,9591 0.9599 0,960 0.96 16 0,9625 0.9633
1.8 0.964 1 0.9648 0.9656 0,9664 0,9671 0.9678 0.9686 0,9693 0.9700 0.9706
1.9 0.9713 0,9719 0.9726 0.9732 0.973 0.9744 0,9750 0.9756 0.9762 0,9767
2.0 O.Cl772 0.9778 0.9783 0,9788 0.9793 0.9798 0.9 03 0,980 0,9812 0,9817
2. 1 0,9 21 0.9826 0,9830 0.9834 0.9838 0,9842 0,9846 0.98 o 0.9 54 0.9857
2.2 0.9861 0.98M 0,9868 0.987 1 0.9874 0,9878 0,988 1 0.9884 0,9887 0,9890
2.3 0.9893 0.9 96 0.989 0.990 1 0.9904 0,9906 0,9909 0.99 11 0.99 13 0.9916
2.4 0.9918 0.9920 0,9922 0.9925 0.9927 0.9929 0.9931 0,9932 0.9934 0.9936
2. 0,993 0.9940 0.9941 0.9943 0,9945 0.9946 0,9948 0.9949 0,9951 0.9952
2.6 0.9953 0.9955 0.9956 0.9957 0,9959 0.9960 0,9961 0.9962 0.9963 0,9964
2.7 0.9965 0,9966 0.9967 0.9968 0.9969 0.9970 0.9971 0,9972 0.9973 0,9974
2.8 0.9974 0.997 0.9976 0.9977 0,9977 0.9978 0.9979 0.9979 0,9980 0.9981
2.9 0.99 l 0,9982 0,9982 0.9983 0.9984 0,9984 0.9985 0,9985 0,9986 0,9986
J,O 0.99 7 0.9990 0,9993 0.9995 0.9997 0.9998 0.9998 0,9999 0.9999 1.0000
.1~0 Wndic
11 = 10 11 = 10 11= 10 11 = 10 p
X= 10 x=9 .\ = 8 .\' - 7
0,0000000 0.0000000 0.0000000 0,0000000 0,01
,0000000 .0000000 ,0000000 ,0000000 ,02
,0000000 .0000000 ,0000000 ,0000000 ,03
.0000000 ,0000000 ,0000000 ,0000000 ,04
,0000000 ,0000000 ,0000000 .0000001 ,05
,0000000 ,0000000 ,0000000 ,0000003 ,06
,0000000 .0000000 .0000000 ,0000008 ,07
.0000000 ,0000000 ,000000 1 ,0000020 ,o
,0000000 ,0000000 ,0000002 ,0000045 ,09
.0000000 ,0000000 ,0000004 ,0000091 .10
,0000000 ,0000000 ,0000008 ,0000 173 , 11
,0000000 ,0000000 ,0000015 ,0000308 ,12
,0000000 ,0000001 ,0000029 ,0000525 ,13
.0000000 ,0000002 ,000005 1 ,0000856 ,1 4
.0000000 .0000003 ,0000087 ,0001346 ,15
,0000000 ,0000006 ,0000 142 ,0002051 ,16
.0000000 ,OOOOO lO ,0000226 ,0003042 ,17
,0000000 ,0000017 ,0000350 ,0004401 , l8
,0000001 ,0000027 ,0000528 ,0006229 , l9
.000000 1 ,0000042 ,0000779 ,0008644 ,20
,0000002 ,0000064 ,0001127 ,0011783 ,21
.0000003 ,0000097 ,0001599 ,00 15804 .22
,0000004 ,0000143 ,0002232 ,0020885 ,23
,0000006 ,0000207 ,0003068 ,0027228 ,24
.0000010 .0000296 ,0004158 ,0035057 ,25
.0000014 ,00004 16 ,0005362 ,0044618 ,26
,000002 1 ,0000577 ,0007350 .0056181 ,27
.0000030 ,0000791 ,0009605 ,0070039 ,28
,0000042 ,000 1072 ,0012420 ,0086507 ,29
,0000059 ,000 1437 ,0015904 ,010592 1 ,30
,0000082 ,0001906 ,0020179 ,0128637 ,JI
,0000113 ,0002505 ,0025384 ,0 155029 ,32
,0000153 ,0003263 ,0031673 ,0185489 ,33
,0000206 .0004214 ,0039219 ,0220422 .34
,0000276 ,00053\1\1 ,0048213 .0260243 ,35
,0000366 ,0006865 ,0058864 ,0305376 ,36
,000048 1 ,0008668 ,0071403 ,0356252 ,37
,0000628 ,0010871 ,0086079 .04 13301 ,38
.0000814 ,0013546 ,0103163 ,0476949 .39
,0001049 ,00 16777 ,0122946 ,0547619 ,40
.000 1342 ,0020658 .0145738 ,0625719 .41
,000 1708 ,0025295 ,0171871 ,0711643 .42
,0002 161 ,0030809 ,0201696 .0805763 ,43
,0002720 ,0037335 ,0235583 ,0908427 ,44
,0003405 ,0045022 .02739 18 ,1019949 ,45
,0004242 ,0054040 ,03 17105 .1140612 ,46
,0005260 ,0064574 ,0365560 1
, 1270655 ,47
,0006493 ,0076828 ,0419713 ,1410272 ,48
,0007979 ,0091028 ,0480003 ,1559607 .49
,0009766 .0107422 .0546875 ,1718750 .50
1itndic .l 1
TABLA 2 ( ontinuacin )
- F( - 1) = ' .[
"
(~) p'qn - r
r=x
n =10
x= 6
JI=
I=
lll n = 10
x= 4
n = 10
.. = J
n =10
x =2
11
X=
= 10
1
,.
0.0000000 0,0000000 0,0000020 0.0001138 0,0042662 0,0956 179 0,0 1
,0000000 ,0000007 ,0000305 .0008639 ,0161776 .1829272 ,02
,0000001 ,0000054 ,0001471 ,0027650 ,0345066 .2625759 ,03
.0000007 .00002 18 .0004426 ,0062137 ,0581538 ,3351674 ,04
,0000028 ,0000637 .OOI0285 .0115036 .0861384 .4012631 .05
.0000079 ,0001517 ,0020293 ,0188378 .1175880 .4613849 .06
.0000193 ,0003139 ,0035761 ,0283421 ,1517299 ,5160177 ,07
.0000415 .0005 57 ,0058013 ,0400754 .1878825 .5656115 .08
,0000810 .OOl.0096 ..0088338 ,0540400 .2254471 .6105 39 .09
,000 1469 ,0016349 ,0127952 .070 1908 ,2639011 ,6513216 .10
,0002507 ,0025 170 ,0 177972 .0884435 .3027908 .6881828 , JI
.0004069 ,003716 1 ,0239388 . 1086818 ,3417250 ,7214990 , 12
.0006332 ,0052967 .0313048 .1307642 ,3803692 .75 15766 .l
,0009505 ,0073263 ,0399642 ,) 54529 ,4184400 .7786984 ,14
.0013832 ,0098741 ,0499698 , 1798035 .4557002 .803 1256 .15
,0019593 ,0130101 ,061 577 ,2064005 ,4919536 .8250988 ,16
,0027098 .016 038 ,0741472 ,2341305 ,5270412 ,8448396 ,17
,0036694 ,0213229 ,0883411 ,26280 10 ,5608368 ,8625520 , 18
,0048757 ,0266325 , 1039261 .2922204 ,5932435 .87 4233 .19
.0063694 ,0327935 , 1208739 ,3222005 ,624 1904 ,8926258 ,20
.0081935 ,0398624 , 13914 18 ,3525586 ,6536289 ,9053 172 ,21
,0 103936 ,0478897 ,1586739 .3831197 ,6815306 ,9166422 .22
,0 130167 ,0569196 ,1794024 ,4 137173 ,7078843 .9267332 .23
,0 16 111 6 ,0669890 ,2012487 .4441949 . 7326936 .935711 1 ,24
,0197277 ,0781269 ,2241249 ,4744072 ,7559748 ,9436865 ,25
,0239148 ,0903542 ,2479349 ,5042200 7777550 ,9507601 .26
,0287224 , 1036831 ,2725761 ,5335112 .79 0705 ,9570237 ,27
,0341994 , 11 81171 .2979405 .5621710 ,8169646 ,9625609 ,28
.0403932 . 1336503 .3239164 .5901015 ,8344869 .9674476 ,29
,0473490 ,1502683 ,3503893 ,6172172 ,8506917 .9717525 ,30
,055 1097 .1679475 ,3772433 ,6434445 .8656366 ,9755381 ,31
,0637 149 ,1866554 ,4043626 .6687212 ,8793821 ,97 8608 ,32
.0732005 .2063514 ,43 16320 ,6929966 .8919901 ,98 17716 .33
,0835979 .2269866 .4589388 .7162304 .9035235 ,9843166 ,34
.0949341 ,2485045 ,4861730 .7383926 ,9140456 ,9 65373 ,35
. 1072304 ,2708415 ,5132284 ,7594627 ,9236190 ,9884708 ,36
..1205026 .2939277 ,540003 .7794292 ,9323056 ,9901507 ,37
,1347603 .3176870 ,5664030 ,7982887 ,940 1661 .9916070 ,38
,1500068 ,3420385 .5923361 .8160453 .9472594 ,9928666 .39
. 16623 6 ,3668967 ,6177194 ,8327102 .9536426 ,9939534 ,40
,1834452 .3921728 ,6424762 ,8483007 ,9593705 ,9948888 ,41
.2016092 ,4 177749 ,6665372 .8628393 .9644958 ,9956920 ,42
,2207058 .4436094 ,6898401 .8763538 .9690684 ,996 797 ,43
.2407033 ,46958 13 ,7123307 ,8888757 ,973 1358 ,9969669 ,44
.2615627 ,4955954 ,7339621 ,9004403 ,9767429 ,9974670 ,45
.2832382 .521557 1 .7546952 ,9110859 ,97993 19 ,9978917 :46
,3056772 ,5473730 ,7744985 ,920 530 ,9827422 ,9982511 .47
,3288205 ,5729517 ,7933480 ,92971139 ,9852109 ,9985544 ,4
,3526028 ,5982047 ,8112268 .9379222 ,9873722 ,9988096 ,49
,3769531 ,6230469 ,8281250 ,9453125 .9892578 ,9990234 .so
TABLA 3. uncin de la distribucin de Poi on
r &. e- a'
I - F(x - 1) = --
=x I" !
9 .000001 ,000005
.000001
JO
E. . Melina. Poisso11's Expo11e11tial BinomialUmit. Princeton, N. J.: D. Van ostrand. lnc .. 1947.
T AB A 3 (Continuatin)
51 1
0,6793 1,2984 1,6753 2,0076 2,40 17 2,6757
52 0.6792 l,2980 1.6747 2.0066 2,4002 2,6737
53 0,6791 l ,2977 1,6741 2,0057 2.3988 2,6718
54 0,6791 l,2974 1,6736 2,0049 2,3974 2,6700
55 0,6790 l ,2971 1,6730 2,0040 2,3961 2,6682
2
1 -
0,010
-
0,020
0,00 1
0,05 1
0,004
0,103
0,016
0,211
0, 102
0,575
3 0,072 0,115 0.216 0,352 0,584 1,213
4 0,207 0,297 0,484 0,71 1 1,064 l ,923
5 0,412 0,554 0,831 1,145 1.6 10 2,675
D. B. Owen, Htmdbook o/ ratisricof Table.,. Reading, Mas . : Addison-We ley Publi hing o.,
1962. {Cortesa de la Atomic nergy ommission, Washington, D.C.)
TABLA 5 (Continuacin)
Pr {x2 r.v. con / grado de libertad :::;; valores tabulados} = )'
j 0,75 0,90 0.95 0,975 0,99 0,995
070 18 31172 12572 23968 55216 85366 56223 09300 94564 18172
52444 65625 97918 46794 62370 59344 20149 17596 51669 47429
72 161 57299 87521 4435 1 99981 55008 93371 60620 66662 27036
179 18 7507 1 91057 46829 47992 26797 64423 42379 91676 75127
13623 76165 -Bl95 50205 75736 77473 07268 31330 07337 55901
27426 '>75.14 89707 97453 90836 78967 00704 85734 21776 85764
96039 21338 88 169 69530 53300 29895 71507 28517 77761 17244
68282 98888 25545 69406 29470 46476 54562 79373 72993 98998
54262 21477 33097 48 125 929 2 98382 11265 25366 06636 25349
66290 27544 72780 91384 47296 54 92 59168 8395 1 91075 04724
53348 39044 04072 62210 01209 43999 54952 68699 31912 093 17
34482 42758 40128 48436 30254 50029 190 16 56837 05206 3385 1
9926 98715 07545 27317 52459 75366 43688 27460 65145 65429
95342 9717 10401 31615 95784 77026 330 7 65961 10056 72834
38556 60373 77935 64608 28949 94764 45312 71171 15400 72182
39159 04795 51163 84475 60722 35268 05044 56420 39214 89822
41786 18169 96649 92406 42773 23672 37333 85734 99886 81200
95627 30768 30607 89023 60730 31519 53462 90489 81693 17849
98738 15548 42263 79489 85118 97073 01574 57310 59375 54417
75214 61575 27805 21930 94726 39454 19616 72239 93791 22610
73904 89 123 19271 15792 72675 62175 48746 56084 54029 22296
33329 o 896 94662 05781 59187 53284 2 024 45421 37956 14252
66 64 94799 622 11 37539 80172 43269 911 33 05562 82385 91760
68349 16984 6532 96186 53891 48268 82821 19526 6 257 14288
1\1 1\)3 99621 66899 12351 724.18 99839 24228 32079 535 17 18558
49017 23489 19172 80439 76263 98918 59330 20121 89779 58862
76941 77008 27646 82072 28048 41589 70883 72035 81800 50296
55430 25875 26446 25738 32962 24266 268 14 01194 48587 93319
33023 26895 65304 34978 43053 2895 1 22676 05303 39725 60054
87337 74487 83196 61939 05045 20405 69324 0823 20905 68727
81773 3677 21247 54735 68996 16937 18134 51873 10973 77090
74279 85087 94186 67793 1817 82224 17069 87880 54945 73489
34968 76028 54285 90845 35464 68076 15868 70063 26794 1386
99696 78454 21700 12301 88832 96796 5934 1 16136 01803 17537
55282 61051 97260 89829 69 121 86547 62195 72492 33536 60137
31337 83886 72886 4259 05464 88071 92209 5072 67442 47529
94128 97990 5 609 20002 76530 81981 30999 50147 93941 80754
06511 48241 49521 64568 69459 95079 4258 98590 12829 64366
69981 03469 56128 80405 97485 8825 1 76708 0955 86759 15065
:D701 56612 86307 02364 88677 17192 23082 00728 78660 74196
09237 24607 12817 98120 30937 70666 76059 44446 94188 14060
11007 45461 24725 02 77 74667 18427 45658 40044 59484 59966
60622 78444 395 2 91930 97948 13221 99234 99629 22430 49247
79973 43668 19599 30021 68572 31816 63033 14597 28953 21162
71080 71367 23485 82364 30321 42982 74427 25625 74309 15855
0992 26729 74573 16583 37689 06703 21 46 78329 98578 25447
63094 72826 65558 22616 33472 67515 75585 90005 19747 08865
19806 42212 41268 84923 21002 30588 40676 94961 1154 83133
17295 74244 43088 27056 6338 47331 09737 83735 84058 12382
59338 27 190 99302 84020 15425 14748 42380 99376 30496 84523
The Rand Corporalion, A Millio11 RamJom Digits. wit/i 100,000 ormal Deviates. ew York:
The ree Pres , 1955.
ptlndlcc 59
T ABL A 6 (Cominuacin)
96 124 73355 019'.?5 17210 81719 74603 30305 29383 69753 61156
31283 54371 20985 00299 7168 1 22496 7124 1 )~l47 37285 0202
499 4855 20397 60384 24574 14852 264 14 10767 60334 36911
2790 45529 48792 313 . 55649 08779 94194 62843 11182 49766
51473 13821 75776 24401 00445 61570 806 7 39.54 07628 94806
077 5 02854 91971 63537 84671 035 17 28914 48762 76952 96837
16624 68335 46052 07442 41667 62897 403::!6 751 7 36639 21396
28718 92405 07123 22008 83082 28526 49117 96627 38470 78905
33373 90330 67545 74667 20398 58239 22772 34500 34392 92989
36535 48606 111 9 82646 1 600 53898 70267 74970 35100 01291
4740 62155 47467 148 13 56684 5668 1 31779 044 1 19 3 17044
56 129 36513 41292 82142 13717 49966 35367 43255 06993 17418
35459 10460 33925 75946 26708 63004 89286 24880 38838 76022
61955 55992 36520 08005 4 783 08773 45424 44359 2524 75 81
. q . (iQ'QI l l ~.;:; .... O~<l.t)( Q()<)JJ <lO~QO Q7JJ~ 61 ~~~ ~~20. .1 ~.rn1
1853 7 07384 13059 473 9 97265 11 J79 :?44_6 095:?8 360J5 0~501
66885 11985 3 553 97029 88433 78988 8 64 03876 48791 7_613
96177 71237 08744 38483 16602 94343 18593 84747 57469 08334
37321 96867 64979 89 159 33269 06367 09234 7720 1 92195 89547
77')()5 69703 77702 90 176 04 83 844 7 886 8 09360 4280.' ~8379
5J81 4 14"6() 4369 86631 8756 1 90731 5'1632 52672 :?-ISl<l I0966
16963 37320 40740 79330 04 18 5607 23196 49668 80418 73842
8755 58885 65475 25295 59946 47 77 81764 85986 61687 04373
84269 55068 10532 43324 39407 65004 35041 207 14 208 o 19385
94907 08019 05 159 646 13 26962 30688 51677 05111 512 15 53285
45735 14319 78439 18033 72250 87674 67405 94163 16622 54994
1175 40589 34 9 95 20 70913 87328 04636 42466 68427 79135
51242 05075 80028 35144 70599 92270 62912 08859 87405 08266
00281 25893 94848 74342 45848 10404 28635 92 1J6 42 52 408 12
l~~J > 656(1' I U<i.2~ 1,1_1 _1_ _1 ~ 1:;.;.i lJS S b ~~ 15070 )')'/() 1 UlJ .'X~ 11 1-1\1
11881 7 57827 02940 ()67 76246 85094 44885 72 42 31695 R3R4J
75548 53699 90888 94921 04949 80725 72 1:10 80838 38409 72270
42860 40656 33282 45677 05003 46597 67666 70858 41314 711 00
71208 72822 17662 50330 32576 95030 87874 25965 05261 95727
44319 22313 89649 47415 21065 42846 78055 64776 64993 4805 1
360 pt>ndi e
00 01 02 03 04 05 06 07 08 09
00 ,3 1 - ,51 - 1,45 -,35 ,18 .09 ,00 ,11 - 1,9 1 - 1,07
01 ,90 - ,36 ,33 - ,28 ,30 - 2.62 - 1,43 - 1,79 - .99 - ,35
02
03 --n
- l ,00
,58
,53
,87
- 1,90
- ,02
-,77
,04
,67
, 12
56
- , 17
- ,94
,78
. 16
- 1,3 1
2,22
,95
-,08
04 - ,12 -,43 ,69 ,75 -,32 71 - 1,13 - ,79 -,26 -. 6
05 ,01 ,37 - ,36 ,68 .44 ,u l,18 - ,68 -. 13 - ,41
06 ,16 - ,83 - 1,88 ,89 - ,39 ,93 - ,76 -, 12 ,66 2,06
07 1,3 1 - ,82 - ,36 ,36 ,24 -,95 ,4 1 - ,77 ,7 -,27
08 - ,38 -,26 - 1,73 ,06 - ,14 1,59 ,96 - 1,39 ,5 1 - ,50
09 ,38 ,42 - 1.39 - ,22 - ,28 .. ,03 2.48 1, 11 1,10 ,40
10 1,07 2.26 - l.68 .04 .19 1.38 - 1.53 - 1,4 1 .09 1,9 1
11 - 1,65 - 1,29 - l,03 ,06 2,18 - ,55 - .34 - 1,07 ,80 1,77
12 1,02 -,67 - 1,11 ,08 - 1,92 -,97 - ,70 - ,40 - ,72 - ,47
13 ,06 1,43 - ,46 -,62 - , 11 ,36 ,64 - ,27 ,72 ,68
14 ,47 - 1,84 ,69 - 1,07 ,83 -,25 - ,91 - 1,94 ,96 ,75
15 ,10 1,00 -,54 ,61 - 1,04 -,33 ,94 ,56 ,62 ,07
16 - ,7 1 ,04 ,63 - ,26 - 1,35 - 1,20 1,52 ,63 - 1,29 1,16
17 - ,94 - ,94 ,56 - ,09 ,63 - .36 ,20 - .60 - .29 ,94
18 .29 .62 - 1.09 1,84 - .11 , 19 - .45 .23 - .63 - .06
19 ,57 .54 - .21 ,OIJ - .57 - .10 - 1.25 ,26 .88 .26
20 .24 .19 ,67 3.04 1,26 - 1.2 1 .52 - ,05 ,76 ,09
21 - 1,47 1,20 ,70 - 1,80 - 1,07 ,29 1,18 ,34 - ,74 1,75
22 - ,0 1 .49 1,16 ,17 - ,4 ,8 1 1,40 ,17 ,57 ,64
23 - ,63 - ,26 .55 -,2 1 - ,07 -,37 ,47 - 1.69 ,05 - ,96
24 ,85 - ,65 - ,94 , 12 - 1,67 ,28 -,42 , 14 - l ,15 - ,41
25 1,07 - ,36 1, 10 ,83 ,37 - ,20 -,75 -,50 ,1 1,31
26 1.18 1,09 - .61 ,44 ,40 ,42 - ,61 -2, 55 - ,09 - 1,33
27 .47 .~8 .7 1 ,31 .41 - 1,96 ,34 -,17 1,73 - .33
28 .26 ,90 ,1 1 ,28 .76 - .12 - 1,01 l ,29 - .71 2,15
29 .39 .88 - , 15 - ,38 ,55 - .41 - ,02 - .74 - ,48 ,46
30 - 1,01 - .89 - 1,23 ,07 ,D7 .08 - .08 1.95 .34 ,29
31 J.36 .18 .85 .55 ,00 - ,43 ,27 - ,39 ,25 .69
32 1,02 - 2,49 1,79 ,04 -,03 ,85 - ,29 - .77 ,28 - .33
33 -,53 - 1, 13 ,75 ,39 .43 ,10 - 2,17 ,37 - 1,85 ,96
34 ,76 1.2 1 - ,68 ,26 ,93 ,99 1,12 - 1,72 - ,04 - .73
35 ,07 -,23 - .88 - .23 ,68 ,24 1,38 - 2,10 - ,79 - ,27
36 ,27 ,6 1 ,43 -,38 ,68 - ,72 ,90 -,14 - 1,61 - ,88
37 ,93 ,72 - .45 2,80 - .12 ,74 - 1,47 ,39 - ,61 2,77
38 1.03 - .43 ,95 - 1.49 - .6 ,22 .79 - 2.80 - .41 ,61
39 - ,32 1,41 - ,23 - ,36 ,60 - ,59 ,36 ,63 ,73 ,81
40 1,41 ,64 ,06 ,25 - 1,75 ,39 l ,84 1,23 - 1,27 - ,75
41 ,25 - ,70 ,33 , 12 ,04 1,03 - ,64 ,08 1,63 ,34
42 - 1. 15 .57 .34 - ,32 2,31 ,74 ' 5 - 1.25 - , 17 14
43 .72 ,01 ,50 - l.42 ,26 - .74 - ,55 l,86 - ,17 - ,10
44 - ,92 , 15 - ,66 ,83 ,50 ,24 -,40 l,90 ,35 ,69
45 - ,42 ,62 ,24 ,55 - ,06 , 14 - I,09 - l,53 ,JO - 1,56
46 - ,54 1,2 1 - .53 ,29 l .04 - ,32 - l ,20 ,01 ,05 ,20
47 - , 13 -,70 ,07 ,69 ,88 1, 18 ,61 - ,46 - 1,54 ,50
48 - ,29 .36 1,44 - ,44 ,53 - . 14 ,66 ,00 ,33 -,36
49 l,90 - 1,21 - 1,87 - .27 - 1,86 - ,49 ,25 ,25 , 14 1,73
1wnd lc 361
TABLA 7 ( ontinuacin)
10 11 12 13 14 15 16 17 18 19
00 ,73 ,25 - 2,08 , 17 1,04 - ,23 ,74 ,23 ,70 - .79
01 -. 7 - ,74 l,44 - ,79 ,76 - ,42 1,93 ,88 ,80 - ,53
02 1, 1 ,05 ,10 - , 15 ,05 1,06 .82 ,90 - 1,38 ,5 1
03 - 2,09 1, 13 - ,50 ,37 - , 18 - ,16 - , 1,85 - ,90 1,32 - ,83
04 - ,32 1,06 1, 14 - ,23 .49 1,10 - ,27 - ,64 ,47 - .05
05 ,90 - ,86 ,63 - 1,62 - ,52 1,55 ,78 - ,54 - .29 , 19
06 , 16 - ,22 -, 17 - ,8 1 ,49 ,96 ,53 1,73 , 14 1,2 1
07 15 - 1, 12 ,80 - ,30 - ,77 - ,9 1 ,00 .94 - 1, 16 .44
08 1.87 .72 - 1, 17 - ,36 - 1,42 - .46 - ,58 ,03 2,08 1, 11
ll<J .!<7 .95 .os ,46 - .01 .85 1.19 1.61 , 10 .87
IO .52 . 12 - 1.04 .56 .9 1 - . 13 .17 1,17 1.24 .84
11 - 1,39 - 1, 18 1.67 2,88 - 2,06 . 10 ,05 ,55 ,74 ,33
12 - ,94 - ,46 - ,85 - .29 ,54 .7 1 ,90 - ,42 - 1,30 .50
13 - ,5 1 ,04 - ,44 - 1,87 - 1,06 1,18 - ,39 ,22 - .55 - .54
14 - 1,50 - ,21 -,89 ,43 - 1,8 1 - ,07 - .66 - .02 1.77 - 1.54
15 - .48 1,54 1,88 ,66 -,62 ,28 - ,34 2,42 - 1,65 2,06
16 ,9 - ,23 ,57 ,23 1,81 1.02 ,33 1,23 1.3 1 ,06
17 ,38 1.52 - 1,32 2,13 - ,14 ,28 - ,46 .25 ,65 1,18
18 - ,53 ,37 ,19 - 2,41 ,16 ,36 - ,15 ,14 - , 15 - ,73
19 .15 ,62 1,29 1,84 ,80 - .65 1,72 - 1,77 ,Q7 ,46
20 - ,81 - .:n 1,16 1,09 - .73 - ,15 ,87 - .88 ,92 - ,04
21 - 1,61 2.51 - 2.17 ,49 - 1,24 1, 16 .97 . 15 ,37 ,18
22 ,26 ,48 - ,43 - 2,08 ,75 1,59 1,78 - ,55 ,85 - 1.87
23 - ,32 .75 - ,35 2, 10 - ,70 1,29 ,94 ,20 1,16 .89
24 - 1.00 1,37 .6 ,00 1,87 - ,14 .77 - . 12 ,89 - .73
25 ,66 ,04 - 1,73 ,25 ,26 1,46 - .77 - 1,67 , 18 - .92
26 ,20 - 1,53 ,59 -, 15 - , 15 - . 11 ,68 - ,14 - ,42 - 1.51
27 1,0 l - ,44 - ,20 - 2.05 - ,27 - ,50 - ,27 - .45 ,83 .49
28 - 1,8 1 ,4 .27 ,67 - ,74 - . 17 - 1. 11 . 13 - 1. 18 - 1.4 1
29 - ,40 1,34 1,50 ,57 - 1,7 .08 ,95 ,69 ,38 ,7 1
30 -,01 ,15 - 1,83 1, 18 ,1 1 ,62 1,86 ,42 ,03 - , 14
31 - ,23 - , 19 - 1,08 ,44 - ,41 - 1,32 ,14 ,65 - .76 ,76
32 - 1,27 ,13 - ,17 - ,74 - ,44 1,67 - .07 - ,99 ,5 1 ,76
33 - 1,72 1,70 - ,6 1 ,J8 ,48 - ,26 - ,12 - 2,83 2,35 1,25
34 ,78 1,55 -, 19 ,43 - 1,53 - ,76 ,83 - ,46 ,48 - ,43
35 1,86 1,12 - 2,09 1,82 - ,71 - 1,76 - ,20 - ,38 .82 - 1,08
36 - ,50 -,93 - ,68 - 1,62 - ,88 ,05 - .27 .23 - .58 - ,24
37 l,02 - ,81 - ,62 1,46 - ,3 1 -,37 ,08 ,59 ,27 ,37
3 - 1,57 ,10 .11 - 1,48 1.02 2.35 .27 - 1.22 - 1.26 2.22
39 2.27 .61 ,6 1 ,28 .39 .45 ,89 1,4.I IJJ.I ,0 1
40 - 2.17 - ,69 1.33 - ,26 ' 15 . 10 .78 ,64 .70 . l4
41 ,05 - 1,71 ,21 ,55 - ,60 - ,74 - ,90 2,52 - ,07 - 1, 11
42 - ,38 1,75 ,93 - 1,36 - ,60 - 1,76 - 1.10 ,42 1,44 - ,58
43 .40 - 1,50 ,24 - ,66 ,83 ,37 - ,35 ,16 .96 ,79
44 ,39 ,66 , 19 -2,08 ,32 - ,42 - ,53 .92 .69 - ,03
45 - , 12 1, 18 -,08 ,30 - ,21 ,45 - 1,84 .26 .90 ,85
46 1,20 - ,9 1 - 1,0 - ,99 l ,76 - ,80 ,5 1 .25 - .11 -,58
47 - 1,04 1,28 2,50 1,56 - ,95 - l ,02 ,45 - 1,90 - ,02 - ,73
48 - ,32 ,56 - 1,03 ,11 - .72 ,53 - .27 - ,17 1,40 t,61
49 1,08 ,56 ,34 - ,28 - ,37 ,46 ,03 - 1, 13 ,34 - l ,08
Respuestas a problemas seleccionados
APIT W J
1.1. (a) {5} (b) { 1, 3, 4, 5, 6, 7, 8, 9, IO} (e) {2, 3, 4, 5}
(d) {1, 5, 6, 7, 8,9, 10} (e) {1, 2, 5. 6. 7, 8, 9, IO}
1.2. (a) {xjO :S x <!}u {x lt ::;; x:S 2}
b) {x 1O ::s; x < i} u {x 1t < x .$ 1} u {x 1 x .$ 2} t :;
(e) {x 1O::;; x s t} v {x 1t < x :S 2}
(d) {x 1! .$ x ::;; i} v {x l l < x < H
1.3. (a) Verdadero (b) Verdadero (e) al o (d) Falso (e) Verdadero
1.4. (a) A = {(O, O), (1 , 0), (2, 0), (O, 1), (! , 1), (2, 1), (O, 2), (! , 2)}
(b) B = {(O, 0), (1 , O), (2, O), (3, 0), (4, 0), (5, O), (6, 0), (1, 1), (2, 1), (3, 1)
(4, 1). (5, 1), (6, I) (2, 2), (3, 2), (4, 2), (5, 2), (6, 2), (2, 3), (3, 3), (4, 3), (5, 3),
(6, 3), (2, 4), (3, 4), (4, 4), (5, 4), (6, 4), (3, 5), (4, 5), (5, 5), (6, 5), (3, 6),
(4,6), (5 6), (6, 6)}
t.6. {DD, NDD, DNDD, DNDN, DNND, DNNN, NDND, NDNN, N DD,
NNDN, N ND, NNNN)
1.10. (a) { (x, y ) 1O :S x < y .$ 24}
1.11. (a) AuBuC (b) [A11B n C]u(A 11 B11 u[A11.8 11 ]
(d) A u B 11 C
1.15. -6. l:r. -A 1.16. (a) 1 - z (b) y - z 1.17.
APIT LO 2
2.1. (a) ti (b) t 2.2. (a) n (b) ir; 2.J. (a) i (b) i
2.4. (a)
(4oox1100)
90 1 10
(u)
(b) 1 - [(
400V 1 1) + (4_01 0V
o /1 200 _
J1
11_1~
)]
200 ('lon)
2.5. 4
45 2.6. aH (b) ~ (c)i
2.7. (a) i (b) rlD (e) (d)i (e)t (f) & (g}!
2.8. 120 2.9. 720
2.10. 455 2.11. (a) 120 (b) 2970
2.12. (a) 4 8 (b) 4 . 37 (e) 70 (d) 336
2.13. (N - 1) !/(N - n)!N" - 1
2.14. (a) 360 (b) 1296 2.15. a+b
362
Respu las a proble m a~ 'd cdonado' 36J
CAPlT LO 3
3..
3.2.
e:y) e~ :~ 1) e:y) e
(a) i (b) t (e)
+
t
+:+
3.3.
1)
~
3.4. (a) rl; (b) ~ 3.6. (a) H (b) ~ (e) ~
3.7. j 3.9. 0.362, 0,406, 0,232
3.12. (a) ! (b) i 3. 13. 1 - (1 - p)"
3.15. rt; 3.17. (a) 0,995 (b) 0,145
3.20. (a) 2p 2 + 2p3 - 5p4 + 2p 5 (b) p + 3p2 - 4p 3 - p4 + 3p~ - p6
3.23. 6 3.25. (a) 0,50 (b) 0,05
3.34. /J. = t + (2p - 1)"(P - tl 3.35. (a) 0,65 (b) 0,22 (e) 8/ 35
3.37.
a fJ
p. = a + P+ (a + PXa + P + l)" - 1
APIT LO 4
4.1. P(X = 0) =ti, P(X = 1) = -A. P(X = 2) = ii, P(X = 3) = R
42 (a) (:) GY GY-x (b) C) (4 ~ x)/(2:)
4.3. (a) 1 (b) fr. (e) ~ 4.9. N
4.10. a = e- b
4.11 . P{X > b 1 X < b/ 2) = - 7b 3/(b 3 + 8)
4.13. (a) a = (2/ b) - b 4.14. (a) F(r) = 51 4 - 4t 5
4.15. (a) a = t (e) i 4. 16. (b) F(x) = 3x 2 - 2x 3
4.17. a) /(x) = !,O < x < 5 (b) /(x) = (1 / nXx - x 2) - 1' 2 , O < x < 1
(e) f (x) = 3e 3 .. , x < O
4.20. (a) a = 3 (e) a = i
4.23. (b) P(X = k)= (k~0,09f(09 1 ) 10 -
4.25. (a) ! 4.28. t
4.29. (a) k =p (b) r = l 4.30. - ! ~ x ~ !
CAPIT LO 5
5.1. g(y) = 1(4 - y) - 112 , 3 <y < 4
5.2. (a) g(y) = i, 7 <y< 13 (b) /1(z ) = 1/2z, e< z < e 3
S.3. (a) g(y) = ~y - 1/le 71 ',y> O
5.6. (a) y(y) = (l/nXI - y2)- 112 - 1 <y< 1
(b h(z) = (2/n)(I - z1 )- 112 , O< z < l (e) f(w) = l. O< w < 1
5.7. (a) g(11) = (3/ 2n)[(31 /4n) - 113 - l],O < v < 4n/ 3
(b) h(s) = (3/4n)[ l - (s/4n) 112 O < :; < 4n
s.s. g(p) = !{2/ p)' , 162 < p < 242
S.10. (a) g(O) = 1; g(y) = O. y#- O
(b) g(O) = a/k; g(y) = (xo - a)/kyo. O < y< Yo[(k - a)/ (xo - a)]
(e) g(O) = a/k; g(y) = (xo - a)/kyo. O < y< y 0 ; g(yo) = 1 - xo/k
5.13. 0,71
APIT LO 6
CAPITULO 7
7.3. 3.4 7.4. j-(2CJ + C2 - 3Ci)
1.6. $0,03 7.8. 7-i'5
7.9. $50 7.10. (a) e =i (b) E(D) = Jj
7.12. b) E(Z) = w 7.13. ) E(W) =~
7.14. 154
7.15. E(Y) = 10, V(Y) = 3. E(Z) = (e/2)(e 2 - !). V(Z) = (e 2/2)(e 2 - !)
7.18. E(Y) = O. V(Y) = -}. E(Z) = 2/Tr. V(Z) = (n 2 - 8)/ 2n 2 E(W) = ~.
V(W) = ft
7.30. (a) g(x) = x/2, O < x < 2; h(y) = 1/2 - y/ 8, O < y < 4
(b) V(X) = ~
7.31. E(Z) ~ J , + 2(J:)<1;; V(Z) ~ (l/;w: + (;/:)u;
7.32. E(Z) == H V(7.I ~.;., 7.35. t; o
7.46. ff 7.48. P(X ; = 1) = p(r/n) + q[(n - r)/n]
CAPITULO 8
8.1. 0,219
8.3. (a) O, 145 (b) 4 (e) 2 (d) 1 6 2 (e) 1,785 (f) 0,215
8.4. 0,3758 (binomial), 0,4060 (Poisson)
8.5. 0,067 8.6. P(X = 0) = 0,264
8.7. E(P) = $32,64 8.9. (b) 0,027
8.10. 0,215 8.12. (a) (0,735)7 (b) l - (0,265) 7
8.16. (a) (1 - P1XI - P2Xl - p3XJ - p,) (e) 0,0964
8.17. (a) 0,064 8.20. (2 - ln 3)/ 3 8.24. $19,125
APITULO 9
9.1. (a) 0,2266 (b) 0,2902 9.2. 0,3085
9.3. 0,21 9.5. (a) D2 (b) D2
APIT W JO
10.1. (a) Mx(I) = (2/ 12 )[e'(t - 1) + 1] (b) E(X) =t. V(X) = ria
10.3. (a) Mx(r) J..e'"/(). - 1) (b) E(X) = (a). + 1)/ .l., V(X) = l/A 2
10.4. (a) Mx(I) = i{e' + e 2 ' + e 3 ' + e 4' + e5' + e 6 ')
10.6. (a) ( 1 - 12 ) - 1
10.8. (b) E(X) = 3,2
10.9. (a) 0.8686 10.12. 0,30
I0.13. 0,75 10.14. 0,579
JO. 18. -!- 10.19. (e 3' - 1)/31e'
APITULO ti
APIT LO 12
APIT LO 13
APITULO 14
V(L2)
14.1. 14.2. e= l/2(n - 1)
V L 1) + V(L2)
14.3. 16.1 14.4. - 1 - n(Lj. 1 In X 1
APITU O IS
\al111'1n.1l11! 1k una \,maJ1k al~ aio riu. l_O \ .111ahll ab1to11<1 cnnllnua. h7
\'ariahli.: alcatn1 ia 55
\ a11ablc' alca tona-. 111dc~nd11:11lc-.. 1O , 1Oh
ontinua. 67
nncrio dc. 106
discreta, 60
distrihuci 'rn de probabilidad, 61
'
\ aria bles alca1oria" 11-dimcrhionalc-.. 11
e pacio muestra! <l '. 56 \ arianza d1.: una \'ariabl' aleatoria. l lX
no correlacionada. 149 apro.ximacin a. 143
sucesiones de, 229 evaluacin de, 139
Variable aleatori;i bidimensi nal. 95 propiedades de. 140
continua. Q6 de la suma de variable alcatoriao; indl
di creta, 96 pcnd ien1es. 141
normal. 206 \ a ri;111za muestra!. 273