Вы находитесь на странице: 1из 125

Apuntes del curso de Procesos Estocsticos

Curso dictado en la UNEFA- Ncleo San Tome Departamento de Ingeniera de Sistemas Revisin: 25/enero/2008

Autor: Prof. Jos Loreto Romero Palma

Prefacio
El presente material surgi originalmente para ser utilizado como texto principal de consulta para el curso de Procesos Estocsticos de la carrera de Ingeniera de Sistemas que dicto en la UNEFA. An cuando existe abundante bibliografa y material disponible en Internet sobre este tema, considero que existen sobradas razones para justificar la elaboracin de estos apuntes. En primer lugar, los libros que versan sobre el tema estn pensados para un pblico matemticamente ms maduro, generalmente para estudiantes a nivel de postgrado. Sin mencionar que, por ser estos libros muy especializados, son demasiado escasos en las libreras venezolanas. Por otro lado, navegar a travs del Internet en bsqueda de bibliografa en lnea puede resultar una tarea herclea para el estudiante de pregrado cuya primera exposicin al tema es sta. En fin, la bibliografa existente es muy dispersa, escasa y no adecuada a las necesidades del estudiante de ingeniera de sistemas, por lo cual considero que este texto viene a llenar un vaco. El aporte original en el presente tratamiento del tema es el nfasis en la simulacin estocstica. Incorporar el aspecto de la verificacin emprica del mtodo cientfico en la exposicin de un tema de la matemtica, que es una ciencia netamente terica, puede parecer un disparate. No obstante, se piensa que este enfoque puede rendir muchos dividendos, sobre todo instruccionales. Con los abundantes ejemplos de simulacin en cdigo R se pretende familiarizar al estudiante con un lenguaje de programacin de libre distribucin que est adquiriendo cada vez ms relevancia en el mundo de la investigacin estocstica. Por otro lado, con la exposicin del alumnado a herramientas de software libre se pretende hacer un modesto aporte haca el logro de la soberana tecnolgica nacional. El texto esta organizado en seis captulos. En el primer captulo se da un repaso de la teora de las probabilidades y se pretende explicar de una vez qu son las simulaciones estocsticas y para qu sirven. El segundo capitulo es quizs el ms abstracto de todo el texto. Comienza con la definicin de lo que es un proceso estocstico y prepara todo el andamiaje conceptual para caracterizar sus tipos y propiedades. En el tercer capitulo se aborda el estudio de las caminatas aleatorias y el problema de la ruina del jugador. En el cuarto y quinto capitulo se tratan los procesos de Poisson, tanto el homogneo como otras variantes que se obtienen a partir de ste modificando un poco los axiomas i

que lo definen. Por ltimo, en el sexto captulo, se tratan las cadenas de Markov de parmetro discreto. El nivel de conocimientos previo requerido por parte del alumno equivale al de un estudiante que haya cursado alguna asignatura de probabilidad elemental y los respectivos cursos de matemticas del ciclo bsico de ingeniera, que abarcan temas de clculo diferencial, integral, series y ecuaciones diferenciales. Compensar las fallas en el proceso de aprendizaje de la teora de las probabilidades e introducir una mayor rigurosidad de estos temas a fin de preparar al alumno para el resto del contenido es justamente el objetivo del primer captulo. Este primer captulo esta intencionalmente redactado en un lenguaje ms formal es una suerte de bautismo por fuego para templar a mis alumnos en su proceso de formacin como futuros profesionales. En compensacin incluyo como apndice una seccin con tips sobre demostraciones matemticas (las cuales surgen en buena parte de los problemas propuestos) y sobre una miscelnea de otros temas matemticos tales como las antes mencionadas series. Dicha seccin esta libremente inspirada en la obra de Polya titulada Como Resolverlo y con ella se pretende motivar al alumno para dejar de ser un mero calculista que solo sabe aplicar las frmulas que le son dadas y convertirse en un analista de sistemas que entiende cabalmente los conceptos matemticos y que sabe cuando y cuales herramientas aplicar para resolver problemas de la vida real. Mi recomendacin general al estudiante es estudiar detenidamente los problemas resueltos y la implementacin de las simulaciones en el texto para posteriormente realizar los problemas propuestos. Desde una perspectiva ms amplia, el contenido de este texto esta enmarcado dentro de un componente importante en el pensum de la ingeniera de sistemas y de las ciencias de la computacin. Me refiero al conglomerado de materias tales como A mi juicio, dicho investigacin de operaciones, matemticas discretas, probabilidades y estadstica, mtodos numricos y simulacin y modelos matemticos. componente es medular para la formacin integral de un analista de sistemas, quin debe apuntar ms all de ser un simple tecncrata operario de TICs (Tecnologas de Informacin y Comunicacin). Ms bien y esto es algo que le cuesta trabajo entender a las personas no iniciadas en el tema el analista de sistemas debe estar en capacidad de analizar cualquier sistema, sea ste una empresa, una red de trfico vehicular, la economa nacional o la sociedad. Con las materias de este componente se pretende dotar al estudiante de herramientas para el anlisis matemtico de los sistemas, cuyo fin ii

ulterior es el de apoyar la toma racional de decisiones y permitir medir el desempeo del decisor en aras de lograr progresivamente un mayor bienestar colectivo. En un pas como Venezuela, es verdaderamente acuciante capacitar profesionales con estas destrezas; nuestro desarrollo como nacin depende de ello. Quiero en estas lneas agradecer a los profesores y autores que de manera directa o indirecta contribuyeron en mi propia formacin. En particular, extiendo mis agradecimientos a Luis A. Azocar Bates, quien fue mi profesor en la Universidad Nacional Abierta, as como tambin a mis colegas y compaeros docentes, Elaine J. Prez Bracho, Jos T. Gomez Barreto y Rafael A. Rofriguez Toledo, quienes adems han contribuido con importantes sugerencias en la redaccin de este material. Debo incluir palabras de reconocimiento y de agradecimiento a mis alumnos de la UNEFA, quienes han contribuido tambin con sugerencias y a quienes este libro est dedicado. Aspiro inculcar en ellos una pasin por los temas de la investigacin de operaciones y el modelamiento matemtico para que sean ellos mismos los que sigan investigando, formndose y siempre estando a la vanguardia en esta Era de la Informacin. Que su nivel de conocimientos rebase muchas veces el mo propio, que stos sirvan al bienestar de nuestra nacin y que sta reconozca la importancia del saber que ellos portan son mis deseos.

iii

Tabla de contenido
Prefacio .............................................................................................................................. i Capitulo 1- Preeliminares sobre teora de probabilidades y simulaciones ........................ 1
1.1 1.2 1.3. 1.4. Experimento aleatorio. Espacio muestral. Eventos elementales. Probabilidad ............................................... 1 Variable aleatoria. Distribucin de probabilidad. Tipos de variables aleatorias. Densidad de probabilidad. ... 3 Valores esperados: esperanza y varianza. ...................................................................................................... 6 Funcin caracterstica y funcin generatriz. Propiedades y tablas. ................................................................ 7

Tabla 1.1. Leyes de probabilidad discretas ms frecuentes y sus caractersticas..................................................... 10 Tabla 1.2. Leyes de probabilidad continuas ms frecuentes y sus caractersticas.................................................... 12 1.5. 1.6. Variables aleatorias bidimensionales y n-dimensionales. Funcin de distribucin conjunta. Funcin de densidad conjunta...................................................................................................................................................... 14 Variables aleatorias independientes y su caracterizacin. Covarianza. Distribucin de la suma de dos o ms variables aleatorias independientes. Convolucin. ............................................................................................ 17 Ejemplo para las secciones 1.5 y 1.6......................................................................................................................... 21 1.7. Introduccin a la simulacin estocstica mediante el lenguaje R. ................................................................. 25

Problemas Propuestos ................................................................................................ 32 Capitulo 2- Introduccin a los procesos estocsticos.


2.1. 2.2. 2.3. 2.4. 2.5.

Terminologa y nociones

preeliminares .................................................................................................................. 35
Definicin y ejemplos de procesos estocsticos. ........................................................................................... 35 Probabilidad y esperanza condicional. Definiciones y propiedades. ............................................................ 38 Caracterizacin de los procesos aleatorios: valor medio y ncleo de covarianza. ........................................ 43 Incrementos independientes y estacionarios. Procesos estacionarios ......................................................... 45 Algunos tipos de procesos aleatorios: caminata aleatoria, martingalas, procesos de Markov, procesos de

Poisson, procesos de Wiener .................................................................................................................................... 48

Problemas Resueltos .................................................................................................. 51 Problemas Propuestos ................................................................................................ 53 Capitulo 3- Procesos estocsticos basados en el proceso de Bernoulli y caminatas aleatorias ........................................................................................................................ 57
3.1 3.2 3.3. 3.5. 3.6. El proceso de Bernoulli .................................................................................................................................. 57 La cantidad de xitos. Caminatas aleatorias basadas en procesos de Bernoulli. ........................................ 58 La cantidad de ensayos hasta r xitos: ms sobre las caminatas aleatorias basadas en procesos de La ruina del jugador........................................................................................................................................ 63 Duracin promedio del juego y otras consideraciones sobre el problema de la ruina del jugador ................ 70

Bernoulli. .................................................................................................................................................................... 60

Problemas Resueltos .................................................................................................. 76 Problemas Propuestos ................................................................................................ 79 Capitulo 4- El proceso de Poisson homogneo .............................................................. 82
4.1 El proceso de Poisson como caso lmite de la caminata aleatoria binomial. ................................................. 82 Tabla 4.1. Calculo de las probabilidades de recibir k llamadas en 3 minutos mediante aproximaciones sucesivas por medio del modelo Binomial........................................................................................................................................ 83

iv

4.2. 4.3. 4.4. 4.5.

Derivacin axiomtica del proceso de Poisson.............................................................................................. 87 Procesos de Poisson espaciales.................................................................................................................... 93 Distribucin del tiempo inter-eventos. ............................................................................................................ 98 La distribucin uniforme de los tiempos de ocurrencia de sucesos en un proceso de Poisson................... 102

Problemas Resueltos ................................................................................................ 109 Problemas Propuestos .............................................................................................. 113

vi

Capitulo 1- Preeliminares probabilidades y simulaciones


1.1 Experimento Probabilidad aleatorio. Espacio

sobre

teora

de

muestral.

Eventos

elementales.

El objetivo fundamental de la teora de la probabilidad es la descripcin matemtica de experimentos aleatorios, que son procesos cuyos resultados no se pueden predecir con exactitud. Las dificultades en manejar matemticamente algo que es por naturaleza impredecible se superan si abordamos la identificacin de todos los resultados posibles que puede arrojar un experimento aleatorio. Con esto habremos definido el espacio muestral. El espacio muestral es un conjunto, en el sentido matemtico de la palabra, y sus elementos constituyentes son los resultados posibles del experimento aleatorio, que tambin se conocen como eventos elementales. Usualmente se denota el espacio muestral mediante la letra griega omega mayscula () y los eventos elementales mediante la omega minscula con algn subndice (i si es un conjunto numerable) para distinguirlos entre s. Para mantener la consistencia en la notacin, se aclara que por evento elemental se entiende cada resultado posible del experimento aleatorio (los elementos constituyentes de ) o los subconjuntos unitarios de formados por los elementos de correspondientes. Es de notar que la coleccin de eventos elementales, bajo la acepcin de subconjuntos unitarios, forman una particin de : su unin es el conjunto y son mutuamente disjuntos dos a dos. Los eventos elementales se pueden componer mediante uniones para formar eventos, que son subconjuntos del espacio muestral. La coleccin de eventos del espacio

muestral es un lgebra de conjuntos, porque es cerrada bajo uniones finitas y complementos. En trminos ms sencillos, si A y B son dos eventos, A B y A son eventos tambin. A B es el evento que se verifica cuando se verifica el evento A o el evento B y A es el evento que se verifica cuando no se verifica A. Como

A B = A B , el lgebra de eventos es cerrada bajo las intersecciones finitas


tambin. Denotaremos por la clase de todos los eventos, o lgebra del espacio muestral.

Por razones que van ms all del alcance terico de este recuento, es preciso exigir una condicin adicional sobre : Si

{An }

es una sucesin numerable de eventos,

entonces su unin infinita tambin es un evento


n =1

An .
Por

Un lgebra que satisface esta condicin ms fuerte se denomina -lgebra. ejemplo,

{, }

y ( ) (se lee partes de omega, que es la clase de todos los En resumen, se ha asociado a un

subconjuntos posibles de ) son -lgebras. para definir todos los eventos posibles.

experimento aleatorio un conjunto de resultados posibles y una estructura matemtica

A modo de ejemplo, si el experimento aleatorio consiste en escoger al azar una persona y observar su da de cumpleaos, para definir el espacio muestral debemos identificar cada da del ao de una forma conveniente. Se podra asociar el 1 al primero de enero, el 2 al segundo de enero y as sucesivamente. Descartando el caso de las personas nacidas el 29 de febrero, el espacio muestral esta definido por el conjunto de nmeros

1 naturales del 1 al 365 y = { ,2,,365} . Podemos observar que el espacio muestral es


un conjunto numerable y finito. Si estamos interesados en el evento la persona es nacida en el mes de enero, este evento se podra definir como E = { ,2,,31}. 1 Anlogamente, si estamos interesados en el evento la persona es de signo acuario en el zodiaco (21 de enero al 19 de febrero), este se definira por A = {21, 22,, 50} . Las bases matemticas de la teora de probabilidades moderna se deben a elaboraciones sobre la teora de la medida, que primordialmente se ocupa de cmo asignar cantidades numricas a cada conjunto de una -lgebra. En nuestro caso esto es muy oportuno porque nos preocupa asociar probabilidades a eventos, y las probabilidades son valores numricos que cuantifican el grado de certidumbre sobre la ocurrencia de algn evento en la realizacin de un experimento aleatorio. asigna a cada conjunto de una -lgebra un valor real positivo o nulo: En el lenguaje de la teora de la medida, la probabilidad es una medida, o funcin que le

Definicin (Axiomas de Kolmogorov): Sea (,) un espacio muestral con su respectiva -lgebra de eventos. Una funcin P: [0,1] es una medida de probabilidad si satisface las condiciones siguientes: a. P()=1 b. Si

{An }

es una sucesin de conjuntos disjuntos dos a dos, entonces

P An = P (An ) n =1 n =1
Esta es la propiedad de -aditividad. En este caso se dice que (,,P) es un espacio de probabilidad.

1.2 Variable aleatoria. Distribucin de probabilidad. Tipos de variables aleatorias. Densidad de probabilidad.
El concepto de variable aleatoria es substancial y de mucha utilidad en el estudio matemtico de los fenmenos aleatorios porque es un mecanismo para traducir los objetos del espacio muestral, que no necesariamente se identifican de forma numrica, a elementos de algn conjunto numrico. Esto facilita enormemente la cuantificacin en el estudio de la aleatoriedad, y conlleva eventualmente a establecer caractersticas importantes que resumen numricamente el comportamiento del fenmeno aleatorio, como la esperanza y la varianza.

Definicin (Variable Aleatoria): Sea (,,P) un espacio de probabilidad. La variable aleatoria X() es una funcin X: R que asigna a cada elemento del espacio muestral un valor real. Adicionalmente, la variable aleatoria es una funcin medible, porque deber verificar que X ( ) < . An cuando esta caracterstica de las variables aleatorias como funciones medibles no se menciona en los textos elementales de probabilidades con los que probablemente estudiaste esta materia, se incluye en la definicin anterior porque es justamente esta

caracterstica la que posibilita el clculo de probabilidades asociadas a intervalos reales, la definicin de funciones de distribucin de probabilidad y consecuentemente, la funcin de densidad de probabilidad.

La variable aleatoria traduce eventos en el espacio muestral a intervalos o subconjuntos numricos con la finalidad de calcular la probabilidad asociada a estos subconjuntos numricos. Es decir, convierte la medida de probabilidad de eventos a distribuciones de probabilidad en conjuntos numricos, definiendo as la llamada funcin de distribucin de probabilidad:

Definicin (Funcin de Distribucin de Probabilidad): Sea (,,P) un espacio de probabilidad y X() una variable aleatoria definida sobre este espacio. La funcin de distribucin F(x) de una variable aleatoria se define como sigue:

F (x ) = P {X x} = P { X ( ) x}

Habiendo hecho esta definicin, se esclarece el comentario anterior sobre la propiedad de la variable aleatoria como funcin medible - si X ( ) < , dicho evento no tendra probabilidad asociada y por lo tanto se indefinira la funcin de distribucin de probabilidad, porque solo tienen probabilidad aquellos eventos definidos en . Entre algunas propiedades de la funcin de distribucin de probabilidad, que tambin se denomina a veces funcin acumulada de probabilidad, se mencionan: i. F es una funcin creciente que toma valores en [0,1]. ii. F(-)=0 y F()=1. Segn la naturaleza del conjunto de valores que toma X, se tienen dos tipos de variables aleatorias. Las variables aleatorias discretas se caracterizan por ser el conjunto de valores de X finito o por lo menos numerable. Si el conjunto de valores de X es infinito e innumerable, X es una variable aleatoria continua. Esta distincin es muy importante porque determina la forma en que definimos las probabilidades puntuales: para una variable aleatoria discreta, P{X=x} es un valor positivo si x esta dentro del rango de valores donde el evento X ( ) = x

asume probabilidad positiva.

En

cambio, si X es una variable continua, P{X=x} es invariablemente igual a cero para 4

cualquier valor x porque si X toma valores en un conjunto infinito, ninguna probabilidad puntual puede ser distinta de cero. Cuando X es una variable aleatoria, podemos definir su funcin de probabilidad del modo usual:

p(x ) = P {X = x} = P { X ( ) = x}
La funcin de probabilidad de una variable discreta es mayor o igual a cero para todo x y verifica que la suma de las probabilidades puntuales a travs del conjunto imagen de X es igual a uno:

x R p(x ) 0 y

x =

p (x ) = 1

A veces, p(x) se denota por px, para enfatizar la naturaleza discreta de la variable aleatoria (si p tiene un subndice, los valores posibles de X son numerables). Si X es una variable continua, no tiene sentido hablar de probabilidades puntuales porque todas son iguales a cero. Se define entonces la funcin de densidad de probabilidad f, que se corresponde a la derivada Radon-Nikodym de la funcin de distribucin. Una variable aleatoria que tiene asociada una tal funcin de densidad se denomina absolutamente continua, y dicha funcin de densidad f(x) verifica lo siguiente:

f (x ) 0 para todo x y F (x ) = f (t )dt

Es de notar que en el caso continuo, f(x) no representa una probabilidad puntual, pues ya hemos establecido que las probabilidades puntuales son necesariamente iguales a cero; en cambio f(x) puede asumir valores positivos. Una vez establecidas las definiciones bsicas de variable aleatoria, distribucin de probabilidad, funcin de probabilidad y funcin de densidad de probabilidad, es preciso mencionar que en la teora de la probabilidad se estudian diversas distribuciones o leyes de probabilidad que pretenden modelar una amplia gama de fenmenos aleatorios. El estudiante que haya cursado cualquier curso elemental de probabilidades conoce algunas de estas leyes de probabilidad y sus caractersticas ms importantes. En las tablas 1.1 y 1.2 se describen las leyes de probabilidad ms usuales.

1.3.

Valores esperados: esperanza y varianza.

Dos caractersticas importantes de una variable aleatoria son su tendencia central y su dispersin media con respecto a la tendencia central. Ambas estn dadas por la esperanza y la varianza respectivamente. La esperanza matemtica de una variable aleatoria, tambin conocida como momento de orden uno o valor medio, se define del siguiente modo:

E [X ] =

xdF (x )

Para el caso de la variable absolutamente continua se tiene que su esperanza es:

E [X ] =

x f (x )dx
La esperanza matemtica de una variable aleatoria

en donde los lmites de integracin se definen convenientemente segn el espacio de valores donde f(x) es positiva.

discreta con funcin de probabilidad p(x) se define como:

E [ X ] = x p (x )
k =0

en donde, una vez ms, los lmites de integracin se definen de forma conveniente. El valor esperado de una variable aleatoria, su media poblacional, frecuentemente se designa mediante la letra del alfabeto griego. A continuacin se enuncian sin demostracin algunas propiedades importantes de la esperanza: Si X es una variable aleatoria degenerada (que asume un valor constante C con probabilidad uno), entonces E[X]=C. Sea C una constante y X una variable aleatoria, entonces E[CX]=CE[X]. Sea X una variable aleatoria y sea Y=h(X) otra variable aleatoria que es funcin de X. entonces, el valor esperado de Y es:

E [Y ] = E [h( X )] = h( x )dF (x )

observando que los lmites de integracin se redefinen de acuerdo a los lmites de integracin para la variable X y en atencin a la funcin h. Si la variable X es discreta, Y tambin lo es y su esperanza se define mediante una sumatoria.

La varianza, que indica el grado de dispersin de una variable aleatoria respecto a su media, tambin es un valor esperado. De hecho, la varianza de una variable aleatoria X es el valor esperado de la diferencia cuadrtica de X respecto a su media y en su clculo interviene la frmula anterior:

V [X ] = E ( X ) =
2

( X ) dF (x )

Algunas de sus propiedades notables son: Para toda variable aleatoria X, V[X] 0 Si C es una constante, V [CX ] = C 2V [X ] . Si A es una constante, V [X + A] = V [X ] .

V [X ] = E X 2 E 2 [ X ] .
clculo de la varianza.

[ ]

Esta ltima formula es particularmente til para el

Finalmente, como ltima nota en este aparte, se menciona la cota de Tchebyschev, que involucra la esperanza y la varianza de una variable y es de utilidad para acotar de forma muy aproximada ciertas probabilidades cuando no se tiene ningn conocimiento sobre la ley de probabilidad de una variable aleatoria. Este resultado se da en sus dos formas sin demostracin:

P[ X ]

V [X ]

y, recprocamente, P X < > 1

V [X ]

1.4.

Funcin caracterstica y funcin generatriz. Propiedades y tablas.

El inters en la Estadstica de la funcin generatriz de una variable discreta y la funcin caracterstica de una variable discreta o continua radica en el clculo de los momentos y en el clculo de las distribuciones muestrales, siendo estas particularmente tiles para el clculo de la suma de n variables aleatorias independientes e idnticamente distribuidas. Otro caso donde son de utilidad es cuando se tiene una composicin de variables aleatorias de distintas distribuciones- ah entonces se puede deducir la ley de

probabilidad de la variable compuesta a travs del anlisis de su funcin caracterstica o generadora. La funcin caracterstica de una variable aleatoria X tiene una definicin bastante sencilla: es la esperanza de eiuX, en donde u es una variable real. Se tiene, pues:

X (u ) = E [e iuX ] = e iux dF (x )

Como

e iuX = cos ux + i sen ux , esta funcin es integrable para cada u y

consecuentemente, (u) posee una parte real y una parte imaginaria. X(u) tambin es conocida como la transformada de Fourier de F(x). Si la variable X es absolutamente continua, entonces

X (u ) = e iux f ( x )dx , con los lmites de integracin definidos donde f(x) sea positiva.

Si X es una variable aleatoria discreta, se tiene por definicin que X (u ) =

iux

p( x ) ,

con los lmites de la sumatoria definidos en aquellos puntos donde la funcin de probabilidad p(x) sea positiva. Las funciones caractersticas de algunas variables aleatorias discretas y continuas ms comunes se dan en las tablas 1.1 y 1.2. Es importante recalcar que la funcin caracterstica depende del parmetro u, por lo tanto, cuando se hable de su derivada de orden k subsecuentemente, se refiere a la diferenciacin con respecto a u. Por los momentos se indican algunas propiedades de la funcin caracterstica que son de utilidad, aclarando que en lo sucesivo omitimos el subndice X en X(u) para ganar claridad tipogrfica. Sea X una variable aleatoria con funcin caracterstica (u), entonces:

(0) = 1 (t ) 1
E Xk =

[ ]

(k ) (0)
ik

Esta ltima propiedad es particularmente til, podemos calcular el momento de orden k de una variable X derivando k veces su funcin caracterstica, evalundola en cero y

dividiendo entre ik. Generalmente, en este tipo de clculos surgen indeterminaciones de tipo 0/0 que se pueden resolver mediante el respectivo lmite y la regla de LHospital. Otra propiedad interesante de la funcin caracterstica es que existe una correspondencia unvoca entre sta y la ley de probabilidad de la variable aleatoria subyacente. Existen varias frmulas de inversin que sirven a tales efectos, como el teorema de Levy. Dichas formulas se establecen en lo que sigue sin demostracin 1: Sean F(x) y (u) la funcin de distribucin y la funcin caracterstica de una variable aleatoria X respectivamente. Si x1 y x2 son dos puntos de continuidad de F(x) se tiene:

F (x 2 ) F (x1 ) = lim
T

1 2

e iux1 e iux2 (u )du iu T


T

Como consecuencia de este teorema, se tienen los siguientes resultados: Si X es discreta, entonces p X (x ) = lim
T

1 2T

iux

(u )du .
1 2

En el caso continuo, la funcin de densidad de X es dada por f X (x ) =

iux

(u )du .

Por ltimo es importante notar, an adelantndose a la exposicin de la independencia estocstica y la convolucin de variables aleatorias, que la funcin caracterstica sirve para obtener la distribucin de una suma de variables independientes. Esto se desprende del hecho de que el valor esperado de un producto de variables aleatorias independientes es igual al producto de los valores esperados de las variables respectivas, pero este punto se tratar en mayor detalle posteriormente. En el caso en que la variable aleatoria X sea discreta y tome valores positivos, se puede definir su funcin generatriz del siguiente modo:

g (u ) = E u X = p(k )u k
k =o

[ ]

Siempre y cuando u este dentro del radio de convergencia de dicha serie infinita. Algunas propiedades notables de la funcin generatriz son las siguientes:

RIOS, pp. 96-97

i.

p(k ) =

g (k ) (0 ) , para k = 0,1,2, k!

ii. E [X ( X 1) ( X k + 1)] = g (k ) (1), para k = 1,2, . La expresin E [X ( X 1) ( X k + 1)] se conoce como momento factorial de orden k para la variable X. Como la funcin caracterstica la funcin generatriz determina unvocamente la ley de probabilidad de una variable aleatoria y tambin sirve a efectos de determinar la distribucin de la suma de variables aleatorias independientes. Las funciones generatrices de diversas variables aleatorias discretas se dan en la tabla 1.1.

Tabla 1.1. Leyes de probabilidad discretas ms frecuentes y sus caractersticas

Bernoulli
0 p 1

En un ensayo de Bernoulli se observa un xito con probabilidad p o un fracaso con probabilidad q=1-p.
Funcin de probabilidad: Valores esperados:

1 p p X (x ) = p
g (z ) = q + pz

x=0 x =1

para x {0 ,1}

E [X ] = p

V [X ] = pq

Funcin generadora y funcin caracterstica:

X (u ) = q + pe iu

Binomial-

Es la suma de n variables aleatorias de Bernoulli independientes e idnticamente distribuidas con parmetro p. Representa tambin el nmero de xitos en n ensayos independientes.

0 p 1, q = 1 p, n N +
Funcin de probabilidad: Valores esperados:

n x n x p q p X (x ) = x 0

x {0,, n} x {0,, n}

E [X ] = np

V [X ] = npq

Funcin generadora y funcin caracterstica:

g (z ) = (q + pz )
10

X (u ) = q + pe iu

Geomtrica-

La variable aleatoria geomtrica es el nmero de ensayos de tipo Bernoulli que se requieren hasta observar el primer xito.

0 p 1, q = 1 p

Funcin de probabilidad:

Valores esperados:

pq x 1 p X (x ) = 0 pz g (z ) = 1 qz

x N+ x N+

E [X ] =

1 p

V [X ] =

q p2

Funcin generadora y funcin caracterstica:

X (u ) =

pe iu

1 qe iu

Binomial Negativa- La variable aleatoria binomial negativa representa el nmero de ensayos hasta observar la r-sima ocurrencia de un xito (r es un nmero fijo).
Funcin de probabilidad: Valores esperados:

x 1 r x r p q p X (x ) = r 1 0
pz g (z ) = 1 qz
r

xr x<r

r

E [X ] =

r p

V [X ] =

rq p2

Funcin generadora y funcin caracterstica:

pe iu X (u ) = 1 qe iu

Poisson- La variable aleatoria Poisson representa el nmero de eventos que ocurren


en un instante de tiempo de amplitud fija cuando la tasa media de eventos en ese intervalo de tiempo es
Funcin de probabilidad: Valores esperados:

x e p X (x ) = x! 0

x N 0 x<0

E [X ] =

V [X ] =

Funcin generadora y funcin caracterstica:

g (z ) = e (z 1)

X (u ) = e (e

iu

11

Tabla 1.2. Leyes de probabilidad continuas ms frecuentes y sus caractersticas

Uniforme Es la variable aleatoria continua uniformemente distribuida sobre un intervalo (a,b). La probabilidad de que la variable aleatoria uniforme se encuentre dentro de algn subintervalo de (a,b) es proporcional a la amplitud de dicho subintervalo.
Funcin de densidad: Valores esperados:

1 f X (x ) = b a 0

a<x<b en caso contrario

a+b E [X ] = 2

(b a )2 V [X ] =
12

Funcin caracterstica:

X (u ) =

e iub e iua iu (b a )

Normal- El nmero de xitos en n ensayos independientes de Bernoulli obedece aproximadamente una ley Normal a medida que n tiende a infinito. Segn el teorema central del lmite, toda suma n variables independientes e idnticamente distribuidas es normal cuando n tiende a infinito. La ley normal modela adecuadamente una amplia gama de fenmenos aleatorios porque generalmente, las desviaciones de una variable con respecto a un punto central se deben a la suma de una cantidad indefinidamente grande de perturbaciones aleatorias idnticamente distribuidas e independientes entre s.
, R > 0
Funcin de densidad: Valores esperados:

1 x 2 exp f X (x ) = 2 2 1
Funcin caracterstica:

E [X ] =

V [X ] = 2

X (u ) = exp iu u 2 2
1 2

12

Exponencial-

La variable aleatoria exponencial juega un papel anlogo en el caso continuo a la geomtrica y representa el tiempo que transcurre hasta que falla un componente. Como la geomtrica, la variable aleatoria exponencial tiene la propiedad de no poseer memoria: el haber esperado una cantidad de tiempo determinado sin que haya ocurrido la falla o el suceso en cuestin no condiciona el tiempo adicional de espera en el futuro. El nico parmetro de esta distribucin esta relacionado con la tasa media de eventos por unidad de tiempo y tiene la restriccin de ser un valor positivo.
Funcin de densidad: Valores esperados:

e x f X (x ) = 0 iu X (u ) = 1
1

x>0 en caso contrario

E [X ] =

V [X ] =

Funcin caracterstica:

Gamma- La variable aleatoria gamma representa el tiempo de espera hasta la r-sima ocurrencia de un fallo o evento cuando los eventos ocurren independientemente entre s con una tasa promedio de por unidad de tiempo, con los tiempos inter-eventos distribuidos exponencialmente con el mismo parmetro. Un caso especifico de la gamma es la distribucin de Erlang, que representa la suma de r variables aleatorias independientes distribuidas exponencialmente (en este caso, r es un nmero entero positivo). La distribucin ji-cuadrado, la Weibull y la exponencial tambin se pueden definir como casos particulares de la gamma. Las restricciones sobre los parmetros son , r > 0
Funcin de densidad: Valores esperados:

(x )r 1 e x f X (x ) = (r ) 0
Funcin caracterstica:

x>0 en caso contrario

E [X ] =

V [X ] =

X (u ) = 1

iu

Nota: La funcin (r) es la funcin gamma, que se define a continuacin:

(r ) = u r 1e u du, r > 0
0

Esta funcin tiene las siguientes propiedades: i. n + 1 = n n , n > 0 ii.

( ) ( ) (n + 1) = n! si n es un entero positivo

13

1.5.

Variables aleatorias bidimensionales y n-dimensionales. distribucin conjunta. Funcin de densidad conjunta.

Funcin de

Sucede muy comnmente que estamos interesados en investigar las relaciones que hay entre dos o ms caractersticas de los individuos de una poblacin- esto da pie a la definicin de las variables aleatorias bidimensionales y, de forma ms general, a las ndimensionales. Este concepto pretende dar respuestas a preguntas tales como: Cul relacin existe entre la estatura y el peso corporal de cada persona? Existe algn vnculo entre el grado de desarrollo tecnolgico y el porcentaje de la poblacin que son cientficos en un pas? Es importante recalcar que las variables aleatorias conjuntas se refieren a dos o ms caractersticas que se observan simultneamente en cada individuo de una poblacin; estn, pues, asociadas al mismo espacio muestral (ver Fig. 1.1). As por ejemplo, si estamos interesados en comparar las destrezas matemticas de estudiantes de uno y otro liceo a partir de las notas de matemtica de una muestra de veinte alumnos de cada liceo, no se puede instituir en base a esto una variable aleatoria bidimensional porque los alumnos no provienen de la misma poblacin (dos liceos) ni tampoco un par de notas se refieren al mismo individuo.

Definicin (Variable aleatoria bidimensional y n-dimensional): Sea (,,P) un espacio


de probabilidad y X=X() e Y= X() dos variables aleatorias definidas sobre ese mismo espacio probabilizado. El par (X,Y) constituye una variable aleatoria bidimensional, a veces denominada vector aleatorio. Anlogamente, si X1=X1(), , Xn=Xn() son n variables aleatorias definidas sobre el mismo espacio, entonces ( X 1 , variable aleatoria n-dimensional (vector aleatorio n-dimensional).

, X n ) es una

Fig. 1.1 Las variables aleatorias conjuntas estn asociadas al mismo espacio muestral. 14

Como en el caso unidimesional, las variables aleatorias multidimensionales (ndimensionales) son discretas o continuas y poseen funcin de distribucin y funcin de probabilidad o funcin de densidad de probabilidad segn sea el caso. Los vectores aleatorios son discretos si el producto cartesiano X 1

X n es un conjunto finito o

numerable; en caso contrario, el vector aleatorio es continuo. Sin ms prembulos, se especifican seguidamente las particularidades salientes de los vectores aleatorios: Funcin de probabilidad conjunta en caso discreto: Al vector aleatorio discreto

(X1 ,

, X n ) se asocia una funcin de probabilidad p(x1 ,, x n ) que representa la

respectiva probabilidad P X 1 ( ) = x1 , , X n ( ) = x n probabilizado y que cumple las siguientes condiciones: i. ii.

definida en el espacio

p(x1 ,, x n ) 0 para todo (x1 ,

, xn )

x1 =

x 2 =

p(x1,, x n ) = 1
Como en el caso

La segunda condicin establece que la masa de probabilidad total sumada a travs de la regin de valores donde p(x1 ,, x n ) > 0 es igual a uno. probabilidad o de densidad. Funcin de densidad de probabilidad conjunta (caso continuo): Al vector aleatorio continuo ( X 1 ,

unidimensional, esta condicin es de hecho la que caracteriza a cualquier funcin de

, X n ) se asocia una funcin de densidad de probabilidad f (x1 ,, x n )

que, asumiendo valores positivos en alguna regin R del espacio n-dimensional, cumple las siguientes condiciones: i. f (x1 ,, x n ) 0 para todo (x1 , ii.

, xn )

f (x ,, x )dx dx
1 n 1

=1

Funcin de distribucin de probabilidad conjunta: Un vector aleatorio

(X1 ,

, Xn )

basado en un espacio de probabilidad (,,P) tiene una funcin de distribucin conjunta definida del siguiente modo:

FX1,, X n (x1,

, x n ) = P { X 1 ( ) x1, , X n ( ) x n }

15

Calculndose esta expresin mediante sumatorias o integrales mltiples segn sea el vector aleatorio discreto o continuo respectivamente. Las expresiones para los momentos de los vectores aleatorios se obtienen de forma anloga al caso unidimensional. Cabe destacar por ltimo la expresin para la funcin caracterstica de un vector aleatorio: Funcin caracterstica conjunta: Sea

(X1 ,

, X n ) un vector aleatorio basado en un

espacio de probabilidad (,,P). Su funcin caracterstica conjunta esta dada por:

X1,, X n (u1, , u n ) = E [exp i (u1 X 1 +

+ u n X n )] = + u n x n )f (x1,, x n )dx1 dx n

exp i (u1 x1 +

Ha de entenderse la ltima integral de esta expresin como una sumatoria en el caso en que ( X 1 ,

, X n ) sea un vector aleatorio discreto.

Como ltimo punto en este aparte, cabe observar que cada una de las variables aleatorias X i que conforman el vector aleatorio

(X1 ,

, X n ) est asociada a un

mismo espacio probabilizado, por lo cual cada una de estas variables tiene su propia funcin de probabilidad (de densidad de probabilidad, si es continua). En el contexto de las variables aleatorias multidimensionales, la funcin de probabilidad (o de densidad) de cada variable aleatoria por separado se conoce como funcin de probabilidad (densidad) marginal y se obtiene a partir de la funcin de probabilidad conjunta sumando (o integrando) a travs de las variables aleatorias restantes. As por ejemplo, si tenemos el vector aleatorio ( X ,Y ) con su funcin de probabilidad conjunta p(x, y ) (o funcin de densidad f (x, y ) si

( X ,Y )

es continua), podemos

obtener la funcin de probabilidad marginal del siguiente modo:

p X (x ) =

y Rango Y

p(x, y )

(o f X (x ) =

f (x, y )dy si ( X,Y ) es continua)


Rango Y

En el caso de variables aleatorias de ms de dos dimensiones, tendremos sumatorias o integrales mltiples, a fin de sumar a travs de las variables aleatorias restantes.

16

1.6.

Variables aleatorias independientes y su caracterizacin. Covarianza. Distribucin de la suma de dos o ms variables aleatorias independientes. Convolucin.

El anlisis de las relaciones entre las variables aleatorias de un modelo probabilstico tiene mucho que ver con el concepto de la independencia entre variables aleatorias. Intuitivamente, decimos que dos variables aleatorias son independientes si el resultado observado de una variable no afecta la ocurrencia del valor observado en la otra variable. Otra manera intuitiva de abordar la idea es considerando que si dos variables aleatorias son independientes, la distribucin de probabilidades de una de ellas permanece igual a travs de todos los posibles valores que asuma la otra variable, lo cual guarda relacin directa con la posibilidad de factorizar la funcin de probabilidad conjunta como el producto de las respectivas funciones de probabilidad marginales. A modo de ilustrar, se considera el siguiente ejemplo: en una poblacin, se observa la raza o grupo tnico de cada persona conjuntamente con su nivel de inteligencia medida a travs del coeficiente intelectual. Si el nivel de inteligencia de un individuo es independiente de su grupo racial u origen tnico, se observar que las proporciones de individuos inteligentes, normales y subnormales permanecern iguales sin importar el grupo racial o tnico considerado. Valga este ejemplo para sealar otro aspecto importante sobre las relaciones de dependencia entre variables aleatorias: la estadstica se limita a discernir si ciertos niveles de una variable van acompaados por ciertos niveles de otra variable- las tcnicas estadsticas clsicas no permiten discernir sobre las relaciones de causalidad de unas variables sobre otras. En nuestro ejemplo, si encontrsemos que el origen racial no es independiente del nivel de inteligencia de un individuo, no por esto pudisemos concluir que ciertas razas son ms inteligentes que otras o dicho de otro modo, que el origen racial de un individuo explica su bajo o alto coeficiente intelectual. Ms bien, en este caso, el investigador debera evaluar si el instrumento de medicin de la inteligencia est o no diseado de forma sesgada para favorecer a los individuos de cierta raza por sobre los individuos de otras razas. En todo caso, si la dependencia estocstica es equivalente a la causalidad, eso es algo que debe responderse fuera del mbito probabilstico. Otro error comn en cuanto al concepto probabilstico de independencia, por lo menos en base a la experiencia docente del autor, es aquel de sealar dos eventos

17

mutuamente excluyentes como aquellos que son independientes entre s. De hecho, se da justamente lo contrario: si dos eventos son mutuamente exclusivos, la ocurrencia de uno determina la no ocurrencia del otro, por lo cual jams pueden considerarse eventos independientes. Es importante aclarar todos estos puntos en torno a la nocin de independencia estocstica porque un aspecto importante en el anlisis de los procesos estocsticos es determinar si el estado del proceso en un instante de tiempo es independiente de su estado en otro instante. bastante el anlisis del proceso estocstico. Seguidamente se dan algunas caracterizaciones de la independencia de las variables aleatorias conjuntamente distribuidas: i. Caracterizacin de la independencia en trminos de sus funciones de probabilidad Un conjunto de variables aleatorias conjuntamente distribuidas se dice ser independiente si y solo si su funcin de probabilidad conjunta se puede factorizar como el producto de las funciones de probabilidad de cada variable: Como se ver, la suposicin de la independencia entre los estados del sistema en distintos instantes de tiempo simplifica

p(x1,, x n ) = p X1 (x1 )

p X n (x n )

Si el vector aleatorio es continuo, se intercambia funcin de probabilidad por funcin de densidad en esta caracterizacin. ii. Caracterizacin de la independencia en trminos de sus funciones de distribucin Para toda n-pla de valores (x1 ,

, x n ) , se tiene que

FX1,, X n (x1,

, x n ) = FX1 (x1 ) FX n (x n )

iii. Caracterizacin de la independencia en trminos de la esperanza matemtica Para toda n-pla de funciones (g1 , esperados en la siguiente ecuacin:

, g n ) donde existan los respectivos valores

E [g1 ( X 1 ) g n ( X n )] = E [g1 ( X 1 )] E [g n ( X n )]

18

En palabras: la esperanza del producto de variables aleatorias conjuntamente distribuidas es igual al producto de los valores esperados de cada variable. De esta caracterizacin de independencia se deduce que la varianza de la suma de variables aleatorias conjuntamente distribuidas e independientes es igual a la suma de las respectivas varianzas: V X 1 + + X n = V X 1 + + V X n

[ ]

[ ]

iv. Caracterizacin de la independencia en trminos de su funcin caracterstica La funcin caracterstica de un vector aleatorio conjuntamente distribuido es igual al producto se las funciones caractersticas de cada variable aleatoria respectiva cuando estas son independientes. Dicha caracterizacin se infiere de la propiedad anterior para el valor esperado del producto de variables aleatorias independientes.

X1,, X n (u1, , u n ) = X1 (u1 ) X n (u n )


Esta caracterizacin de independencia es muy til. Permite por ejemplo concluir que la suma de n variables exponenciales idnticamente distribuidas e independientes es una variable aleatoria gamma Segn las distintas caracterizaciones de independencia vistas, se tiene que dos variables aleatorias, o son independientes o no lo son. Pero si hemos de establecer un grado o la magnitud de la dependencia entre dos variables, una medida sera la covarianza, cuya definicin es:

cov [X ,Y ] = E [( X E [X ])(Y E [Y ])] = E [X Y ] E [X ] E [Y ]


Es de notar que si dos variables aleatorias X e Y son independientes, las esperanzas en la expresin del extremo derecho de estas igualdades se cancela- consecuentemente, si dos variables aleatorias son independientes, su covarianza es cero, aunque no podemos establecer de modo general la implicacin contraria. La covarianza puede ser negativa o positiva, sin embargo, a fin de acotar la covarianza y establecer comparaciones entre los grados de dependencia de dos o ms pares de variables aleatorias se define a partir de la covarianza el coeficiente de correlacin:

19

[X ,Y ] =

V [X ] V [Y ]

cov[X ,Y ]

el cual se puede demostrar que est acotado entre -1 y 1 2. En realidad, el coeficiente de correlacin mide el grado de linealidad en la relacin de dos variables. Si es -1, se tiene que entre X e Y existe una relacin lineal decreciente perfecta: una variable se puede expresar como funcin afn de la otra y si una variable crece, la otra decrece. En cambio =1 representa una relacin lineal creciente perfecta: una variable aleatoria es funcin afn de la otra y ambas decrecen o crecen simultneamente. Si es cero, no existe ninguna relacin de linealidad entre una y otra variable, pero como ya se dijo anteriormente, esto no implica necesariamente que las variables en cuestin sean independientes. Dicho sea de paso, existen otras medidas de correlacin un tanto ms robustas que no toman la linealidad en cuenta, como por ejemplo el coeficiente de correlacin de rango de Spearman y el coeficiente de correlacin de rango de Kendall entre otros 3. El concepto de independencia entre dos variables y sus caracterizaciones en trminos de la esperanza matemtica de su producto tienen como consecuencia un mtodo sencillo para obtener la distribucin de probabilidad de la suma de dos o ms variables aleatorias. Se puede demostrar que si X e Y son dos variables aleatorias continuas e independientes entonces su funcin de densidad est dada por:

f X +Y (y ) =

f X (x ) fY (y x )dx

Para el caso continuo, la funcin de probabilidad de X+Y para dos variables independientes es:

p X +Y (y ) = p X (x ) pY (y x )
x

Integrales como la de arriba se denominan bajo el nombre de convolucin. En algunos textos de matemticas la convolucin de dos funciones f y g se escribe fg, de modo que f X +Y (y ) = f X fY . El clculo de tales integrales (o sumatorias en el caso discreto) puede resultar algo tedioso- es de este punto de donde las funciones caractersticas
2 3

Ver la demostracin del Teorema 7.11 en MEYER, p. 145 Ver el capitulo 9 de SPIEGEL.

20

derivan su importancia. Ya que la esperanza del producto de dos variables aleatorias independientes es igual producto de sus respectivas esperanzas, se tiene que:

E e iu ( X +Y ) = E e iuX e iuY = E e iuX E e iuY


y en consecuencia

] [

] [ ] [ ]

X +Y (u ) = X (u ) Y (u ) . En base a esta frmula, se puede

determinar la distribucin de la suma de variables aleatorias independientes observando la funcin caracterstica de la suma. Con este resultado, se explica fcilmente porqu la suma de variables exponenciales independientes de idntico parmetro tiene una distribucin gamma, por ejemplo. Esta formula ser de utilidad en el anlisis de ciertos procesos estocsticos.

Ejemplo para las secciones 1.5 y 1.6


A fin de consolidar tu aprendizaje de los conceptos expuestos en las secciones anteriores sobre variables multidimensionales e independencia, considera el problema a continuacin: Se lanzan dos dados y en atencin al resultado, se definen las dos variables aleatorias siguientes-

X representa la suma de las dos caras resultantes en el lanzamiento de los dados. Y es una variable aleatoria dicotmica que asume el valor de 1 si la cara del primer
dado es divisible entre 2 o 3, y 0 si no lo es. Determina la funcin de probabilidad conjunta de la variable aleatoria bidimensional (X,Y ) as como la funciones de probabilidad marginales de X y de Y. Adicionalmente, indica si las dos variables aleatorias en cuestin son mutuamente independientes. Solucin: Primero, debemos identificar el espacio muestral subyacente al experimento aleatorio asociado al lanzamiento de los dos dados. Dicho espacio muestral se puede definir (o modelar, si prefieres) mediante el siguiente conjunto de pares ordenados:

21

= {(d1, d 2 ) d1, d 2 N, 1 d1, d 2 6}


En palabras, es el conjunto de todos los pares ordenados de nmeros tal que cada nmero representa una de las posibles seis caras del dado respectivo. Dicho conjunto tiene 36 elementos y asumiendo que los dados son justos y que el lanzamiento de un dado no condiciona el lanzamiento del otro, cada uno de estos 36 eventos elementales del espacio muestral tiene una probabilidad asociada de 1 36 . Traduccin al castellano: los posibles resultados de lanzar dos dados son equiprobables. A partir de este conjunto definimos las dos variables aleatorias como en el enunciado del problema. Estas variables pueden considerarse como caractersticas numricas que estarn asociadas a cada evento elemental o individuo de la poblacin. En conjunto, se esquematiza todo esto en una tabla:

i
1 2 3 4 5 6 7 8 9 10 11 12

i
(1,1) (1,2) (1,3) (1,4) (1,5) (1,6) (2,1) (2,2) (2,3) (2,4) (2,5) (2,6)

X ( i )
2 3 4 5 6 7 3 4 5 6 7 8

Y ( i )
0 0 0 0 0 0 1 1 1 1 1 1

i
13 14 15 16 17 18 19 20 21 22 23 24

i
(3,1) (3,2) (3,3) (3,4) (3,5) (3,6) (4,1) (4,2) (4,3) (4,4) (4,5) (4,6)

X ( i )
4 5 6 7 8 9 5 6 7 8 9 10

Y ( i )
1 1 1 1 1 1 1 1 1 1 1 1

i
25 26 27 28 29 30 31 32 33 34 35 36

i
(5,1) (5,2) (5,3) (5,4) (5,5) (5,6) (6,1) (6,2) (6,3) (6,4) (6,5) (6,6)

X ( i )
6 7 8 9 10 11 7 8 9 10 11 12

Y ( i )
0 0 0 0 0 0 1 1 1 1 1 1

Observamos que la v.a. X asume valores entre 2 y 12 (11 posibles valores), mientras que Y asume dos posibles valores- 0 y 1. Para obtener las probabilidades conjuntas, construimos una tabla de 11 columnas (cada columna representa un posible valor de X ) y 2 filas (los dos posibles valores de Y ). En cada celda, se indica la probabilidad 22

respectiva con que ocurre el valor (x,y). Estas probabilidades se obtienen a partir de la tabla anterior. Por ejemplo, el par ( X ,Y ) = (8,1) ocurre 4 veces en 36 casos. Por lo tanto su probabilidad es igual a 4 36 y este valor es el que colocamos en la celda respectiva. Para variables aleatorias bidimensionales discretas, dicha tabla se conoce como tabla de contingencia: X 2 Y 0 1
1/36 0

3
1/36 1/36

4
1/36 2/36

5
1/36 3/36

6
2/36 3/36

7
2/36 4/36

8
1/36 4/36

9
1/36 3/36

10
1/36 2/36

11
1/36 1/36

12
0 1/36

A esta tabla de contingencia podemos agregarle las respectivas funciones de probabilidad marginales (que son f X (x ) y fY (y ) ) totalizando las probabilidades de las celdas y de las columnas: X 2 Y 0 1 3 4 5 6 7 8 9 10 11 12
0

Totales

fY (y )
12/36 24/36 1

1/36 1/36 1/36 1/36 2/36 2/36 1/36 1/36 1/36 1/36 0

1/36 2/36 3/36 3/36 4/36 4/36 3/36 2/36 1/36 1/36

f X (x )

1/36 2/36 3/36 4/36 5/36 6/36 5/36 4/36 3/36 2/36 1/36

Con las funciones de probabilidad marginales de X e Y podemos verificar si estas variables son independientes. Recordemos que una de las definiciones o caracterizaciones de independencia requiere que la funcin de probabilidad conjunta sea factorizable por las respectivas funciones de probabilidad marginales, es decir, que se cumpla p(x, y ) = p X (x ) pY (y ) para todo x,y. Si tomamos, por ejemplo, x=3 e y=0, tenemos

p(x, y ) = p(3, 0) =

1 , 36

pero p X (x ) pY (y ) =

12 2 1 y claramente se tiene que = 36 36 54


23

p(x, y ) p X (x ) pY (y ) y por lo tanto X e Y no son independientes.


Han podido considerarse otras instancias de x e y, pero bstese que no se cumpla

p(x, y ) = p X (x ) pY (y ) para una instancia para que el par X,Y no sea independiente.
Este resultado tiene una lectura intuitiva: para que la suma X sea 2, es necesario que D1 no sea divisible entre 2 o 3. Por otro lado, para que X sea 12, es necesario que D1 sea divisible entre 2 y 3, porque tanto D1 como D2 son necesariamente iguales a 6. Por lo tanto, vemos que la divisibilidad de D1 por 2 o 3 condiciona la suma X; de hecho, se observa que para distintos valores de X las proporciones de las probabilidades conjuntas para los casos Y=0 o Y=1 son distintas. Todo esto confirma que X e Y son mutuamente dependientes, aunque el grado de dependencia no es total. Otra cosa que seguramente habrs notado es la razn por la cual las funciones de probabilidad individuales de X y de Y se denominan funciones de probabilidad marginales: siendo totales de columnas y de filas, se especifican en los mrgenes de la tabla de contingencia.

24

1.7.

Introduccin a la simulacin estocstica mediante el lenguaje R.

El uso de la teora de la probabilidad para deducir algunas propiedades de un modelo aleatorio entraa cierta dificultad- se presenta casos en donde el anlisis terico de un matemtico experimentado sobre alguna situacin que involucra el azar es errado. adems nuestra formacin terica sobre las probabilidades es Si deficiente

(lamentablemente este es el caso ms comn), entonces esto dificulta an ms el abordaje de ciertos problemas. Pero teniendo una computadora, contamos con un instrumento epistemolgico que nos permite obtener conocimiento sobre el modelo aleatorio de forma experimental- este es el objetivo fundamental de la denominada simulacin. La simulacin, como la programacin misma, es un arte. No existe un procedimiento mecnico para hacer simulaciones. Lo que se requiere del analista es determinar detalladamente las reglas y la secuencia de acciones que rigen el comportamiento de los componentes del sistema a simular. Se deben establecer bien las relaciones de dependencia entre los componentes y deslindar aquellos comportamientos de componentes que son independientes de los dems comportamientos. Esta secuencia de acciones y comportamientos conforma un ciclo, anlogo a una partida de un juego. Como en las simulaciones se pretende determinar las probabilidades o los valores esperados, se deben realizar muchas iteraciones de estos ciclos para ver cual es su comportamiento a la larga. Es en este punto donde estriba el poder del computador como instrumento epistemolgico- el computador realiza esta mirada de clculos rpidamente, obteniendo la probabilidad o el valor esperado deseado a travs de la fuerza de computo bruto. Existen diversos lenguajes o paquetes para la investigacin estocstica. Entre estos, se escogi el lenguaje R como el principal para desarrollar los ejemplos y trabajos prcticos de este curso. El lenguaje R es un sistema para el anlisis estadstico y grfico, a la vez un entorno de programacin y aplicacin basado en el lenguaje S desarrollado por los Laboratorios AT&T Bell 4. Uno de los atractivos principales de R es que se distribuye libremente 5 bajo los trminos de la GNU General Public License.
4

PARADIS, p. 3 Los binarios para la instalacin de R, con la documentacin correspondiente se pueden descargar a travs de http://cran.r-project.org/

25

Aunado a esto, existen muchos programas en S disponibles a travs del Internet que se pueden ejecutar directamente bajo R 6. El lenguaje R, siendo un lenguaje de programacin orientado a objetos, incorpora sentencias bsicas de bucles y condicionamiento junto con herramientas sofisticadas de alto nivel para el anlisis estadstico, lo cual le da una enorme flexibilidad. Por todas estas razones, el lenguaje R tiene cada vez ms preponderancia en el mundo acadmico y estocstica. A modo de ilustrar lo que es una simulacin, se comienza con un ejemplo extrado de un concurso en un programa de televisin britnico que consiste en lo siguiente: el concursante se encuentra ante tres puertas entre las cuales debe escoger una. Detrs de una de las puertas se encuentra un carro y detrs de cada una de las otras dos un apestoso animal (una cabra). El trato es el siguiente, el animador (que sabe donde se encuentra el carro) abre una puerta obviamente diferente a la que el jugador escogi y a la que contiene el carro, revelando una flamante cabra. Luego se le pregunta al concursante si desea abrir otra puerta o mantiene su eleccin. Que es ms ventajoso para el concursante? Cul es la probabilidad de ganar si el jugador cambia de puerta? Muchas personas, inclusive matemticos, concluyen errneamente que no es particularmente ms ventajoso cambiar de puerta razonando que una vez que el animador abre una de las puertas que no contiene el carro, las probabilidades de ganar o perder son iguales (1/2) si se cambia de puerta o no. Sin embargo, un anlisis cuidadoso de las probabilidades demuestra que la probabilidad de ganar cambiando de puerta es de 2/3. Se deja como tarea verificar esto de forma terica. En lo que sigue nos interesa ms bien simular la situacin. Para esto debemos especificar lo ms detalladamente posible la secuencia de pasos en cada juego: en la investigacin

Consultar en http://stat.cmu.edu/S/

26

El Juego de Monty Hall

Primero, se esconde el carro detrs de una de las tres puertas (al azar). El jugador selecciona una de las tres puertas (escoge al azar) El animador (Monty Hall), sabiendo donde est el carro, escoge una puerta que no sea la que opt el concursante ni la que contiene el carro y la abre, revelando que hay una cabra detrs de esa puerta. Si queda una sola puerta elegible con esas condiciones, Monty la escoge. De lo contrario, si hay dos puertas elegibles, Monty escoge cualquiera de las dos al azar. Como en la simulacin queremos determinar la probabilidad de ganar si el concursante cambia de puerta, hacemos que el jugador opte una segunda vez por la puerta que no seleccion la primera vez ni por la puerta que acaba de abrir Monty. Si la segunda puerta que escogi el concursante es igual a la puerta detrs de la cual estaba el carro el concursante gana.

Este ciclo se repite un nmero N arbitrariamente elevado de veces a fin de determinar la proporcin de veces que el concursante gana. Segn la ley de los grandes nmeros, si el nmero de iteraciones es lo bastante elevado, esta proporcin se acercar a la probabilidad verdadera de 2/3. A continuacin se indica el cdigo en R para esta simulacin junto con el resultado arrojado por la misma, que es de 0.6688, lo cual como se podr apreciar, se acerca bastante a 2/3.
#simulacin del concurso de Monty Hall #problema descrito en el aparte 1.7. de los apuntes del curso #"Procesos Estocsticos", dictado en la UNEFA San Tom #Autor: Prof. Jos L. Romero P. fecha: 10/8/2007 #-----------------------------------------------------cnt<-0 puertas=c(1,2,3) N=10000 for (i in 1:N) { puerta.premio=sample(puertas,size=1,replace=TRUE) primera.puerta.jugador=sample(puertas,size=1,replace=TRUE) otras.puertas=setdiff(puertas,union(puerta.premio,primera.puerta.jugador)) ifelse((length(otras.puertas)==1),monty.abre.puerta<-otras.puertas, monty.abre.puerta<-sample(otras.puertas,size=1,replace=TRUE)) segunda.puerta.jugador=setdiff(puertas,union(primera.puerta.jugador, monty.abre.puerta)) if (segunda.puerta.jugador==puerta.premio) cnt<-cnt+1 } cat("La probabilidad de ganar en N=",as.character(N)," ensayos del juego es ", cnt/N,".\n")

La probabilidad de ganar en N=10000 ensayos del juego es 0.6688.

27

Otro ejemplo de cmo determinar probabilidades mediante simulaciones se desarrolla a partir del siguiente problema:

El Encuentro
Dos hombres de negocios deciden encontrarse en algn lugar entre las 10 y 11am, cada uno acordando no esperar ms de 10 minutos por el otro. Cul es la probabilidad de que se encuentren si cada uno llega independientemente del otro y en cualquier instante aleatorio en el lapso de esa hora?

Para comenzar, denotemos por X e Y el instante de tiempo dentro de una hora a la cual llega cada empresario respectivamente. Segn la ltima parte del enunciado que establece que cada uno llega independientemente del otro y en cualquier instante aleatorio en el lapso de esa hora, se desprende que tanto X como Y son variables aleatorias continuas independientes y uniformemente distribuidas entre 0 y 60 (se trabajar el problema en base al lapso de 60 minutos). Para que los empresarios se encuentren, la diferencia en valor absoluto de los tiempos de llegada de uno y otro debe ser menor o igual a 10 minutos. Es decir, se quiere calcular P X Y 10 .

Claramente, esta diferencia en valor absoluto varia entre 0 y 60 minutos, pero an no se ha determinado la distribucin de probabilidad de X Y .

Se supone que en este nivel, debes haber podido realizar el anlisis del problema hasta ese punto, aunque quizs no sepas como proceder a partir de ah- es precisamente en ayudar a dilucidar este tipo de situaciones en que radica la vala de una simulacin. Para el problema en cuestin, esta va a consistir bsicamente en generar una distribucin emprica de un nmero suficientemente grande de valores X Y basados en nmeros aleatorios uniformemente distribuidos segn lo expuesto en el anlisis previo. Sin ms prembulos, se da el cdigo de la simulacin en R a continuacin: 28

#Problema: dos personas deciden encontrarse entre las 10 y 11am, acordando #que quien llegue primero no esperar ms de 10 minutos por el otro. #personas llegan al azar independientemente de la otra, determinar la #probabilidad de que se encuentren. #Solucin por simulacin: #(Autor: Prof. Jos L. Romero P. - 18/08/2007) N=1000000 #cual es la distribucin de |X-Y| si X e Y son Unif(0,60) e independientes? x<-abs(runif(n=N,min=0,max=60)-runif(n=N,min=0,max=60)) obhist=hist(x,br=60,right=FALSE,plot=FALSE) pdf(file="encuentro.pdf") plot(obhist,freq=FALSE, main="Histograma de frecuencia",ylab="denisdad de probabilidad emprica") abline(a=(60/1800),b=-1/1800,col="red") legend(x=25,y=0.033,legend="Funcin de densidad teorica",fill="red") #cual es la probabilidad requerida? plot.new() x<-as.integer(x<=10) probabilidad<-mean(x) text(0,1,"Clculo mediante simulacin de los valores requeridos", adj=c(0,0),cex=1.1) text(0,0.9,paste("Probabilidad de que las dos personas se encuentren: ", probabilidad),adj=c(0,0),cex=0.8) lines(c(0,1),c(0.98,0.98)) (Problema en el aparte 1.7 del texto) Si ambas

Dicha simulacin gener la siguiente salida- el histograma

29

y la probabilidad terica:

Cmo lo hizo y que significa la lnea roja en el histograma? En primer lugar, se genero una muestra de N=1000000 de valores X Y aleatorios. Seguidamente, se grafic el histograma de frecuencias con los mtodos hist y plot de R. Esto gener un

histograma como el de la pgina anterior, sin la lnea roja an. Obsrvese que los rectngulos son levemente irregulares, pero sus alturas decrecen en forma sorprendentemente regular y lineal. La lnea roja, como funcin de densidad terica, parece ajustarse bien, por lo menos intuitivamente, a lo observado. En este punto nos damos cuenta que la funcin de densidad de X Y debe ser un segmento de recta decreciente entre 0 y 60 como la lnea roja en el grafico. Un anlisis ms profundo revela lo siguiente: La funcin de densidad de probabilidad de X Y esta dada por

f X Y (d ) = 2

60 d

1 60
2

dt =

60 d , donde d asume valores entre 0 y 60. 1800

La motivacin de dicha frmula viene de notar que el evento correspondiente a la diferencia X Y es exactamente igual a d se verifica para X [0,60 d ], Y = X + d (suponiendo X mayor o igual a Y), la integral viene a representar la masa de probabilidad total para cada uno de estos casos. El factor de 2 a la izquierda de la integral se debe a que X Y o Y X . Dicha funcin evidencia ser una funcin de densidad legtima pues su integral a travs de los valores posibles de d es igual a uno:
60

f X Y (z )dz =
0

60

60 z z z 2 60 =1 dz = 1800 30 3600 0 0

Observando el cdigo R de la simulacin, se evidencia que el segmento lineal rojo trazado sobre el histograma de frecuencias empricas se corresponde a la funcin lineal

f X Y (d ) , a partir de la cual se puede calcular fcilmente la probabilidad deseada:

30

P { X Y 10} = f X Y (z )dz =
0

10

z z 2 10 1 1 11 = = = 0,3055 30 3600 0 3 36 36

Como se puede ver, el resultado de la simulacin (0,305779) se corresponde con bastante exactitud al resultado terico. En este curso se har un uso intensivo de simulaciones como estas para apoyar los resultados sobre los procesos estocsticos deducidos tericamente. La discusin detallada sobre la sintaxis del lenguaje R o las tcnicas de simulacin per se son marginales a los objetivos principales de curso- por esto incluyo un breve apndice sobre lenguaje R y la documentacin disponible como anexo de este material. Lo importante es que sigas con detenimiento la exposicin de cada uno de los ejemplos de implementacin de simulaciones y trates de compaginar esto con el desarrollo terico de cada problema. As mismo, te invito a dilucidar cualquier otro aspecto terico de la teora de la probabilidad y de los procesos estocsticos por ti mismo implementando simulaciones.

31

Problemas Propuestos

1)

Define, en tus propias palabras, los siguientes conceptos: a) Espacio muestral b) Evento c) Variable aleatoria d) Funcin de distribucin de probabilidad e) Funcin de probabilidad f) Funcin de densidad

2)

Define el espacio muestral asociado al siguiente experimento aleatorio: Un lote contiene 10 artculos, 3 de los cuales son defectuosos. Se extrae un artculo a la vez de este lote, sin reemplazo, hasta haber obtenido todos los artculos defectuosos y se observa la cantidad de artculos que quedan en el lote.

3)

Un jugador italiano expres su sorpresa a Galileo por observar que al jugar con tres dados, la suma 10 aparece con ms frecuencia que la 9. Segn el jugador los casos favorables al 9 y al 10 seran respectivamente: Casos favorables a 9: 1 1 1 2 2 3 2 3 4 2 3 3 6 5 4 5 4 3 Casos favorables a 10: 1 1 2 2 2 3 3 4 2 3 4 3 6 5 6 5 4 4

Pero Galileo, en su libro Considerazione sopra il giuoco dei dadi, vio que estas combinaciones no se pueden considerar igualmente probables. Explica por qu y calcula las correspondientes probabilidades. mediante una simulacin? Como dilucidaras el problema

32

4)

Define independencia entre eventos y eventos mutuamente excluyentes. Cul es la diferencia entre estos dos conceptos?

5)

En una lnea de produccin de una fbrica en China se produce cierto tipo de artculo y de esta produccin, el 10% de los artculos salen defectuosos. Debido a la naturaleza del proceso de fabricacin, esta probabilidad es constante para cada artculo individual en la lnea de produccin. Un inspector de calidad visita la fabrica y toma una muestra aleatoria de 4 artculos. Cul es la probabilidad de que encuentre uno o ms artculos defectuosos?

6)

En la republica Bolivariana de Venezuela se producen en promedio 200 casos de corrupcin administrativa semanalmente, segn un proceso de Poisson. De estos casos de corrupcin, solo el 1% concluye en crcel para los culpables. Cul es la probabilidad de que en la prxima semana se produzcan 2 o ms delitos de corrupcin punibles?

7)

Sea T el tiempo de vida en horas de un componente distribuido exponencialmente con tiempo de vida promedio de 5 horas. Calcula las siguientes probabilidades: a) P [T > 3] b) P [T = 5] c) P [4 T < 6]

8)

Dos bolas idnticas se distribuyen en tres urnas numeradas. Este experimento aleatorio tiene 6 resultados posibles cuyas probabilidades se dan respectivamente (cada elemento en los vectores de resultados representan la cantidad de bolas en la urna correspondiente):
Resultado (2,0,0) (1,1,0) (1,0,1) Probabilidad 1/9 2/9 2/9 Resultado (0,1,1) (0,2,0) (0,0,2) Probabilidad 2/9 1/9 1/9

Elabora un programa en R que calcule de forma aproximada la probabilidad de observar el resultado (2,0,0). Dicho programa debe simular el experimento

33

aleatorio descrito un numero N suficientemente grande de veces y estimar dicha probabilidad mediante la proporcin de veces que se obtiene el resultado (2,0,0) con respecto al nmero total de ensayos N. 9) Se efecta un curioso duelo con pistolas entre tres personas, cada uno con una determinada probabilidad de acertar el tiro segn se indica a continuacin: participante A : 0,3 participante B : 1 participante C: 0,5 En este duelo, comienza el participante A, luego le toca el turno a B y por ultimo a C. Comienza la ronda nuevamente en el mismo orden hasta que quede un solo hombre en pi, eliminando sucesivamente a aquellos que reciban un tiro. El participante A debe escoger entre dos estrategias al comienzo del duelo: disparar a B o disparar al aire. Si dispara al aire, no elimina a nadie. Tocndole el turno a B, este elimina a C y cuando le toque el turno a A nuevamente, este tiene una probabilidad de 0,3 de eliminar a B y as ganar el duelo. Si le dispara primero a B, podra eliminarlo e intercambiar disparos indefinidamente con C hasta eliminarlo. Cul es la probabilidad de que A gane el duelo si emplea esta segunda estrategia? Es menor o mayor que la probabilidad de ganar disparando al aire la primera vez? Determina esta probabilidad analticamente y mediante una simulacin en R.

34

Capitulo 2- Introduccin a los procesos estocsticos. Terminologa y nociones preeliminares


2.1. Definicin y ejemplos de procesos estocsticos.

Los procesos estocsticos son bsicamente fenmenos cuyo comportamiento se desarrolla en el tiempo y se rige por las leyes de las probabilidades 7. Ejemplos de tales fenmenos son: el movimiento browniano de una partcula, el crecimiento de una poblacin tal como una colonia bacterial, el tamao de una cola en una estacin cliente/servidor, la recepcin de una seal en presencia de ruido o perturbaciones, los precios de un bien en un lapso de tiempo, las fluctuaciones de fortuna en un juego de azar, etc. Existen caracterizaciones de procesos estocsticos cuya variable no es el tiempo, sino la ubicacin espacial. Ejemplos de estos procesos estocsticos espaciales son la distribucin geogrfica de especies de plantas o animales y es estudio de epidemias, donde el contagio de una enfermedad en un sitio depende de su proximidad con otros sitios infectados. El inters principal de este curso es ms bien sobre los procesos estocsticos temporales y no sobre los espaciales. Otro concepto relacionado es el de series cronolgicas- estas se refieren a las observaciones, o realizaciones en el tiempo de un proceso estocstico implcito y son objeto de estudio para los economistas principalmente. Habiendo hecho la suposicin que una serie cronolgica (correspondiente a los precios de una accin en la bolsa de valores, por ejemplo) es una realizacin de un proceso estocstico, los investigadores tratan de inferir estadsticamente a partir de las observaciones, las leyes que gobiernan el proceso a fin de predecir ciclos o valores futuros. Para efectos matemticos, un proceso estocstico es una sucesin de variables aleatorias, cada una de las cuales describe el estado del sistema en un instante de tiempo dado. Esta definicin es adecuada porque abarca los siguientes aspectos: 1) el
7

La palabra estocstico es de origen griego, proviene de stokhos, que significa objetivo, o Stokhastikos, como adjetivo, alude a apuntar bien, a quin es hoy en da

blanco en el juego de dardos.

hbil para conjeturar. El adjetivo estocstico fue incorporado al lexico matemtico en 1953- no est del todo claro como adquiri la acepcin pertinente a aleatorio usada (REBOLLEDO, 5)

35

estado del sistema en un tiempo determinado es variable, y su variabilidad se debe a mecanismos aleatorios, 2) la variable aleatoria del estado del sistema es una funcin que depende del tiempo y en consecuencia, su distribucin est determinada por el instante de tiempo que se considere, 3) si se consideran los estados de un sistema en distintos instantes de tiempo conjuntamente, se puede conceptuar un proceso estocstico como un vector aleatorio n-dimensional. Resumiendo: Definicin (Proceso estocstico) Un proceso estocstico es una sucesin o conjunto de variables aleatorias (,,P) . En esta definicin, t es el parmetro de tiempo, el cul toma valores en un conjunto T denominado conjunto ndice. Segn sea T un conjunto numerable o no, el proceso estocstico ser de parmetro discreto o continuo, respectivamente. Usualmente, el valor nfimo de T es 0, pues se analizarn los procesos estocsticos a partir de un instante de tiempo 0. Los procesos estocsticos de parmetro discreto se denotan por

{X (t ), t T }

definidas sobre un espacio de probabilidad comn

{X i , i = 0,1,2,} . Las variables aleatorias

X (t ) toman valores en un espacio medible

llamado espacio de estados (state-space en ingles). Si se tiene un proceso estocstico y se fija algn , la funcin t X t ( ) se llama trayectoria del proceso estocstico X. Para aclarar un poco estos conceptos, considrese el siguiente ejemplo: se cuenta el nmero de personas que entran a un banco entre las 9 y 10 am. Definimos el conjunto ndice como el conjunto de todos los posibles instantes de tiempo entre las 9 y 10am- el proceso estocstico es por lo tanto de parmetro continuo. Considerando que estamos interesados en la cantidad de personas que han entrado en cierto instante de tiempo, definiramos el espacio de estados como el conjunto de todos los valores enteros no negativos. Por ltimo, si consideramos una realizacin del proceso estocstico antes descrito para un da especifico, digamos el 29 de agosto de este ao, tendramos una trayectoria del proceso. Dado un conjunto finito de n ndices en T {t1,, t n } ,

( X (t1 ),, X (t n ))

es un vector

aleatorio n-dimensional que genera la funcin de distribucin en R n dada a continuacin:

36

Ft1,,tn (x1,, x n ) = P {X (t1 ) x1 ,, X (t n ) x n }


Tales funciones de distribucin se conocen como las funciones de distribucin finitodimensionales del proceso estocstico y generalmente, un proceso estocstico se determina conociendo todas sus funciones de distribucin finito dimensionales, aunque esto no es siempre cierto, como se evidencia en el siguiente contraejemplo- Sea

= [0,1] y P la distribucin uniforme en [0,1], de modo que el experimento bsico


consiste en escoger un nmero al azar en [0,1]. Sobre este espacio de probabilidades se definen dos procesos: a. b.

{X (t ), t [0,1]} definido por X (t, ) = 0 para todo t,. {Y (t ), t [0,1]} definido por
0 X (t , ) = 1 si t si t =

Y(t) se puede considerar como un proceso que da un salto discontinuo en un instante de tiempo aleatorio marcando la ocurrencia de algn evento en ese instante, tal como por ejemplo una explosin. Se puede ver intuitivamente que ambos procesos X e Y tienen las mismas funciones de distribucin finito dimensionales y sin embargo, no son el mismo proceso. En la prctica, es muy difcil, sino imposible, obtener las funciones finito-dimensionales para todo conjunto de ndices {t1 ,, t n } y todo n, por lo cual se definen las funciones de distribucin de primer y segundo orden. La funcin de distribucin de primer orden se corresponde a la distribucin de la variable aleatoria en un tiempo determinado:

Ft0 (x 0 ) = P {X (t 0 ) x 0 }
Si estamos interesados en relacionar el comportamiento de un proceso estocstico en dos instantes de tiempo utilizamos la funcin de distribucin de segundo orden:

Ft1,t 2 (x1, x 2 ) = P {X (t1 ) x1, X (t 2 ) x 2 }

37

2.2.

Probabilidad y esperanza condicional. Definiciones y propiedades.

Las nociones de probabilidad y esperanza condicional juegan un papel importante dentro del estudio de los procesos estocsticos. Seguramente el lector esta familiarizado con las nociones de probabilidad condicional relativas a eventos y de algunos resultados consecuentes como el teorema de la probabilidad total y el teorema de Bayes- estas nociones generalmente se exponen en las primeras partes de cualquier curso elemental de probabilidades. Repasando, la probabilidad condicional de que ocurra un evento A conociendo la ocurrencia de un evento B es:

P (A B ) =

P (A B ) , la cual tiene sentido si la probabilidad de B es no-nula. P (B )

Esta nocin se puede extender al condicionamiento de una variable Y por otra variable X si X e Y son discretas.

P (Y = y n X = x m ) =

P (Y = y n X = x m ) p X ,Y (x m , y n ) = , P(X = xm ) p X (x m )

[2.1]

donde p X ,Y es la funcin de probabilidad conjunta del par aleatorio ( X,Y ) . La variable aleatoria discreta que tiene tal funcin de probabilidad se denota por Y X = x m . Se recalca que Y X = x m es una variable aleatoria que asume valores y n con las probabilidades condicionales indicadas arriba. Adems, si X e Y son independientes,

Y X = x m e Y tienen la misma distribucin. Siendo Y X = x m una variable aleatoria,


tiene su esperanza matemtica asociada, que es:

E [Y X = x m ] =

y P (Y = y X = x m ) , que est definida para p X (x m ) no nulo.


sobre y

A medida que x m varia a travs del espacio de probabilidad inducido por X, la esperanza anterior asume los valores correspondientes por lo cual se puede considerar la esta como una funcin dependiente de las instancias particulares de X:

f ( ) = E [Y X = ] =

y P (Y = y X = )
sobre y

[2.2]

38

La expresin 2.2 se lee esperanza condicional de Y dado que X vale . Como representa los posibles valores que toma la variable aleatoria X, se tiene que f ( X ) es una variable aleatoria tambin.

f ( X ) , mejor denotada por E [Y X ] , es de hecho la

esperanza condicional de la variable aleatoria Y condicionada por X. Se enfatiza que

E [Y X ] es una variable aleatoria, lo cual le puede parecer a primera vista extrao al

lector si est acostumbrado a considerar el valor esperado como una caracterstica numrica de la distribucin. No obstante, para que esta definicin nos sea de utilidad en el estudio de los procesos estocsticos, debemos de generalizarla an ms: Definicin (Esperanza condicional de Y dadas

X 1 , , X n ): Sean X 1 , , X n

variables aleatorias que toman valores en un conjunto E y sea Y otra variable aleatoria. La esperanza condicional de Y dada la sucesin X 1 , , X n es:

E [Y X 1 , , X n ] = f ( X 1 , , X n ) ,
donde f esta definida para cualquier vector 1 , , n , con i E por

f ( 1 ,, n ) = E [Y X 1 = 1,, X n = n ] =

y P (Y = y X 1 = 1,, X n = n )
sobre y

Esta

definicin

de

esperanza

condicional

se

puede

extender

al

caso

de

condicionamiento por variables aleatorias continuas si consideramos la funcin de densidad de probabilidad condicional en vez de la funcin de probabilidad dada en la ecuacin 2.1. En efecto

fY

X1, X n

(y x1,, x n ) =

f X1,, X n ,Y (x1,, x n , y ) f X1, X n (x1,, x n )

[2.3]

La consecuente redefinicin de la esperanza condicional para el caso de las

X 1 , , X n continuas es dada a partir de:

g ( 1 ,, n ) = E [Y X 1 = 1,, X n = n ] =

sobre y

y f (y 1,,. n )dy

[2.4]

39

La esperanza condicional comparte muchas de las propiedades de la esperanza matemtica que se trata en los cursos elementales de probabilidad, tales como:

Propiedad 1: E [c1Y1 + + c nYn X 1,, X m ] = c1E [Y1 X 1,, X m ] + + c n E [Yn X 1,, X m ]


Si Y puede escribirse como funcin de X 1 , , X n , es decir Y = f ( X 1 , , X n ) , entonces E Y X 1 , , X n = Y

Propiedad 2:

Propiedad 3: Como E [Y X1 , , X n ] es una variable aleatoria, esta tiene esperanza y es


E [E [Y X 1 , , X n ]] = E [Y ]

Propiedad 4: Para n, m 1 se tiene E [ E [Y X 1 , , X n + m ] X 1 , , X n ] = E [Y X 1 , , X n ] Propiedad 5: Sean X 1 , , X n y Y1 , ,Ym dos conjuntos de variables aleatorias tales que si
se conoce los valores de uno se puede determinar los valores del otro, entonces, para cualquier Y se tiene E Y X 1 , , X n = E Y Y1 , , Ym .

Propiedad 6:
siempre.

Si X e Y son independientes, entonces E X Y = E [X ] y E Y X = E [Y ] , casi

Los conceptos de probabilidad y esperanza condicional son imprescindibles para caracterizar los diversos tipos de procesos aleatorios- es a travs de las probabilidades y la esperanza condicional que se definen las relaciones de dependencia (o de independencia) entre los estados de un proceso aleatorio en distintos instantes de tiempo. Adems, la esperanza condicional y las probabilidades condicionales permiten abordar problemas como el que se enuncia a continuacin:

40

El Ladrn de Bagdad
El Ladrn de Bagdad se encuentra en un calabozo con tres puertas. Una de las puertas conduce a un tnel que luego de un da de camino regresa al mismo punto de partida. Otra de las puertas conduce a un tnel similar al anterior cuya travesa toma tres das. La tercera puerta conduce a la libertad. Asumiendo que el Ladrn escoge cualquiera de las tres puertas con igual probabilidad y que cada vez que escoge una puerta se le ha olvidado que hay detrs de cada puerta, encuentre la cantidad de das en promedio que el Ladrn pasar encerrado en el calabozo desde el momento en que primero escoge entre las tres puertas hasta que haya escogido la puerta que lo lleva a la libertad.
Cada vez que el Ladrn de Bagdad escoge una de las tres puertas constituye un ensayo de Bernoulli con 1/3 probabilidad de xito, entendiendo por xito abrir la puerta que conduce a la libertad. Un primer abordaje del problema nos motiva a considerar el nmero de ensayos N que realiza el ladrn antes de conseguir su libertad, lo cual sera una variable aleatoria geomtricamente distribuida. Pero aclarando que N representa el nmero de ensayos fallidos antes de escoger la puerta hacia la libertad, por lo cual su funcin de probabilidad y su valor esperado son los que se dan a continuacin:

pN (n ) = pq n para n = 0,1,2,
E [N ] = npq n = p nq n = pq nq n 1 = pq nq n 1 = pq
n =0 n =1 n =1 n =0

1 = q 1 q

pq

(1 q )

q 1 2 = 2, ya que p = , q = p 3 3

La variable geomtrica difiere un poco de la indicada en la tabla 1.1 porque en este contexto, la variable aleatoria de inters es el nmero de ensayos fallidos antes de conseguir el primer xito. En cambio en la tabla 1.1, se plantea la variable geomtrica como el nmero total de ensayos efectuados hasta conseguir el primer xito. En aquellos ensayos fallidos, el ladrn escoge una puerta que adiciona 1 da de

41

permanencia en el calabozo u otra puerta que adiciona 3 das de permanencia en el calabozo. Por lo tanto la variable de inters es

SN = X 1 + + X N
Donde N es la variable aleatoria geomtricamente distribuida que se mencion anteriormente y los X i son cada uno variables aleatorias independientes de tipo Bernoulli con

P {X i = 1} = P {X i = 3} =

1 2

En trminos de esperanzas condicionales, estamos interesados en encontrar


E [ E [SN N ] ] = E [E [X 1 + + X N N ] ]

Habida cuenta que E [SN N ] es una variable aleatoria, que los X i son variables aleatorias independientes con igual esperanza y que a su vez son independientes de N, se tiene que:
E [ E [SN N ] ] = E [E [X 1 + + X N N ] ] = E [N ] E [X i ] = q 1 1 1 + 3 = 2 2 = 4 2 p 2

La cantidad esperada de das que el Ladrn de Bagdad permanecer en el calabozo antes de salir libre es de cuatro das. Veamos si la simulacin confirma el resultado hallado analticamente:
#Simulacin del problema del Ladrn de Bagdad #Problema discutido en el aparte 2.2 del texto #Autor: Jos L. Romero P. Fecha: 23/08/2007 N <- 100000 #el siguiente cdigo genera un vector de tamao N #de la cantidad de das que el ladrn pasa en la cueva #por simulacin x <- NULL for (i in 1:N) { total.dias <- 0 dia.i <- sample(c(0,1,3),1,replace=TRUE) while (dia.i!=0) { total.dias <- total.dias+dia.i dia.i <- sample(c(0,1,3),1,replace=TRUE) } x<-c(x,total.dias) }

42

#el siguiente cdigo es equivalente al anterior, observando que #la cantidad de ensayos de puertas es una variable aleatoria #geomtrica con probabilidad de exito igual a 1/3. La cantidad #de dis que se adicionan en cada ensayo no exitoso en 1 o 3, con #igual probabilidad para ambos valores. x <- NULL for (i in 1:N) { x<-c(x,sum(sample(c(1,3),rgeom(1,p=1/3),replace=TRUE))) } cat("Cantidad esperada de das en el calabozo: ",mean(x)) Cantidad esperada de das en el calabozo: 4.012

2.3. Caracterizacin de los procesos aleatorios: valor medio y ncleo de covarianza.


Para caracterizar completamente un proceso estocstico se requiere conocer sus funciones de distribucin finito-dimensionales. Sin embargo, existen caractersticas de los procesos aleatorios que resumen, por lo menos parcialmente, su comportamiento. En el caso de la variable aleatoria que estudiamos en los cursos de probabilidades, la esperanza y la varianza juegan este papel. De forma anloga, para los procesos estocsticos se tiene la funcin de valor medio y el ncleo de covarianza.

Definicin (Funcin de valor medio): Sea

{X (t ), t T }

un proceso estocstico.

Su

funcin de valor medio se denota por m X (t ) y se define por:

m X (t ) = E [X (t )] = xf X (t ) (x )dx

donde f X (t ) (x ) es la funcin de densidad de primer orden del proceso. Es de notar que

m X (t ) es una funcin determinista, dependiente a lo sumo del instante de tiempo t.

Definicin (Ncleo de covarianza): Sea

{X (t ), t T }

un proceso estocstico con

segundo momento finito. Su ncleo de covarianza, denotado por K (s, t ) , se define como:

K (s, t ) = Cov [X (s ), X (t )] = E [( X (s ) m X (s ))( X (t ) m X (t ))]


43

Muchos procesos surgen como funcin de un nmero finito de variables aleatorias. Por ejemplo, supngase que X (t ) representa la posicin de una partcula en movimiento rectilneo no acelerado con velocidad constante.

X (t ) se define en funcin de una

posicin inicial X 0 y una velocidad V de la siguiente forma

X (t ) = X 0 + V t
Si X 0 y V son variables aleatorias, X (t ) es en efecto un proceso estocstico. Su funcin de valor medio y su ncleo de covarianza se calculan a continuacin:

m X (t ) = E [X (t )] = E [X 0 + V t ] = E [X 0 ] + t E [V ] K (s, t ) = Cov [X (s ), X (t )] = E [( X (s ) m X (s ))( X (t ) m X (t ))] = E [( X 0 + sV E [X 0 ] sE [V ])( X 0 + tV E [X 0 ] tE [V ])]

= E ( X 0 E [X 0 ]) + (s + t ) ( X 0 E [X 0 ])(V E [V ]) + st (V E [V ])
2

= V [X 0 ] + (s + t )Cov [X 0 ,V ] + st V [V ]

Observamos que para calcular la funcin de valor medio y el ncleo de covarianza no se requiere conocer la ley de probabilidad conjunta de X 0 y V basta con conocer los valores esperados, las varianzas y la covarianza de X 0 y V. Mediante este ejemplo

tomado de la fsica se aclaran an ms las ideas expuestas hasta ahora. La trayectoria del proceso aleatorio sera el desplazamiento de una partcula determinada (su grfica de movimiento). Tanto la trayectoria como la funcin de valor medio y el ncleo de covarianza son caractersticas deterministas del proceso estocstico en el sentido en que solo dependen de los instantes de tiempo considerados.

44

2.4.

Incrementos independientes y estacionarios. Procesos estacionarios

Frecuentemente, es ms natural describir un proceso estocstico a travs de una caracterizacin de cmo este evoluciona en el tiempo, pues los incrementos, o cambios de estado de un proceso generalmente poseen propiedades ms sencillas que las variables mismas de la secuencia aleatoria. Primero debemos definir qu entendemos por incremento: Definicin (Incremento): Dado un proceso aleatorio

{X (t ), t T } ,

un incremento

representa la evolucin o cambio de estado de un proceso en un lapso de tiempo, lo cual se expresa matemticamente por

X (t + t ) X (t ) para t, t T
Para un proceso de parmetro discreto, incremento se refiere a como cambia el proceso en un paso de tiempo ( t = 1 ), siendo m-incremento el cambio del proceso en m pasos de tiempo. Consideremos un proceso estocstico {X (t ), t T } de tiempo continuo y una coleccin de parmetros en T linealmente ordenados, t1 ,, t n , que satisface t1 < < t n . Se dice que X (t ) es un proceso con incrementos independientes si las variables aleatorias

X (t 2 ) X (t1 ), , X (t n ) X (t n 1 ) son independientes.


Algunos autores definen los incrementos independientes con condiciones ms fuertes: Si el conjunto de parmetros temporales tiene un mnimo t 0 , tambin debemos suponer la independencia de X (t 0 ), X (t1 ) X (t 0 ), , X (t n ) X (t n 1 ) en un proceso con

incrementos independientes. Usualmente se define t 0 = 0 porque el instante cuando comenzamos a observar el proceso aleatorio es el instante cero. Incluso por convencin, se asume que X (t 0 ) = 0 , ya que en el instante cero no ha sucedido nada (el estado inicial de un proceso aleatorio en el instante cero es cero y los incrementos sucesivos determinan cun lejos se desva el proceso aleatorio con respecto a ese cero).

45

Definiendo los incrementos como una sucesin de variables aleatorias independientes

Y (t 0 ) = X (t 0 ), Y (t i ) = X (t i ) X (t i 1 ) para i 1 , se hace evidente (por lo menos


intuitivamente) que si conocemos las distribuciones de Y (t 0 ),Y (t1 ),,Y (t n ) podemos determinar la distribucin conjunta de X (t 0 ), X (t1 ),, X (t n ) . Esto se puede verificar mediante la funcin caracterstica conjunta y la propiedad de independencia de los incrementos. Por una parte, segn esto ltimo:

Y (t0 ),,Y (tn ) (u 0 , , u n ) = Y (t0 ) (u 0 ) Y (tn ) (u n )


Por otra parte, se tiene [2.6]:

[2.5]

Y (t0 ),,Y (tn ) (u 0 , , u n ) =

E [exp i (u 0 X (t 0 ) + u1 ( X (t1 ) X (t 0 )) +

X (t0 ),, X (tn ) (u0 u1, , u n 1 u n , un )

E [exp i ((u 0 u1 )X (t 0 ) + (u1 u 2 )X (t1 ) +

+ u n ( X (t n ) X (t n 1 )))] =

+ (u n 1 un )X (t n 1 ) + u n X (t n 1 ))] =

Mediante la siguiente transformacin de los parmetros de la funcin caracterstica :

z0 = u 0 u1,, z n 1 = u n 1 u n , zn = u n
o equivalentemente

u 0 = z0 + z1 + zn , u1 = z1 + z 2 + + zn , , u n = zn
Podemos combinar las ecuaciones 2.5 y 2.6 en una sola:

X (t0 ),, X (tn ) (z 0 , , z n ) =

X (t0 ) (z 0 + z1 + z n ) X (t1 ) X (t0 ) (z1 + + z n ) X (tn ) X (tn 1 ) (z n )

[2.7]

Esto implica que en efecto, la ley de probabilidad conjunta de la secuencia aleatoria

{X (t ), t T }
respectivos.

se determina a partir de las leyes de probabilidad de los incrementos

Otro concepto de importancia para la clasificacin de los procesos estocsticos es el de incrementos estacionarios y el de la estacionariedad. Bsicamente, la estacionariedad de un fenmeno aleatorio se refiere a que el mecanismo que lo produce permanece invariante en el tiempo. Un proceso es de incrementos estacionarios si la distribucin de probabilidad de los incrementos X (t1 + h ) X (t1 ) y X (t 2 + h ) X (t 2 ) es igual para 46

valores positivos cualesquiera de t1, t2 y h. De esta definicin se puede colegir que la distribucin de los incrementos estacionarios solo depende de la amplitud del intervalo de tiempo h. La idea de estacionariedad se puede extender a la secuencia de variables aleatorias que conforman el proceso estocstico en s. Sea T un conjunto de ndices de linealmente ordenados tal que la suma de dos miembros cualesquiera de T tambin pertenece a T y consideremos un proceso estocstico {X (t ), t T } definido sobre ese conjunto de ndices temporales. Se dice que {X (t ), t T } es un proceso estrictamente estacionario de orden n si la distribucin conjunta de un par de vectores aleatorios de dimensin n arbitraria ( X (t1 ), X (t 2 ),, X (t n )) y ( X (t1 + h ), X (t 2 + h ),, X (t n + h )) es la misma para todo t1 , t 2 , , t n y h en T. Un proceso estocstico es estrictamente

estacionario si es estrictamente estacionario de orden n para todo entero positivo n. Esta condicin plantea que un proceso estrictamente estacionario est en equilibrio probabilstico y que los instantes particulares en los cuales se observan el proceso no tienen relevancia. En particular, la distribucin de X(t) es la misma para todo t. Un proceso {X (t ), t T } es dbilmente estacionario o estacionario en el sentido amplio si tiene momentos finitos de segundo orden, si m X (t ) = m es constante para todo t y si

Cov [X (t ), X (t + h )] = E [X (t )X (t + h )] E [X (t )]E [X (t + h )] = E [X (t )X (t + h )] m 2
Depende solo de h para todo t. Todo proceso estrictamente estacionario es tambin dbilmente estacionario pero lo contrario no es cierto.

47

2.5. Algunos tipos de procesos aleatorios: caminata aleatoria, martingalas, procesos de Markov, procesos de Poisson, procesos de Wiener
Con esta terminologa, se est en condiciones de definir algunos tipos de procesos estocsticos. El primer tipo de proceso que vamos a definir es el ruido blanco: Un proceso estocstico de parmetro discreto constituido por una secuencia de variables aleatorias independientes e idnticamente distribuidas Z0,Z1, , Zn, se conoce como ruido blanco. Si adicionalmente E [Z i ] = 0 , el proceso estocstico se denomina ruido blanco con media cero. El proceso es ruido blanco simtrico si adems, la distribucin de los Zi, es simtrica, como por ejemplo la uniforme, la normal o la tStudent. Si en base a un proceso de ruido blanco Z0,Z1, , Zn, definimos el siguiente proceso:

Sn = S0 + Z i
i =1

con alguna condicin inicial S 0 = s 0 o si S0 tiene alguna distribucin especifica, el proceso correspondiente

{St , t = 0,1, 2,}

es una caminata aleatoria.

Los Zi se

denominan los pasos o incrementos de la caminata aleatoria; para que {St , t = 0,1, 2,} sea efectivamente una caminata aleatoria, {Z t , t =1, 2,} debe ser un proceso de ruido blanco. Este tipo de procesos se discutir con ms detalle en el prximo capitulo. Un proceso de parmetro discreto {X t , t = 0,1, 2,} es una martingala si satisface las siguientes dos propiedades: i. E X n < ii.

[ ] E [X n +1

X 0 , X 1,, X n ] = X n

La primera de estas condiciones es ms bien para facilitar un poco las matemticas en el manejo de las martingalas y la segunda si resume en esencia lo que es la martingalaestablece que el valor esperado del prximo estado futuro del proceso dado toda su historia pasada es simplemente el estado actual del proceso. En el contexto del juego de apuestas, el proceso de martingala se denomina a veces juego justo, ya que sirve para modelar la riqueza de un jugador en el tiempo cuando la ganancia o perdida esperada en cada turno es cero. En realidad, el trmino martingala proviene del un 48

nombre francs que aluda a una estrategia de juego consistente en duplicar las apuestas hasta ganar con seguridad 8. Un proceso de Markov

{X (t ), t T }

es aquel cuyos estado futuro solo depende del

estado presente y no del pasado. Los procesos de Markov verifican la propiedad de Markov, que establece que

P {X (t n +1 ) A X (t n ) = an , , X (t 0 ) = a0 } = P {X (t n +1 ) A X (t n ) = an }.
En los procesos de Markov, el estado actual del proceso incorpora toda la informacin que necesitamos para estimar el estado futuro y la probabilidad de un comportamiento futuro no se altera si incorporamos informacin sobre el pasado del proceso. Markov, que se estudiar posteriormente en este curso. Antes de definir el proceso de Poisson, es preciso definir lo que es un proceso de conteo (o counting process en ingls), del cual el proceso de Poisson es una instancia particular. Un proceso de conteo {N (t ), t T } es aquel cuyo espacio de estados es el conjunto de nmeros naturales y con l se pretende modelar la cantidad de eventos discretos que han ocurrido en un tiempo t. Se enuncia, pues, la siguiente definicin: Definicin (Proceso de Poisson homogneo): Un proceso de conteo {N (t ), t 0} es un proceso de Poisson con tasa media constante (o intensidad) si cumple las condiciones a continuacin: i. Un proceso de Markov con espacio de estado finito o numerable se denomina cadena de

{N (t ), t 0} tiene incrementos estacionarios e independientes.


tales que s < t , la cuenta de eventos

ii. Para dos instantes de tiempo s y t

N (t ) N (s ) acaecidos en el intervalo de tiempo (s, t ) es distribuida segn la ley


de Poisson con media (t s ) . A saber:

P {N (t ) N (s ) = k } = e (t s )

( (t s ))k
k!

Existen conjuntos alternativos de suposiciones que conllevan al proceso de Poisson. No obstante, las condiciones que dan origen a un proceso de Poisson se verifican con

QUIDEL, p. 440

49

mucha frecuencia- de ah la enorme importancia de los procesos de Poisson. Ejemplos de procesos de Poisson son: fallas de componentes elctricos, decaimiento de partculas radioactivas, llamadas recibidas en una central telefnica, etc. Por ltimo, mencionamos el proceso de Wiener, nombrado en honor a N. Wiener, quien fue entre los primeros en considerar matemticamente el fenmeno del movimiento Browniano. El movimiento Browniano consiste en lo siguiente: una partcula que inicialmente se encuentra en determinada posicin (por definicin se asume X (0 ) = 0 ) es sometida a innumerables y continuos impactos en su entorno, gracias a lo cual est en constante y perpetuo movimiento. El desplazamiento de la partcula en un intervalo de tiempo

(s, t ) ,

el cual es amplio comparado con el tiempo medio entre impactos,

puede ser considerado como la suma de un nmero indeterminadamente grande de pequeos desplazamientos, por lo cual parece razonable suponer, en virtud del Teorema Central del Lmite, que X (t ) X (s ) es normalmente distribuido. Ms an, es razonable suponer que los desplazamientos en dos intervalos de tiempo de la misma longitud son idnticamente distribuidos, ya que se supone que el entorno de la partcula esta en equilibrio. El hecho de que el desplazamiento de la partcula se deba a impactos muy frecuentes e irregulares se traduce matemticamente estableciendo que los desplazamientos en lapsos de tiempo no coincidentes son independientes entre s, ya que el nmero y la magnitud de los impactos en cada intervalo de tiempo es independiente del otro intervalo. En consecuencia, los incrementos del proceso de Movimiento Browniano son independientes y estacionarios. Resumiendo, tenemos la siguiente definicin para el proceso de Wiener: Definicin (proceso de Wiener): Un proceso estocstico de parmetro continuo

{X (t ), t 0} es un proceso de Wiener si: i. {X (t ), t 0} tiene incrementos estacionarios e independientes. ii. Para cada t >0 , X (t ) es normalmente distribuido. iii. Para cada t >0, E [ X (t )] = 0 . iv. X (0 ) = 0

50

Problemas Resueltos
1) Demostrar que si X e Y son variables aleatorias discretas e independientes tales que X ~ Binomial (m, p ) e Y ~ Binomial (n, p ) , entonces

n X X + Y = s ~ Hipergeom trica n + m, s , n+m


Solucin: La suma X+Y de dos variables aleatorias binomiales e independientes es una variable aleatoria binomial:

X +Y (u ) = X (u ) Y (u ) = q + pe iu
Especficamente,

) (q + pe ) = (q + pe )
m iu n

iu m + n

X + Y ~ Binomial(m + n, p ) .

Por lo tanto, la probabilidad

condicional P X = x X + Y = s es:

P {X = x X + Y = s} =

P {X = x, X + Y = s} P {X = x,Y = s x} = P {X + Y = s} P {X + Y = s}

n x n x m s x m s + x n m p q x s x s x p q x = = m + n m + n s n + m s s s p q
para x = 0,1,, s y s = 0,1,, m + n . Se evidencia entonces que

n X X + Y = s ~ Hipergeom trica n + m, s , n+m


2) Sea {X (t ), t 0} un proceso aleatorio con incrementos independientes y funcin de valor medio m X (t ) = E [X (t )] finita. Si 0 < t1 < < t n < t n +1 , demuestrar que

E [X (t n +1 ) X (t1 ),, X (t n )] = X (t n ) + m X (t n +1 ) m X (t n )
Solucin: Para este problema se utilizarn las seis propiedades de la esperanza condicional (ver seccin 2.2) y la independencia de los incrementos.

51

E [X (t n +1 ) X (t1 ),, X (t n )] =

E [X (t n ) X (t1 ),, X (t n )] + E [X (t n +1 ) X (t n ) X (t1 ),, X (t n )] = X (t n ) + E [X (t n +1 ) X (t n ) X (t1 ),, X (t n )] = X (t n ) + E [X (t n +1 ) X (t n )] =


(por independencia de los incrementos y por las propiedades 5 y 6)

E [X (t n ) + X (t n +1 ) X (t n ) X (t1 ),, X (t n )] =

(propiedad 1)

(propiedad 2)

X (t n ) + m X (t n +1 ) m X (t n )
3) Sea

{X n , n = 1,2, } una sucesin de variables aleatorias independientes con valor medio E [X n ] = 0 para todo n. Se define la sucesin {S n , n = 1,2, } como
Sn = X i
i =1 n

Demuestra que {S n , n = 1,2, } es una martingala. Solucin: Se pretende demostrar que E S n +1 S1 = a1 , S 2 = s 2 ,, S n = an = an . Teniendo en cuenta la independencia de la sucesin

{X n , n = 1,2, }

que

Sn +1 = S n + X n +1 , se puede escribir: E [S n +1 S1 = a1,S 2 = s 2 ,, S n = an ] = E [S n + X n +1 S1 = a1, S 2 = s 2 ,, S n = an ] =

E [S n S1 = a1, S 2 = s 2 ,, S n = an ] + E [X n +1 S1 = a1, S 2 = s 2 ,, Sn = an ] = an + E [X n +1 ] =

(por la propiedad 1 de la esperanza condicional)

(la sucesin Sn es determinada por la sucesin Xn y por la independencia de los

Xn, se puede aplicar la propiedad 6)


an + 0 = an
(ya que E [X n ] = 0 para todo n)

52

Problemas Propuestos
1) Supngase que pedidos de cantidades variables N de artculos arriban diariamente a un almacn segn la siguiente distribucin de probabilidades: n: P(N=n): 10 0.05 11 0.15 12 0.30 13 0.30 14 0.15 15 0.05 es de 0.10,

La probabilidad de que un artculo en particular sea defectuoso valor esperado de artculos X que se reciben en un da. 2)

independientemente de la presencia de defectos en los otros artculos. Calcula el

Demuestra que si X e Y son variables aleatorias discretas e independientes distribuidas segn la ley de Poisson con parmetros 1 y 2 respectivamente, entonces

1 X X + Y = s ~ Binomial s, + 1 2
3)

Demuestra que si X ~ Poisson ( ) y si Y X = x ~ Binomial (x, p ) , entonces

Y ~ Poisson (p ) .
4) Demuestra que si X ~ Geomtrica (p ) , entonces

P {X = m + n X > m} = P {X = n}
Esto confirmara la propiedad de falta de memoria de la distribucin geomtrica: la informacin que no hubo xitos en m pruebas (X>m) es olvidada si se realizan ms pruebas (X=m+n). 5) Considrese el proceso aleatorio X (t ) = At + B donde A es una variable aleatoria que toma los valores 3 y 4 con probabilidades 1 4 y 3 4 , respectivamente y B es una variable aleatoria con funcin de probabilidad P {B = 1} = P {B = 2} = 1 2 . A y B son variables aleatorias independientes. Obtn la funcin de valor medio y el ncleo de covarianza del proceso aleatorio. 53

6)

Sea

X (t ) = At + B un proceso aleatorio para el cual A y B son variables

2 2 aleatorias independientes, de esperanza cero y E A 2 = A , E B 2 = B .

[ ]

[ ]

Es

{X (t )} un proceso estacionario?
7) Considera el proceso X (t ) = A cos t + Bsen t donde [0,1] , A y B son variables aleatorias no correlacionadas, de esperanza 0 y varianza 1. Demuestra que este proceso es dbilmente estacionario.

8)

Demuestra que los incrementos de una caminata aleatoria son independientes y estacionarios. Sea S0 = 0 y S n = X 1 +

9)

+ X n , donde X 1, X 2 , son variables aleatorias

independientes con esperanza 0 y varianza 2 (caminata aleatoria simtrica). Calcula la funcin de valor medio y el ncleo de covarianzas del proceso {S n }. 10) Sea

{Z n , n N}

un proceso de ruido blanco con Z n ~ Normal( = 1, = 2) .

Encuentra las siguientes probabilidades: a) P {Z i > 5} b) P { 3 < Z i < 5} c) P {Z i = 1} 11) Demuestra que el valor esperado de un incremento en una martingala es necesariamente igual a cero. 12) (La cadena de Ehrenfest) Motivado por problemas relacionados con la mecnica estadstica T. Ehrenfest describi un experimento con 2 urnas, dentro de las cuales estn distribuidas N molculas. En cada paso del experimento, se escoge al azar una molcula, esta es removida de la urna en la cual se encuentra y es colocada en la otra urna. As, si se escoge una molcula de la urna A, esta es removida de A y colocada en B y viceversa. El estado del proceso est determinado por el

54

nmero de molculas presentes en la urna A a cada paso del experimento. Justifica que el proceso estocstico {X n , n N} definido por

Xn = cantidad de molculas presentes en la urna A al instante n, n N,


es una cadena de Markov. Dar su espacio de estados. 13) Sea

{X n , n N} un proceso estocstico de parmetro discreto tal que

X 0 = 1,

0 < p < 1 y P [X t +1 = X t + 1 X t ] = p X t , P [X t +1 = X t X t ] = 1 p X t .
Demuestra que {X n , n N} es una cadena de Markov pero no una martingala. 14) Demuestra que un proceso de ruido blanco con parmetro discreto no tiene incrementos independientes. 15) Determina las condiciones bajo las cuales un proceso de ruido blanco es una martingala. 16) Determina las condiciones bajo las cuales una caminata aleatoria es una martingala. 17) La martingala, como estrategia de apuestas, consiste en doblar la apuesta si uno pierde y retirarse del juego cuando se gana. El jugador sigue esta estrategia: apuesta inicialmente 1 unidad, luego 2, luego 4 y as continua doblando su apuesta hasta que gane. Supngase que en cada jugada tiene igual probabilidad de ganar o perder. a) Modela la ganancia de un jugador que emplee esta estrategia planteando un proceso estocstico y definiendo su espacio de estados. b) Demuestra que el jugador siempre se retira del juego con una ganancia de 1 unidad a su favor con probabilidad 1 (ie. casi siempre) c) Explica por que no se permite esta estrategia de apuestas en los casinos modernos (i.e. el croupier se niega a recibir apuestas de aquellos que aparentemente practican esta estrategia) 18) Escribe un programa en R que simule y represente una trayectoria de un proceso de movimiento Browniano en dos dimensiones.

55

19)

Considera el proceso no determinista: x n = r x n 1 (1 x n 1 ), x 0 = 0,01 . Mediante un programa en R, investiga el comportamiento a la larga de dicho proceso (para valores de n grandes) utilizando valores para r de 2,7 3 y 3,5 respectivamente. Indica tus hallazgos y analiza las implicaciones de los mismos. (Este ejemplo de sistema catico se debe a Robert May en su estudio de crecimiento poblacional)

56

Capitulo 3- Procesos estocsticos basados en el proceso de Bernoulli y caminatas aleatorias


3.1 El proceso de Bernoulli

El proceso de Bernoulli es un proceso estocstico de parmetro discreto cuya estructura es muy sencilla: en cada paso, se observa la ocurrencia o no ocurrencia de un determinado evento cuya probabilidad se mantiene constante y el en cual cada observacin es independiente de todas las observaciones anteriores. El proceso de Bernoulli es en efecto un proceso estocstico de tipo ruido blanco. procesos de Bernoulli son: a. Un inspector de calidad verifica si los productos de una lnea de ensamblaje son defectuosos observando una secuencia de productos. Si el i-simo producto es defectuoso, registra X i = 1 , de lo contrario anota X i = 0 . Si los defectos se deben a causas aleatorias de modo que la presencia de defectos en un producto es independiente de la presencia de defectos en los otros productos, y si adems, la proporcin p de artculos defectuosos se mantiene constante a travs de todas las observaciones, {X i , i 1} es un proceso de Bernoulli. b. Se monta una alcabala policial en un determinado punto y se paran a todos los conductores que por ella transitan para verificar si portan armas, conducen un vehculo robado o presentan alguna otra irregularidad. Bajo condiciones similares a las del ejemplo anterior, si la probabilidad de que un conductor presente alguna irregularidad es constante e independiente entre los conductores que van transitando por la alcabala, la situacin descrita se puede modelar adecuadamente mediante un proceso de Bernoulli. En todos estos casos, las variables constituyentes del proceso de Bernoulli representan experimentos aleatorios con dos posibles resultados- xito o fracaso. En un proceso de Bernoulli, las variables aleatorias constituyentes son idnticamente distribuidas e independientes entre s. Este modelo estocstico bsico da pi a otros tipos de procesos estocsticos que se describirn a continuacin. Ejemplos de

57

3.2

La cantidad de xitos. Caminatas aleatorias basadas en procesos de Bernoulli.

Si en un proceso de Bernoulli {X i , i 1} , observamos la cantidad de xitos ocurridos en el n-simo ensayo y los n-1 ensayos anteriores, se define un nuevo proceso aleatorio que es una caminata aleatoria, pues lo que sucede en cada observacin se puede modelar mediante la secuencia aleatoria {S i , i 1} definida como:

Sn = X i
i =1

[3.1]

Fig. 3.1

En el capitulo anterior se sugiri que la caminata aleatoria es un proceso con incrementos independientes y estacionarios (ver problema propuesto N 7 de ese capitulo). Este hecho tiene algunas implicaciones importantes que sera conveniente resaltar:

58

[3.2]

A partir de un instante n dado , la cantidad de xitos que se registren en los prximos m ensayos de un proceso de Bernoulli ( Sn + m Sn ) es independiente de la cantidad de xitos registrados en los n-1 ensayos anteriores.

[3.3]

Ms an, por ser los incrementos estacionarios, la probabilidad de que en las prximas m observaciones se tenga s xitos solo depende de m y es igual a la probabilidad de que, observando desde el principio los m ensayos, se tenga s xitos. Matemticamente: P {S n +m S n = s S1, S 2 ,, Sn } = P {Sm = s} .

Podemos calcular el valor esperado y la varianza de Sn sin haber determinado an su distribucin de probabilidad, pues valindonos de la definicin de Sn como una suma de n variables aleatorias independientes e idnticamente distribuidas segn la Ley de Bernoulli:
n n n E [Sn ] = E X i = E [X i ] = p = np i =1 i =1 i =1 n n n V [Sn ] = V X i = V [X i ] = pq = npq i =1 i =1 i =1

El siguiente tema en nuestra ocupada agenda es determinar las respectivas probabilidades P {Sm = s} , es decir, la distribucin de probabilidad de los {S i , i 1} . Existen diversas maneras de deducir esto- la va ms directa para nosotros es recurrir a nuestro extenso conocimiento sobre las funciones caractersticas. En efecto, como los

{Si , i 1}

son esencialmente sumas de variables aleatorias de tipo Bernoulli con igual

parmetro p y mutuamente independientes, se tiene que:

Sn (u ) = X1 + X 2 + + X n (u ) = X i (u )n = q + pe iu

Esta funcin caracterstica se corresponde a la funcin caracterstica de una Binomial con n ensayos. Con esto demostramos el siguiente teorema:

59

Teorema 3.1: Si

{Si , i 1}

es una caminata aleatoria basada en experimentos de

Bernoulli, la distribucin de cada S n es binomial y se tiene que


n P {S n = s} = p s q n s , para 0 s n s

En la prctica, la frmula del teorema 3.1, en conjuncin con las observaciones hechas en la 3.2 y 3.3 son de mucha utilidad para el clculo de probabilidades referentes a los estados de una caminata aleatoria basada en el proceso de Bernoulli. Llegados a este punto te sugiero que revises los problemas resueltos correspondientes.

3.3.

La cantidad de ensayos hasta r xitos: ms sobre las caminatas aleatorias basadas en procesos de Bernoulli.

Si en una sucesin {X i , i 1} de variables aleatorias independientes e idnticamente distribuidas segn la ley de Bernoulli (un proceso de Bernoulli) nos referimos a la cantidad de ensayos hasta ocurrir r xitos (r es fijo), tenemos otro proceso aleatorio basado en un proceso de Bernoulli en el cual la secuencia de variables aleatorias representa los instantes o ensayos en los cuales ocurren los xitos sucesivos. Intentemos esquematizar esto matemticamente. Si por ejemplo tenemos una trayectoria de un proceso de Bernoulli como esta: x1 = 0, x 2 = 0, x 3 = 1, x 4 = 0, x 5 = 1, , la trayectoria del proceso que estamos definiendo sera t 1 = 3, t 2 = 5, , porque el primer xito ocurre al tercer ensayo y el segundo xito ocurre al quinto ensayo. De forma general, si { i , i 1} es el proceso que estamos definiendo, entonces, en funcin T de la secuencia aleatoria {X k , k 1}, Ti ( ) ser igual al ndice k de aquella secuencia donde ocurre el i-simo xito. Qu podemos decir sobre el comportamiento de esta secuencia aleatoria? En primer lugar, debe ser una secuencia estrictamente creciente, porque si el i-simo xito ocurre en el ensayo Ti , el siguiente xito necesariamente ocurre despus y se tiene que
Ti +1 > Ti para cualquier i. De modo intuitivo, constatamos que los incrementos de este

proceso son independientes y estacionarios (esto se puede demostrar). 60

El

razonamiento de ello es a grandes rasgos el siguiente: el mecanismo subyacente que produce la secuencia { j , j 1} es el proceso de Bernoulli T

{X i , i 1},

que es una

sucesin de variables independientes cuyo parmetro p es invariante en el tiempo. Adems, si el incremento Ti +1 Ti = n, con n>0, es porque despus del Ti -simo xito ocurren n-1 fracasos sucesivos, luego de los cuales ocurre el Ti +1 -simo xito. La probabilidad de ello es q n 1 p . En otras palabras, los incrementos se distribuyen segn la ley de probabilidad geomtrica. Tratemos de esquematizar lo enunciado hasta ahora:

Teorema 3.2: Si { j , j 1} representa un proceso estocstico que caracteriza el nmero T de ensayos de Bernoulli hasta el j-simo xito, entonces P { k +1 Tk = n T1 ,,Tk } = T
P { k +1 Tk = n} = q n 1 p T

Este teorema establece que los incrementos son estacionarios, ya que la anterior probabilidad no depende de k.. Adems, por lo dicho sobre la independencia de los incrementos se puede parafrasear en el siguiente teorema, que se da sin demostracin:

Teorema 3.3: Sea { j , j 1} un proceso estocstico como en el teorema 3.2, entonces, T para k N + y n k , se tiene que
si Tk n 0 P { k +1 = n T1 ,T2 ,,Tk } = P { k +1 = n Tk } = n 1Tk T T p si Tk < n q

Esto adems demuestra que el proceso estocstico { j , j 1} goza de la propiedad de T Markov. Antes de proceder, aclaremos de una vez que asumimos que T0 = 0 porque con el 0-simo xito ocurre en el 0-simo ensayo con probabilidad uno. Ahora surge la pregunta: Cmo se distribuyen los

{T j , j 1}?

Si has ledo atentamente esta

exposicin, muy probablemente ya lo hayas adivinado:

61

Teorema 3.4: Sea { j , j 1} un proceso estocstico como en el teorema 3.2, entonces, T


n 1 k n k para n = k, k + 1, se tiene que P { k = n} = T k 1 p q

Este ltimo teorema establece que cada Tk en la secuencia aleatoria { j , j 1} se T distribuye segn la ley binomial negativa. Existen varias formas de demostrar esto- la ms expedita para nosotros es tomar en cuenta que este proceso es despus de todo una caminata aleatoria; cada variable Tk es una sumatoria de k incrementos

independientes e idnticamente distribuidos, es decir:


Tk = (Tk Tk 1 ) + (Tk 1 Tk 2 ) + + (T1 T0 )

Como damos por hecho que los incrementos se distribuyen todos segn la misma ley geomtrica, entonces la funcin caracterstica de Tk es:

pe iu Tk (u ) = 1 qe iu

la cual corresponde a la funcin caracterstica de la binomial negativa y por lo tanto (vase tabla 1.1 del captulo 1):
n 1 k n k p q pTk (n ) = k 1 0 nk n<k

62

3.5.

La ruina del jugador

Consideremos un juego donde en cada apuesta, un jugador gana un BF con probabilidad p y pierde un BF con probabilidad 1-p. Claramente, la fortuna del jugador luego de n apuestas se puede modelar mediante una caminata aleatoria {Fn , n N} , donde

Fn = X i
i =0

es la suma de n+1 variables aleatorias independientes e idnticamente distribuidas, tenindose que X 0 = X es la fortuna inicial del jugador (antes de apostar) y los X i sucesivos son los incrementos en BF luego la respectiva apuesta, cuya distribucin de probabilidad viene dada por:
P {X i = 1} = p

P {X i = 1} = 1 p = q

Supngase adems que el jugador, partiendo de un capital inicial X, juega contra un adversario que dispone de un capital Y (el adversario puede ser la casa u otro jugador), de modo que en cada partida, si el jugador gana 1 BF, el adversario pierde la misma cantidad y vice-versa . Para colocar las cosas ms en perspectiva, entre el jugador y la casa, siempre hay un capital total de T = X + Y BF, por ser la sumatoria de la ganancia de los participantes igual a cero (en trminos de la Teora de Juegos, se trata de un juego de suma cero 9). Asumamos que este juego de suma cero termina cuando alguno de los participantes se arruina, lo cual ocurre cuando la fortuna del jugador alcanza los T BF, en cuyo caso se arruin la casa, o la fortuna del jugador llega a 0 BF, en cuyo caso se arruin l. Los estados 0 y T de la fortuna del jugador se denominan barreras absorbentes, porque una vez que la trayectoria toca alguno de esos estados, jams sale de ellos. Una pregunta interesante en torno a este juego es la siguiente: partiendo de un capital inicial de X BF, cual es la probabilidad de que el jugador se arruine? Para abordar esta pregunta, comencemos por la siguiente definicin:
9

Los juegos en los que los intereses de los jugadores son diametralmente opuestos se llaman de

suma cero. El trmino suma cero se deriva de los juegos de saln tales como el poker en el que la riqueza ni se crea ni se destruye. As pues, un jugador gana dinero siempre a expensas de los otros jugadores (DAVIS, p. 28)

63

Sea R X la probabilidad de ruina del jugador partiendo de un capital inicial X siendo


1 X T 1 . Adems, se define R 0 = 1 y RT = 0 .
R X es lo que se quiere hallar y establecemos la siguiente relacin:

R X = pR x +1 + qR x 1

[3.4]

Dicha relacin se motiva en el siguiente razonamiento: si la fortuna del jugador es X, luego de un turno, habr ganado 1 BF con probabilidad p (en cuyo caso su fortuna ser de X + 1 ) o habr perdido 1 BF con probabilidad q (en cuyo caso continua el juego con
X 1 BF). Si lo anterior no es lo suficientemente claro an, definamos R X como una

probabilidad condicional y procedamos simblicamente:

R X = P (ruina {Fn = X }) y
P (ruina {Fn = X }) =

{X n +1 = 1} , {X n+1 = 1} son eventos disjuntos y mutuamente

complementarios (son una particin de ). Luego:

P (ruina {Fn = X } ({X n +1 = 1} {X n +1 = 1})) = P (ruina {Fn = X } {X n +1 = 1}) + P (ruina {Fn = X } {X n +1 = 1}) =
establece que P (A B ) = P (A B )P (B )
P (ruina {Fn = X } )P {Fn = X } =

[3.5]

Por otro lado, utilizando en 3.2 la propiedad de las probabilidades condicionales que

P (ruina {Fn = X } {X n +1 = 1} )P ({Fn = X } {X n +1 = 1}) + P (ruina {Fn = X } {X n +1 = 1} )P {Fn = X }P {X n +1 = 1} +

P (ruina {Fn = X } {X n +1 = 1})P ({Fn = X } {X n +1 = 1}) = P (ruina {Fn = X } {X n +1 = 1})P {Fn = X }P {X n +1 = 1} =


[3.6]

La ltima igualdad en 3.6 se debe a la independencia entre X n +1 y Fn . Aunado a eso,

{Fn

= X } {X n +1 = 1} = {Fn +1 = X + 1} y {Fn = X } {X n +1 = 1} = {Fn +1 = X 1} .

Por lo

tanto, factorizando las respectivas expresiones en 3.6 por P {Fn = X } y recordando que
P {X n +1 = 1} = p y P {X n +1 = 1} = q , concluimos que:

P (ruina {Fn = X }) = p P (ruina {Fn +1 = X + 1}) + q P (ruina {Fn +1 = X 1}) R X = pR X + 1 + qR X 1

64

Con lo anterior se demuestra la validez de la ecuacin 3.4. Ecuaciones como esta denominan ecuaciones en diferencias, sobre las cuales es oportuno hacer una breve digresin. Las ecuaciones en diferencias se refieren a ecuaciones que involucran Si una secuencia an est secuencias, o funciones definidas para valores enteros.

definida explcitamente en funcin de su argumento entero n, determinar su valor en n es un asunto trivial. Sin embargo, a veces las secuencias se definen de forma recursiva, relacionando an con trminos anteriores como an 1 en la misma ecuacin. Por ejemplo, la ecuacin 3.7:
an = an 1 +

[3.7]

es una ecuacin en diferencias lineal de primer orden y generaliza las denominadas progresiones aritmticas/geomtricas que el estudiante seguramente vio en bachillerato. Observa adems el parecido de esta terminologa con la terminologa de las ecuaciones diferenciales, que tambin se clasifican segn su orden y segn la linealidad. Si te interesa profundizar ms sobre este tema puedes consultar la bibliografa anexa 10. Por lo dems te recomiendo resolver los problemas propuestos correspondientes al final de este capitulo referentes a la solucin de la ecuacin 3.7, que es el resultado que se utilizar seguidamente. Retomando el problema de la ruina del jugador, se puede expresar la ecuacin 3.4 de la probabilidad de ruina, que es una ecuacin en diferencias lineal de segundo orden, como una ecuacin en diferencias lineal de primer orden. Teniendo en cuenta que
p + q = 1, tenemos

R X +1 R X =

q (R X R X 1 ) p

[3.8]

A partir de la ecuacin 3.8 y mediante la formula de sucesin an = r an 1 hallada en el problema propuesto N 5, es fcil comprobar que
X 1

R X R X 1

q = p

(R1 R0 )

[3.9]

Con respecto a este resultado, se observan dos inconvenientes: 1) todava se desconoce R1 y 2) Podramos resolver la ecuacin en diferencias resultante, pero el

10

Ver NEUMAN

65

trmino al lado derecho de 3.9 depende de X (no es una constante ). Para solventar esta situacin utilizamos la propiedad telescpica de las series:
X 1

RT R0 =

X =1

R X R X 1

q = X =1 p
T

(R1 R0 )

El panorama tiende a aclararse porque R 0 y RT son conocidos: R 0 = 1 y RT = 0 . Por lo tanto:


T 1 q 1 = RT R0 = (R1 R0 ) X = 0 p X

[3.10]

Si p = q = 1 2 , entonces de 3.7 se deduce que (R1 R0 ) = Si p q se tiene que (R1 R0 ) =

1 T

[3.11a] [3.11b]

1 (q p )

(q p)T

La ltima igualdad se deduce de la serie

xi
i =0

(ver problema propuesto N 7).

Para calcular en definitiva el valor de la probabilidad de ruina, volvemos a emplear la propiedad telescpica de las sumas, pero esta vez con miras a hallar R X :
X X q R X R0 = Ri Ri 1 = i =1 i =1 p i 1

(R1 R0 )
X 1 i

q R X = R0 + i =1 p
X

i 1

(R1 R0 ) = 1 + (R1 R0 ) q i =0 p

Nuevamente, si p = q = 1 2 , se tiene:

RX = 1

X TX = T T 1 (q p )

[3.12a]

Si p q , entonces es fcil verificar que:

RX = 1 +

(q p )T

(q p)T (q p )X (q p )T 1

[3.12b]

66

La deduccin de las ecuaciones 3.12a y 3.12b quizs parezca un tanto tortuosa. Nuevamente, aunque la simulacin no sea un sucedneo del todo equivalente a deducir este tipo de resultados analticamente, nos ayuda a confirmar la validez del los resultados anteriores. Planteamos en lenguaje R un programa para simular la probabilidad de ruina de un jugador con un capital inicial entre 0 y 10, para distintas probabilidades p de ganar en cada turno tomando valores entre 0,1; 0,2; ; 0,9:
#simulador de caminata aleatoria- problema de la ruina de un jugador #Autor: Prof. Jos L. Romero P. fecha:29/7/2007 #-----------------------------------------------------#Ruina: funcin que arroja 1 si el resultado de una caminata aleatoria #es ruina, 0 en caso contrario. # argumentos: a=capital inicial del jugador, # c=capital total # p=probabilidad de ganar 1 en cada turno Ruina = function (a,c,p) { j=a #asigna capital inicial while ((j!=0)&(j!=c)) j=j+sample(c(-1,1),1,replace=TRUE,c(1-p,p)) if (j==0) 1 else 0 } #Probabilidad_ruina : funcin que arroja la probabilidad de ruina para: # a=capital inicial del jugador # c=capital total # p=probabilidad de ganar 1 en cada turno Probabilidad_ruina = function (a,c,p) { cnt=0 for (i in 1:1000) cnt=cnt+Ruina(a,c,p) cnt/1000 } #Vector_emprico: funcin que arroja un vector correspondiente a las #probabilidades de ruina para cada capital inicial entre 0 y c Vector_emprico = function (c,p) { x=NULL for (i in 0:c) x=c(x,Probabilidad_ruina(i,c,p)) x } #Vector_terico: funcin que arroja un vector correspondiente a las #probabilidades (teoricas) de ruina para cada capital entre 0 y c Vector_terico = function (c,p) { x=NULL if (p==0.5) { for (i in 0:c) x=c(x,(c-i)/c)} else { r=(1-p)/p for (i in 0:c) x=c(x,(r^i-r^c)/(1-r^c)) } x } #A continuacin se generan los grficos para distintos valores de p, #exportandolos a un archivo .pdf llamado "Ruinadeljugador"

67

pdf(file="Ruinadeljugador.pdf") for (prob in seq(0.1,0.9,by=0.1)) { plot(x=c(0:10,0:10),y=c(Vector_terico(10,prob),Vector_emprico(10,prob)), xlab="capital inicial",ylab="probabilidad de ruina", main="Comparacin entre probabilidades empiricas y tericas", sub=paste("p=",as.character(prob)),type="p", col=c(rep("red",times=11),rep("blue",times=11))) if (prob<=0.5) {xleyenda=2; yleyenda=0.3} else {xleyenda=6; yleyenda=0.5} legend(x=xleyenda,y=yleyenda,fill=c("red","blue"), legend=c("terica","emprica")) }

Se muestran a continuacin algunos grficos que comparan las probabilidades de ruina halladas mediante simulacin y mediante las formulas 3.12a y 3.12b:

68

La primera grfica corresponde a las probabilidades de ruina para distintos niveles de capital inicial (entre 0 y 10) con una probabilidad p de ganar en cada turno igual a 0,6. En este caso, la frmula de la probabilidad de ruina que aplica es la 3.12b. La segunda grfica es similar pero con un valor p igual a 0,5. La frmula que aplica es en este caso la 3.12a.

69

3.6.

Duracin promedio del juego y otras consideraciones sobre el problema de la ruina del jugador

Pueden hacerse otras preguntas en torno al juego descrito en la seccin anterior. Una de ellas es: Cuntos turnos dura, en promedio, el juego? Recordemos que el juego termina cuando alguno de los jugadores se arruina (el jugador o la casa). Si el capital total es finito, supondremos que el juego siempre terminar en una cantidad finita de partidas, an cuando es posible concebir, por ejemplo, una trayectoria del juego donde las partidas resulten +1,-1,+1,-1, ad infinitum. La finitud de la duracin del juego no es algo que se pretende demostrar formalmente aqu- el autor solo se limita a sealar la evidencia emprica: el programa de la simulacin en R anterior, en donde se simulan series de 1000 partidas para cada nivel de capital inicial del jugador, eventualmente termina. Quizs a modo de apologa, tngase en cuenta adems que el objetivo bsico que nos trazamos en este curso es que puedas complementar la verificacin formal con la verificacin emprica, o valerte de la investigacin emprica para inferir hechos que no ests en capacidad de demostrar formalmente. Volviendo a la pregunta que planteamos en esta seccin: cul es la duracin promedio del juego?, debemos especificar an ms: cul es la duracin promedio del juego, partiendo de un capital inicial X? Si, como en la seccin anterior, el jugador tiene un capital inicial de X y su oponente un capital inicial de Y, y entre los dos un capital total
T = X + Y que no se altera, sabemos que el juego termina cuando el capital del jugador

sea 0 o T. Podemos ahora responder parcialmente la pregunta: la duracin del juego partiendo de un capital inicial de 0 o de T es igual a cero. Partiendo de cualquier suma de dinero distinta entre 0 y T, el juego puede durar una cantidad aleatoria e indeterminada de partidas. Denotemos por T x duracin del juego partiendo de un capital X y aclaremos desde ya que T x no es un proceso estocstico- es una variable aleatoria que resume un aspecto del juego, visto ste como una trayectoria de un proceso estocstico. Estamos interesados en determinar el promedio de la duracin del juego, es decir, nos interesa hallar:
D x = E [T x ]

[3.13]

A tal fin, vamos a proceder como lo hicimos en la seccin anterior, partiendo de la siguiente ecuacin en diferencias: 70

D x = pD x +1 + qD x 1 + 1

para 0 < x < T , con D0 = DT = 0

[3.14]

Las condiciones de extremos en la expresin 3.14 son simplemente la formulacin matemtica de lo dicho anteriormente sobre un juego en donde el jugador comienza con un capital de 0 o T. Nos interesa ms bien entender en que se basa la ecuacin 3.14 en s. La clave de este asunto es escindir el juego en dos etapas: 1) la variable X 1 que pudiendo valer +1 o -1 representa el resultado para el jugador del primer turno y 2) el resto del juego. Partiendo de un capital inicial x, si en el primer turno el jugador gana 1, el resto del juego continua como si se partiera de un capital inicial de x+1. Si por el contrario el jugador pierde 1 en el primer turno, debe continuar con un capital de x-1. En ambos casos, como ha transcurrido un turno se adiciona en uno la cuenta de turnos y por lo tanto las esperanzas condicionales de T x dado el resultado X 1 del primer turno son :
E [T x X 1 = +1] = D x +1 + 1 E [T x X 1 = 1] = D x 1 + 1

[3.15]

Las ecuaciones en 3.15 se utilizan ahora en el desarrollo de la ecuacin 3.13:


D x = E [T x ] = b P { x = b} = T
b

b (P {Tx = b X 1 = +1 } + P{Tx = b X 1 = +1 }) =
b

b (P {Tx = b X 1 = +1 } + P{Tx = b X 1 = +1 }) =
b

b (p P {Tx = b
b b

X 1 = +1 }+ q P { x = b X 1 = 1 }) = T

[3.16]:

Justificacin

p b P { x = b X 1 = +1 } + q b P { x = b X 1 = 1 } = T T
b

de la ecuacin 3.14

p E [T x X 1 = +1] + q E [T x X 1 = 1]= p (D x +1 + 1) + q (D x 1 + 1) = p D x +1 + q D x 1 + 1

71

Habiendo fundamentado la ecuacin 3.14, procederemos a resolverla de la misma forma que lo hicimos con la probabilidad de ruina en la seccin anterior, transformndola primero a una forma ms amena:
q (D x D x 1 ) 1 p p

D x +1. D x =

[3.17]

Esta forma se parece mucho a la ecuacin 3.8, salvo por el sumando de c, lo cual conlleva a abordarla mediante una ecuacin en diferencias finitas como la 3.7 (ver problema propuesto N 6). Desde el principio sealamos que deben considerarse dos casos: p = q y p q . Entonces se tiene: Para p q :
x x q q 1 (q p ) 1 (q p ) = (D1 D0 ) D x +1 . D x = (D1 D0 ) p p(1 q p ) p pq x x

[3.18a]

Para p = q :
D x +1. D x = (D1 D0 ) x = (D1 D0 ) 2 x p

[3.18b]

Vamos a abordar primero el caso en que p q , que parece ser el ms sencillo. Como en el problema de la ruina del jugador, no conocemos D1 D0 . Una vez ms, aplicando la propiedad telescpica de las series:
k q 1 (q p ) Dk = (D1 D0 ) pq k =0 p T 1 k
k

0 = DT D0 =

T 1 k =0

Dk +1

T T 1 T 1 q 1 1 (q p ) = D1 D0 + = D1 D0 + pq p q k = 0 p p q 1 q p

D1 D0 =

p 1 (q p )

T
T

1 pq

Teniendo D1 D0 , se desarrolla D x por series telescpicas segn la frmula 3.18a:

72

x 1 x 1 q 1 (q p ) Dx = Dx D0 = Dk +1 Dk = (D1 D0 ) = p pq k =0 k =0 k k

k x 1 x 1 q T = + D1 D0 + p p 1 (q p )T pq p q k =0

(p q )(1 (q p)T )

T 1 (q p )

1 (q p )x x = 1 q p pq
[3.19a]

x pq

La ecuacin 3.19a permite calcular la duracin promedio del juego partiendo de un capital x y en el caso p q . A riesgo de parecer repetitivos, vamos a calcular seguidamente la duracin promedio del juego en el caso p = q . Primero obtenemos la frmula para D1 D0 :
T 1 k =0 T 1 k =0

0 = DT D0 =

Dk +1 Dk =

(D1 D0 ) 2k = T (D1 D0 ) T (T 1)

D1 D0 = T 1
Y enchufando esta expresin en la frmula 3.18b desarrollada en series telescpicas:

Dx = Dx D0 =

k =0

Dk +1 Dk =

x 1

k =0

(D1 D0 2k ) = (T 1 2k ) =
k =0

x 1

x 1

x (T 1) x (x 1) = x (T x )

[3.19b]

Si te interesa ver una forma alternativa de deducir las formulas para la duracin promedio del juego o la probabilidad de ruina del jugador puedes consultar las secciones 14 y 15 del libro de Procesos Estocsticos de la UNA. Tambin es posible deducir estas frmulas mediante los mtodos de resolucin de ecuaciones en diferencias de segundo orden. En lo tangente a las frmulas 3.19a y 3.19b, se deja al lector como ejercicio la verificacin emprica mediante una simulacin en lenguaje R (ver problema propuesto N 13).

73

En estas notas dejamos por fuera otros aspectos interesantes sobre las caminatas aleatorias unidimensionales. Tampoco mencionamos siquiera a las caminatas aleatorias de dos o mas dimensiones. Algunas fuentes bibliogrficas (ver por ejemplo http://en.wikipedia.org/wiki/Random_walk) definen a las caminatas aleatorias de un modo ms especifico que la definicin que nosotros hemos empleado a lo largo del presente texto. Para estos autores, una caminata aleatoria es una trayectoria en el espacio para la cual: Hay un punto de partida. Los pasos son de longitud constante. La direccin en que se toma cada paso es aleatoria: ninguna direccin es ms probable que las otras. A fin de exponer algunos resultados cuyas demostraciones no se incluirn en el presente texto, incluimos unos ejemplos grficos de caminatas aleatorias bidimensionales: Fig. 3.2 Ejemplos de caminatas aleatorias bidimensionales Fig. 3.2a - Caminata aleatoria en dos dimensiones Fig. 3.2b - Caminata aleatoria en dos
con incrementos de longitud unitaria. dimensiones con incrementos infinitesimales.

La fig. 3.2b, que representa la trayectoria de una caminata aleatoria bidimensional con incrementos infinitesimales, es en realidad la trayectoria de un proceso de movimiento browniano. Con un poquito de imaginacin, podemos imaginarnos que el movimiento browniano en tres dimensiones modela adecuadamente el comportamiento del humo en un ambiente sin corrientes de aire, o el de una tinta vertida en un vaso de agua. 74

Fig. 3.3 Tres caminatas aleatorias tridimensionales.

En el contexto de este tipo de caminatas aleatorias donde las direcciones en que se toman los pasos son equiprobables, existen varios resultados 11: [3.20] Si no hay barreras absorbentes, la probabilidad de retornar al punto de origen en una caminata aleatoria de una o dos dimensiones es uno. En cambio, en tres dimensiones, la probabilidad de un retorno eventual al punto de partida es estrictamente menor que uno- es de hecho aproximadamente igual a 0,65 12. [3.21] El valor esperado de la distancia mxima al punto de partida, luego de una caminata de n pasos, es asintticamente igual a
M n = max S k , entonces lim E [M n ] = 2n
1 k n
n

2n . Matemticamente, si

11

El lector interesado puede consultar el Captulo 12 sobre caminatas aleatorias en el libro GRINSTEAD, pp. 475-478.

Introduction to Probability de Grinstead y Snell.


12

75

Problemas Resueltos
Seccin 3.1 y 3.2 Para las preguntas 1 a 4, asuma que {S i , i 1} se refiere a una caminata aleatoria basada en un proceso de Bernoulli con probabilidad de xito en cada ensayo igual a p. Calcular lo siguiente: 1)
P{S7 S3 = 2}

Solucin: En virtud de lo comentado en el [3.2] y segn el teorema 3.1, se tiene:


4 P{S7 S3 = 2} = P{S 4 = 2} = p 2 q 2 = 6 p 2 q 2 2

2)

P {S3 = 2, S5 = 4, S11 = 7}

Solucin:
P {S3 = 2, S5 = 4, S11 = 7} = P {S3 = 2, S5 S3 = 2, S11 S5 = 3}

Los incrementos en la probabilidad anterior son todos independientes entre s, de modo que la expresin anterior es igual a:
P {S3 = 2} P {S5 S3 = 2} P {S11 S5 = 3} = 3 2 6 P {S3 = 2} P {S 2 = 2} P {S 6 = 3} = p 2 q p 2 p 3q 3 = 45 p 7 q 4 2 2 3

Se entiende que las probabilidades en P {S3 = 2} P {S2 = 2} P {S6 = 3} se refieren a variables S i consideradas por separado e independientes unas de otras, es decir,
S 3 , S 2 y S 5 no se refieren a la misma trayectoria de la caminata aleatoria.

3)

P{S3 = 2, S5 = 4, S6 = 3}

Solucin: De igual forma que en el problema anterior:


P {S3 = 2, S5 = 4, S 6 = 3} = P {S3 = 2} P {S 2 = 2} P {S1 = 1}

Pero la probabilidad P{S1 = 1} en la expresin anterior es igual a cero, porque los incrementos en una caminata aleatoria basada en un proceso de Bernoulli siempre son positivos. Por lo tanto, la probabilidad P{S3 = 2, S5 = 4, S6 = 3} es igual a cero.

76

4)

E [S3S5 ]

Solucin:
E [S3S5 ] = E [S3 (S3 + S5 S3 )] = E [S3S3 ] + E [S3 (S5 S3 )]

Pero por la independencia de los incrementos, la expresin anterior es equivalente a:


E [S3S3 ] + E [S3 (S5 S3 )] = V [S3 ] + E 2 [S3 ] + E [S3 ] E [S5 S3 ] =

3pq + (3p ) + 3p 2 p = 3pq + 15p 2


2

Seccin 3.3

Para las preguntas 5 y 6, asumamos que { j , j 1} caracteriza a los tiempos hasta los T respectivos j-simos xitos, donde cada ensayo se basa en un proceso de Bernoulli con probabilidad de xito igual a p. Calcular lo siguiente: 5)
P { 2 = 3,T3 = 6} T

Solucin:
P { 2 = 3,T3 = 6} = P { 2 = 3,T3 T2 = 3} = P { 2 = 3} P {T3 T2 = 3} = T T T 3 1 2 32 31 3 3 2 1 p q q p = 2 p q

Tngamos en cuenta que T2 es binomial negativa y T3 T2 es geomtricamente distribuida. 6)


E [T6 T1,T2 ,T3 ]

Solucin: En lo sucesivo tngase en cuenta las propiedades 1 a 6 de la esperanza condicional que aparecen en la seccin 2.2:
E [T6 T1,T2 ,T3 ] = E [T6 T3 ] =
E [T6 T3 + T3 T3 ] = E [T6 T3 T3 ] + E [T3 T3 ] =
(propiedad de Markov de

{T j , j 1})

(propiedad 1 de la esperanza condicional)


(Teorema 3.2 y propiedad 2) ( T6 T3 es binom. negativa con r=3)

E [T6 T3 ] + T3 =
3 + T3 p

77

En el ltimo paso se ha podido proceder de E [T6 T3 ] = E [T6 ] E [T3 ] y calcular las esperanzas de las respectivas binomiales negativas.

78

Problemas Propuestos
1) Una fbrica produce recipientes cuya capacidad se verifica al finalizar el proceso de produccin, y se consideran defectuosos aquellos cuya capacidad est por debajo de los 0,975 lt. o por encima de 1,025 lt. Pruebas estadsticas sugieren que la capacidad de un recipiente producido tiene distribucin normal con media 1 lt. Y varianza 0,01. Define el proceso aleatorio de Bernoulli que modele esta situacin. Cules suposiciones deben hacerse sobre el proceso de fabricacin para que el modelo de Bernoulli sea adecuado? 2) Sea {S i , i 1} el nmero de xitos en un proceso de Bernoulli con probabilidad de xito p. Calcula E [Sn +m Sn ]. 3) Sea {S i , i 1} el nmero de xitos en un proceso de Bernoulli con probabilidad de xito p. Calcula P{S 7 = 4, S8 = 7} 4) Calcula P { 2 = 4,T3 = 5,T6 = 8} T Calcula P { 7 = 3,T8 = 12} T Encuentra una solucin para la siguiente ecuacin general en diferencias de primer orden: an = r an 1 . Asume que se conoce el valor inicial de la secuencia
a0 .

5)

6)

7)

Demuestra que la solucin para la siguiente ecuacin general en diferencias de primer orden dada en 3.4 ( an = an 1 + ), es:
a n = a 0 + n
an = n a0 + 1 n 1

si = 1 si 1

79

8)

Utiliza la propiedad telescpica de las series para demostrar que

xi =
i =0

1 x n +1 si x 1 1 x

9)

Desde donde est situado, un borracho est a solo un paso de caer a un precipicio. El borracho camina de forma aleatoria: toma un paso hacia el precipicio con probabilidad de 1 3 un paso alejndose del precipicio con probabilidad de 2 3 . Con qu probabilidad se escapa el borracho de caer al precipicio?

10)

Un ludopata varado en Margarita tiene solo 20 BF y necesita conseguir 20 BF adicionales para tomar el ferry de regreso a casa, pero siente pena de llamar a su esposa para que le enve ms dinero. Decide jugar a la ruleta (de la cual no es muy aficionado) y considera dos estrategias: apostar los 20 BF a nmeros negros todos de una vez o apostar 1 BF a un nmero negro cada vez hasta que haya completado o perdido los 20 BF que tena. Compara los mritos de ambas estrategias. (Nota: una ruleta tiene 38 nmeros de los cuales 18 son negros, en cada turno de ruleta se gana lo que se apuesta con probabilidad p = 18 38 o se pierde con probabilidad q = 20 38 )

11)

En el contexto del problema anterior, supngase adicionalmente que el jugador decide apostar 1 BF a la vez, y cada turno en la ruleta toma aproximadamente 2 minutos. Cunto tiempo durar en promedio el jugador hasta terminar el juego? Crees que el jugador pueda emprender el viaje en ferry a su casa esa misma tarde si comienza a jugar al medioda?

12)

Justifica detalladamente y haciendo referencia a las definiciones y propiedades sobre las probabilidades y esperanzas condicionales, cada uno de los pasos en la justificacin de la ecuacin 3.14 dados en el desarrollo 3.16 del texto.

13)

En el problema del jugador, si p = q , Cul es el nivel de capital inicial x que maximiza la duracin promedio del juego?

80

14)

Verifica mediante una simulacin en R las formulas 3.19a y 3.19b referentes a la duracin promedio del juego. Para el caso en que p q , asuma que p = 1 3 . En ambos casos asuma un capital total T = 10 .

15)

Un hombre se embriaga perdidamente en su casa y le da de beber a su mascota, un canario, que se emborracha tambin. El hombre suelta el canario, que sale volando de su jaula segn un movimiento Browniano en tres dimensiones, tras lo cual sale de su casa tambin, de modo que su deambular por la ciudad es una caminata aleatoria en dos dimensiones. Cul es la probabilidad de que el hombre borracho eventualmente regrese a su casa? Cul es la probabilidad de que el canario se pierda y jams regrese a su jaula?

16)

Verifica mediante una simulacin en lenguaje R la frmula 3.21 referente a la mxima distancia alcanzada desde el origen en una caminata aleatoria unidimensional.

81

Capitulo 4- El proceso de Poisson homogneo


4.1 El proceso de Poisson como caso lmite de la caminata aleatoria binomial.

En el capitulo anterior estudiamos la evolucin aleatoria de procesos cuyos cambios de estado ocurren en instantes de tiempo discretos, que se suponen regularmente espaciados pero cuya ubicacin temporal no esta del todo determinada, o no es relevante. Hablbamos entonces de ensayos (procesos de Bernoulli) o pasos (en las caminatas aleatorias); aunque no especificbamos los instantes de tiempo precisos en los cuales ocurra cada ensayo o paso porque sencillamente no era relevante. Sin embargo, en muchos fenmenos reales no podemos considerar que los eventos de un proceso ocurren o no en instantes discretizados de tiempo. procesos de Bernoulli no son modelos adecuados. Consideremos por ejemplo una central telefnica en la cual se han recibido 270 llamadas en un periodo de tres horas (180 minutos). Consecuentemente, se reciben en promedio 1,5 llamadas por minuto y basndonos en esta evidencia, deseamos calcular la probabilidad de recibir 0, 1, 2 o ms llamadas en los prximos 3 minutos. Podramos dividir el lapso de 3 minutos en 9 subintervalos de 20 segundos cada uno y si suponemos que las probabilidades de que ocurran llamadas en cada subintervalo permanecen constantes, esto nos conduce a aproximar las probabilidades buscadas mediante la distribucin binomial. Nuestra aproximacin consiste en considerar cada uno de los nueve subintervalos como ensayos de Bernoulli en los cuales observamos una llamada telefnica (xito) o ninguna (fracaso), con probabilidad de xito
p = (1,5) (20 60) = 0,5 . Pero un poco de reflexin nos hace concluir que cuando mucho,

En estos casos, los

este modelo es una aproximacin bastante inexacta de la situacin, porque estamos ignorando la posibilidad de que ocurran dos o ms llamadas en cada subintervalo de 20 segundos y el uso del modelo de Bernoulli supone una dicotoma en cada ensayo: o ocurre una llamada o no ocurre ninguna. No obstante, para minimizar la probabilidad de que ocurra dos o ms llamadas en cada subintervalo de tiempo, podramos subdividir el lapso de 3 minutos en una mayor cantidad de subintervalos ms cortos. Podemos tambin observar si las probabilidades calculadas tienden hacia algn valor a medida que tenemos una mayor cantidad de 82

intervalos: hicimos el ejercicio de calcular las probabilidades de recibir k llamadas en un lapso de 3 minutos manteniendo el nmero promedio de llamadas ( E [X ] = np = 1,5 ) constante. En la tabla de abajo, se muestra en las celdas respectivas dichas probabilidades aproximadas mediante la distribucin de Bernoulli:

Tabla 4.1. Calculo de las probabilidades de recibir k llamadas en 3 minutos mediante aproximaciones sucesivas por medio del modelo Binomial
Variable aleatoria: X=nmero de llamadas recibidas en un lapso de 3 minutos. n Ley de probabilidad binomial: P ( X = k ) = p k (1 p )n k k

k 0 1 2 3 4 5 6 7 8 9 10 11 12

n= 9 p= 0,5
0,001953125000 0,017578125000 0,070312500000 0,164062500000 0,246093750000 0,246093750000 0,164062500000 0,070312500000 0,017578125000 0,001953125000 0,000000000000 0,000000000000 0,000000000000

n= 72 p= 0,0625
0,009592502052 0,046044009851 0,108970823313 0,169510169598 0,194936695038 0,176742603501 0,131575049273 0,082704316686 0,044798171538 0,021237651692 0,008919813711 0,003351687576 0,001616506172

n= 576 p= 0,0078125
0,010914422300 0,049501631849 0,112060780760 0,168826478100 0,190428291242 0,171535405654 0,128538998200 0,082415330680 0,046155829879 0,022936580377 0,010240189822 0,004148852856 0,002297208282

n= 4608 p= 0,0009766
0,011084598051 0,049929450459 0,112426675593 0,168731595889 0,189884897133 0,170914968993 0,128172304053 0,082369633187 0,046307756878 0,023136274752 0,010401146391 0,004249930784 0,002390767836

n= 36864 p= 0,000122
0,011105945532 0,049982856317 0,112472105506 0,168719600910 0,189817275337 0,170837865192 0,128126660829 0,082363787168 0,046326487969 0,023161044515 0,010421197602 0,004262581064 0,002402592061

En la tabla superior, los valores de n y de p se multiplican y se dividen respectivamente por un factor de 8 en forma sucesiva, de modo que n tiende a infinito y p tiende a cero, pero np permanece constante. Observamos que las probabilidades respectivas se estabilizan alrededor de ciertos valores- no varian mucho ms a medida que seguimos aumentando el nmero n de ensayos. Esto nos motiva a formular la siguiente pregunta: Cul es la ley de probabilidad hacia la cual tiende la binomial a medida que n y

p 0 de modo que np permanece constante, digamos np = ?


En los clculos siguientes se determina la respuesta exacta a esta pregunta.

83

Considerando pues la funcin de probabilidad binomial:


n n! n k n k P ( X = k ) = p k (1 p ) = p k (1 p ) = k k! (n k )!
k factores

[4.1]

n (n 1)(n 2 ) k!

(n k + 1) p k (1 p )n k
y 1 p = 1 .
n n

Defnase = np , de modo que p =

Sustituyendo en la ecuacin 4.1 todos los trminos que involucren p por sus expresiones equivalentes en obtenemos:
n (n 1)(n 2 ) = k! =

P (X = k )

(n k + 1) k 1 n k
n n

1 k! n 1 k! n

n k

n (n 1)(n 2 ) (n k + 1) n n n
k factores

[4.2]

= =

k k

n k

1 2 1 1 1 n n
k

k 1 1 n k 1 1 n

1 1 k! n n

1 2 1 1 1 n n

Ahora tomando el limite de la expresin 4.2 cuando n y p 0 de modo que

np = permanece constante, obtenemos lo siguiente:

lim P ( X = k ) = lim n n
p 0 p 0

1 2 1 1 1 1 1 k! n n n n

k 1 1 n

[4.3]

k
k!

Ya que, segn lo recordado en nuestra clase de sexto grado de primaria cuando estudiamos limites:
1 = e , n
n

lim n

lim 1 n n

=0 y

lim 1 n = 1 n

84

De esta forma demostramos el siguiente teorema: Teorema 4.1- (Ley de las probabilidades Pequeas) Sea X una variable aleatoria

discreta distribuida segn la ley binomial con parmetros n y p respectivos. Si n y

p 0 de forma que np permanece constante y np , entonces, bajo estas


condiciones:
lim P ( X = k ) = e n p 0

k
k!

Este resultado es muy importante por varias razones. Una razn es que nos permite calcular aproximadamente las probabilidades asociadas a la distribucin binomial para un nmero n muy grande de ensayos y una probabilidad p de xito casi nula. El estudiante que haya intentando calcular probabilidades binomiales que involucran nmeros combinatorios elevadsimos que multiplican potencias de p que tienden a cero sabr apreciar la vala de esta aproximacin. Es por esto que el resultado anterior se conoce como la Ley de las Probabilidades Pequeas. De la misma forma que el Teorema de DeMoivre-Laplace (una variante de la Ley de los Grandes Nmeros) aproxima mediante la distribucin normal las probabilidades binomiales cuando n y p no tiende a cero o a uno, la Ley de las Probabilidades Pequeas aproxima las probabilidades binomiales bajo las condiciones ya citadas mediante una distribucin de probabilidad que el estudiante seguramente ha identificado ya: la distribucin de Poisson. Como regla prctica, se puede confiar en esta aproximacin si n 100 ,

p 0,01 y np 20 13.
Como se indica en la Tabla 1.1, la variable aleatoria Poisson representa el nmero de eventos que ocurren en un instante de tiempo de amplitud fija cuando la tasa promedio de eventos en ese intervalo de tiempo es . Su funcin de probabilidad es:
x e p X (x ) = x! 0 x N 0 x<0

13

DEVORE, p. 131.

85

Se le sugiere al estudiante demostrar que en efecto, la distribucin de Poisson es una distribucin de probabilidad vlida (Problema Propuesto N 1). realiza expresando e como una serie de Taylor. Histricamente, la ley de probabilidad de Poisson est asociada al estudio de la cantidad de eventos de cierto tipo que ocurren entre una poblacin muy numerosa cuando la frecuencia del fenmeno es muy rara, como por ejemplo, la cantidad de personas en una ciudad de 10 millones de habitantes que padecen de una enfermedad muy rara que afecta en promedio a uno entre cada milln de individuos en una poblacin. Simon-Denis Poisson (1781-1840) formul en 1837 la distribucin homnima en conexin con largas series de observaciones de eventos que ocurren raramente. Por ejemplo, una de tales series dadas era la distribucin de frecuencias del nmero de bajas anuales en cada cuerpo de la caballera del ejercito Prusiano debidas a patadas de caballos 14. La distribucin de frecuencias de el nmero de bajas anuales de esta serie fue la siguiente: Muertes Frecuencia 0 109 1 65 2 22 3 3 4 o ms 1 De hecho, esto se

Si suponemos que las probabilidades de k muertes accidentales por patadas de caballo se mantienen constantes en el tiempo y a travs de todos los cuerpos de la caballera del ejercito Prusiano, estos datos nos permitiran calcular las frecuencias relativas (que se asemejan a dichas probabilidades), dividiendo las frecuencias absolutas respectivas entre el nmero total de observaciones, o sea n=200. Si en base a estas probabilidades calculamos el nmero promedio de muertes anuales en cada cuerpo de caballera, obtenemos una estimacin del parmetro , que resulta ser igual a 0,61. Con el parmetro , calculamos las probabilidades respectivas segn la ley de distribucin de Poisson y con estas probabilidades, calculamos las frecuencias absolutas que cabra esperarse segn este modelo terico. Todo esto se resume en la siguiente tabla:

14

RIETZ, p. 39

86

Muertes

4 o ms

Observaciones de frecuencias absolutas (evidencia emprica)


Frecuencias absolutas Frecuencias relativas Promedio de muertes

109 0,545

65 0,325

22 0,110

3 0,015

1 0,005

= 0 0,545 + 1 0,325 + 2 0,110 + 3 0,015 + 4 0,005 = 0,61

Observaciones esperadas segn el modelo de Poisson


Probabilidades esperadas Frecuencias absolutas esperadas

0,543 108,6

0,331 66,2

0,101 20,2

0,021 4,2

0,004 0,6

Como se puede observar, la ley de probabilidad de Poisson modela de forma bastante fiel el fenmeno estudiado.

4.2.

Derivacin axiomtica del proceso de Poisson.

Llegados a este punto, podemos entender que la ley de distribucin de Poisson se adecua a una amplia gama de fenmenos aleatorios de la vida real porque es un caso lmite del modelo Binomial, que tambin se asoma en muchas situaciones. De hecho, la distribucin de Poisson, junto con la normal y la binomial, son las tres distribuciones principales de la teora de las probabilidades, debido a su universalidad y grandes ramificaciones por todo el corpus terico 15. Sin duda, la distribucin de Poisson merece un anlisis profundo por sus propios meritos. Surgen dos preguntas: Cmo sabemos si se renen las condiciones para aplicar el modelo de Poisson a un determinado fenmeno real? estocsticos? Intentamos dar una respuesta a la primera pregunta haciendo algunas consideraciones sobre la distribucin binomial, a partir de la cual la distribucin de Poisson surge como caso lmite. En efecto, para que la binomial sirva de modelo adecuado de un Como relacionamos la distribucin de Poisson y los procesos

15

FELLER, p. 156

87

determinado fenmeno, debemos verificar que las probabilidad p de xito se mantenga constante a travs de todos los ensayos y que los ensayos se realizan de forma independiente entre s. Si consideramos que la distribucin de Poisson es un caso lmite de la binomial, entonces se vislumbra una respuesta a la segunda pregunta. En efecto, supngase que estamos interesados en contar la cantidad de eventos de cierto tipo que han sucedido hasta un instante de tiempo t . hacemos las siguientes suposiciones: 1) La ocurrencia adicional de eventos a partir de ese instante es independiente de la cantidad de eventos acaecidos hasta entonces (los ensayos de Bernoulli son independientes entre s). Ms precisamente, para intervalos de tiempo disjuntos (no superpuestos), las cantidades de eventos que ocurren en cada intervalo son independientes entre s. Esto es una manera de decir que el proceso de Poisson es un proceso con incrementos independientes. 2) Se verifica que la tasa promedio de eventos, expresada como un cociente de la cantidad de eventos en promedio que suceden en un lapso de tiempo fijo, es constante (la probabilidad de xito p en cada ensayo de Bernoulli es constante). Por lo tanto, dos intervalos de tiempo de igual amplitud tendrn la misma distribucin de probabilidades, en cuanto a la cantidad de eventos que sucede en cada intervalo, sin importar cuan distantes en el tiempo sean esos intervalos uno del otro. 3) Segn la terminologa del capitulo 2, el proceso de Poisson es un proceso con incrementos estacionarios. Segn las deducciones que culminan en la frmula 4.3, vemos que subdividiendo el nmero de ensayos del modelo binomial en lapsos temporales de amplitud infinitesimalmente pequea, de modo que la probabilidad de ocurrencia de dos o ms eventos en cada lapso temporal sea casi nula y manteniendo constante el promedio de eventos que suceden a lo largo del lapso temporal total, la distribucin de probabilidad de eventos que suceden en un intervalo de tiempo es la distribucin de Poisson. La Ley de las Probabilidades Pequeas es una posible va para definir el proceso de Poisson. A continuacin vamos a tomar otra va ms rigurosa- planteamos un conjunto de axiomas o condiciones que debe cumplir el proceso y verificamos que necesariamente, esto conduce a la distribucin de Poisson. Antes definimos la terminologa mediante la cual denotaremos formalmente el proceso de Poisson: 88 Para tal fenmeno,

El proceso aleatorio de Poisson es una coleccin de variables aleatorias indexadas por un parmetro temporal continuo: Z (t ) t 0 .

Para cada instante t, Z (t ) denota la

cantidad de eventos de cierto tipo que se producen en el lapso de tiempo [0, t ) , por lo cual Z (t ) es un proceso de conteo y representa una cantidad entera. Planteamos a continuacin los postulados que debe satisfacer un proceso de conteo

{Z (t ) t 0}

para definirse como un proceso de Poisson. Como se ver, estos

postulados no son del todo distintos a las tres suposiciones que acabamos de hacer. Axioma 1: Para intervalos de tiempo disjuntos (no superpuestos), las cantidades de eventos que ocurren en cada intervalo son independientes entre s- El proceso de Poisson es un proceso con incrementos independientes. Axioma 2: Defnase Z (x + t ) Z (x ) como la cantidad de eventos que ocurren en un intervalo de tiempo

[x, x + t )

y Z (y + t ) Z (y ) como la

cantidad de eventos que ocurren en otro intervalo de tiempo [y , y + t ) , siendo ambos intervalos de tiempo de la misma amplitud. Entonces,

Z (x + t ) Z (x )
estacionarios.

Z (y + t ) Z (y ) tendrn la misma distribucin de

probabilidades- El proceso de Poisson es un proceso con incrementos

Axioma 3: Considrese una subdivisin de un intervalo de tiempo de longitud unitaria en N subintervalos, cada uno de longitud t = 1 N . evento en cualquiera de esos subintervalos son respectivamente: Para N

suficientemente grande, las probabilidades de que se produzcan cero o un

P{Z (t + t ) Z (t ) = 0} = P0 (t ) = 1 t + o(t )

[4.4a] [4.4b]

P{Z (t + t ) Z (t ) = 1} = P1 (t ) = t + o(t )

donde o(t ) es una cantidad de un orden de magnitud mucho ms pequea que t de modo que lim
t 0

o(t ) = 0. t
89

Obsrvese que las probabilidades P0 (t ) y P1 (t ) son complementarias, de modo que la probabilidad que se produzcan dos o ms eventos en un lapso de tiempo infinitesimalmente corto es despreciable. En lo anterior, es un parmetro constante que representa la cantidad promedio de eventos que se producen en un intervalo de tiempo de longitud unitaria:

E [Z (1)] = E [N Z (t )] = N E [Z (t )] = N (t + o (t )) = 1 (t + o(t )) = t
El parmetro tambin se conoce como intensidad de flujo. Axioma 4: Se impone la siguiente condicin inicial: P{Z (0) = 0} = P0 (0) = 1 . Esto equivale a decir que P1 (0) = P2 (0) =

= 0 .

A partir de estos cuatro axiomas, pretendemos deducir la funcin de probabilidad de las variables aleatorias

{Z (t ) t 0},

saber:

P{Z (t ) = n} = Pn (t ) .

Comencemos

considerando P0 (t + t ) - la probabilidad de que ocurran cero eventos en el lapso de tiempo [0, t + t ) . Para que suceda tal cosa, debe acontecer que se produzcan cero eventos en [0, t ) y cero eventos en [t, t + t ) . En virtud del axioma 1, estos sucesos son independientes, pues [0, t ) y [t, t + t ) no son intervalos de tiempo superpuestos. Por otro lado, en virtud del Axioma 2, la probabilidad de que se produzcan cero eventos en el intervalo de tiempo [t, t + t ) es igual a la probabilidad de que se produzcan cero eventos en el intervalo de tiempo

[0, t ) ,

pues el proceso es de incrementos

estacionarios. En suma, tenemos lo siguiente:

P0 (t + t ) = P0 (t ) P0 (t ) = P0 (t ) (1 t + o(t )) P0 (t + t ) P0 (t ) = P0 (t )( t + o(t ))
y que por lo tanto, tomando la derivada de P0 (t ) :

P0 ' (t ) = lim
P0 ' (t ) = P0 (t )
90

t 0

P0 (t + t ) P0 (t ) t + o(t ) = lim P0 (t ) = P0 (t ) t 0 t t

Integrando esta ecuacin diferencial sencilla y tomando en cuenta el Axioma 4 que establece una condicin inicial- P {Z (0) = 0} = P0 (0) = 1 , deducimos finalmente que:

P0 (t ) = e t

[4.5]

Ahora procederemos a calcular Pn (t ) para n 1 . De manera anloga al razonamiento recin expuesto, calculamos primero Pn (t + t ) , tomando en cuenta que para producirse n eventos en el intervalo de tiempo [0, t + t ) , debe ocurrir alguno de estos dos sucesos, que son mutuamente excluyentes: 1) que se produzcan n-1 eventos en el intervalo [0, t ) y 1 evento en el intervalo [t, t + t ) , o 2) se producen n eventos en [0, t ) y ningn evento en [t, t + t ) . De modo que:

Pn (t + t ) = Pn 1 (t ) P1 (t ) + Pn (t ) P0 (t ) = Pn 1 (t ) (t + o(t )) + Pn (t ) (1 t + o(t ))
Y de modo similar a como hicimos los clculos precedentes, podemos encontrar la derivada de Pn (t ) :

Pn ' (t ) = (Pn 1 (t ) Pn (t ))

Pn ' (t ) + Pn (t ) = Pn1 (t )

[4.6]

La ecuacin 4.6 es una ecuacin diferencial lineal de orden uno no-homognea. Una frmula para resolver tales ecuaciones diferenciales es la siguiente 16: La solucin a la ecuacin diferencial no homognea

y '+ p(x )y = q (x ) viene dada por

y = e p ( x )dx C +

q (x )e

p ( x )dx

dx

Donde C es una constante que depende del valor de y en un punto dado (condicin inicial). Sustituyendo los trminos correspondientes en la formula anterior, recordando que en este caso la variable independiente es t (no x) y teniendo en cuenta el Axioma 4 que establece las condiciones iniciales P1 (0) = P2 (0) =

= 0 , procedemos a resolver la 4.6:

16

ORELLANA, M., TORRES, E., GONZALEZ, J., MIRANDA, G., pp. 84-86

91

P n (t ) = e t

P n 1 (t ) e t dt

[4.7]

Conociendo P0 (t ) podemos hallar algunos de los Pn (t ) para n 1 :


P1 (t ) = e t P 2 (t ) = e t P 3 (t ) = e t

e t dt = ( t )e t

t t te e dt =

( t )2
2

e t e t

( t )2
2

e t e t dt =

( t )3
6

....
n No debe costarnos mucho trabajo deducir que en general, P n (t ) = e t ( t ) . n!

Claro est, esto se puede demostrar por el mtodo de induccin, lo cual se deja como ejercicio propuesto para el estudiante (problema propuesto N 15). Recuerde que si se quiere demostrar cierta premisa An para todo n 0 , el mtodo de induccin consiste en demostrar que A0 es cierto y que An An +1 . En resumen, hemos visto en esta primera parte del presente capitulo las condiciones o premisas bajo las cuales se produce un proceso estocstico de Poisson homogneo. La palabra homogneo se refiere a que la intensidad de flujo es una constante en el tiempo, esto queda establecido por el Axioma 2 referente a los incrementos estacionarios. Estamos en condiciones de volver a plantear la definicin de un proceso de Poisson homogneo, con la esperanza de que el estudiante tenga ahora una mayor comprensin del asunto:

92

Definicin (Proceso de Poisson homogneo): Un proceso de conteo {N (t ), t 0} es un proceso de Poisson homogneo con tasa media constante (o intensidad) si cumple las condiciones a continuacin: i. ii.

{N (t ), t 0} tiene incrementos estacionarios e independientes.


Para dos instantes de tiempo s y t Poisson con media (t s ) . A saber: tales que s < t , la cuenta de eventos

N (t ) N (s ) acaecidos en el intervalo de tiempo (s, t ) es distribuida segn la ley de

P {N (t ) N (s ) = k } = e (t s )

( (t s ))k
k!

Esta vez, esperamos que el estudiante entienda cuales son las condiciones que dan origen a tales procesos, porqu el nmero de eventos que se producen en un intervalo de tiempo es distribuido segn Poisson, y las razones por las cuales este proceso surge con mucha frecuencia en el estudio de ciertos fenmenos aleatorios.

4.3.

Procesos de Poisson espaciales.

Las condiciones o postulados axiomticos que dan origen al proceso de Poisson se pueden extrapolar a la definicin de otro tipo de proceso de Poisson si se cambia la dimensin temporal por la dimensin espacial. De este modo, cuando hablamos de lapsos de tiempo en los axiomas 1 a 4, ahora hablaremos de distancias, reas o volmenes en el caso en que el proceso se desarrolla en una, dos o tres dimensiones espaciales respectivamente. Los eventos de tipo Poisson, en vez de estar distribuidos sobre la recta temporal (porque se suceden en el tiempo), se conceptan ms bien como puntos distribuidos sobre una superficie o un volumen. A modo de ejemplo, imagnate que estamos viendo colonias de bacterias a travs del microscopio:

93

Fig. 4.1 Colonias de bacterias vistas a travs de un microscopio.


Los puntos oscuros representan bacterias. El plato de Petri ha sido subdividido en pequeos cuadrantes cuya cuenta de bacterias se indican mediante los nmeros en cada cuadrante.

En base a lo observado en la figura 4.1, podemos contar cuantos cuadrantes contienen determinado nmero de bacterias, lo cual nos da las frecuencias absolutas empricas (hay n = 34 observaciones). Acto seguido calculamos el promedio (estimado) de bacterias por cada cuadrante, lo cual nos permite calcular las frecuencias relativas tericas (ajustadas al modelo de Poisson) y de ah, multiplicando dichas frecuencias relativas tericas por el nmero total de observaciones, determinamos las frecuencias absolutas tericas que cabria esperarse si el fenmeno en cuestin fuese realmente un proceso de Poisson. Todo lo dicho se resume en la siguiente tabla:

94

Tabla 4.1 Ajuste de las observaciones de la Fig. 4.1 a un proceso de Poisson espacial
Frecuencia absoluta (emprica) 3 9 10 6 4 2 Frecuencia relativa terica (obtenida mediante promedio estimado) 0,11682726 0,250835 0,26927876 0,19271911 0,10344482 0,06689505 Frecuencia absoluta terica (redondeando decimales) 4 9 9 7 4 2

k 0 1 2 3 4 5 Promedio estimado

(0 3 + 1 9 + 2 10 + 3 6 + 4 4 + 5 2) 2,1471
34

Si asumimos que las frecuencias absolutas empricas son lo bastante aproximadas a las frecuencias absolutas tericas, entonces el modelo de Poisson parece ser adecuado para describir el fenmeno de las colonias de bacterias observadas en el plato de Petri. La verificacin de la bondad de ajuste se realiza matemticamente mediante tcnicas de inferencia estadstica que vers en cursos posteriores. desprenden de ser este fenmeno un proceso de Poisson. Por ejemplo, el axioma 4 establecera que en un rea o volumen nulo hay cero bacterias con certeza total. Esto tiene bastante sentido- las bacterias necesitan cierta cantidad mnima de espacio para desarrollarse y en un espacio de rea nula no puede haber bacterias. Los axiomas 1 y 2 estableceran que en reas no superpuestas de igual tamao, las cantidades de bacterias en cada rea son variables independientes e idnticamente distribuidas. Esto quiere decir que la cantidad de bacterias observadas en una esquina del plato Petri es independiente de la cantidad de bacterias observadas en otra esquina. Ms an, tienen la misma distribucin probabilstica, lo cual quiere decir que las condiciones requeridas para el desarrollo de las actividades bacteriales son iguales en toda el rea del plato Petri. Por ejemplo, colocar un sustrato ms nutritivo para las bacterias en alguna esquina del plato Petri hara que las bacterias se concentrasen en ese sector- se estara violando la condicin de estacionariedad de las superficies no superpuestas de igual tamao y el fenmeno ya no sera un proceso de Poisson homogneo. Dicho de otro modo, los axiomas 1 y 2 parecen indicar que los Por ahora dejemos la verificacin de bondad de ajuste a un lado y abordemos las implicaciones que se

95

eventos en un proceso de Poisson se distribuyen uniformemente en el tiempo (o el espacio en este caso), pero esto es una cuestin que abordaremos posteriormente. Por ltimo, el axioma 3 plantea la existencia de un parmetro que representa la cantidad promedio de eventos que se producen en un intervalo de tiempo de longitud unitaria y que permanece constante en el tiempo. En el caso de un proceso de Poisson espacial homogneo como el que estamos tratando, viene a representar la cantidad promedio de bacterias por cuadrante (de rea unitaria) observados en el plato de Petri. Otra consideracin importante en el estudio de los procesos de Poisson espaciales es la distancia entre un punto y su vecino ms cercano. Se da a continuacin un teorema que especifica la distribucin de la distancia : Teorema 4.2- (Distribucin de la distancia al vecino ms cercano en la distribucin de partculas segn un proceso de Poisson espacial 17) Sea D la distancia entre una partcula y su vecino ms cercano en una distribucin de partculas en el plano segn un proceso de Poisson espacial con tasa promedio de l partculas por unidad de rea, entonces la funcin de densidad de D es:

fD (y ) = 2y e y

[4.8a]

En el caso en que las partculas se distribuyen en el espacio tridimensional con una tasa promedio de l partculas por unidad de volumen, entonces la funcin de densidad de D es:

fD (y ) = 4y

4 y 3 e 3

[4.8b]

Demostracin: (caso bidimensional)

Primero, obsrvese que P { D > y } denota la

probabilidad de que un circulo de radio y y rea y 2 contenga cero partculas por lo tanto

P { D > y } = P N y 2 = 0 = e y

{( ) }

17

PARZEN, pp. 32-33

96

Ahora bien, el evento

{D > y}

es complementario al evento

{D y } ,

de donde

podemos obtener la expresin para la funcin de distribucin de probabilidad de D:

FD (y ) = P { D y } = 1 P { D > y } = 1 e y
' fD (y ) = FD (y ) = 2y e y
2

Y si derivamos con respecto a y obtenemos la funcin de densidad:

La funcin de densidad de D para el proceso de Poisson tridimensional se obtiene mediante un procedimiento similar. Observando la forma funcional 4.8a (el caso tridimensional es parecido) nos damos cuenta que D sigue una distribucin de Weibull 18, cuya funcin de densidad se caracteriza por dos parmetros a y b:

f ( x ; , ) =

1 x e

para x 0 , cuya esperanza y varianza son:


2 1 + 2 1 + 1

1 E [D ] = 1 + y V [D ] = 2

G es, como sabemos, la archiconocida funcin gamma cuya definicin y propiedades se dan en la Tabla 1.2. Todo encaja a la perfeccin si

=2y =

18

DEVORE, p. 176

97

4.4.

Distribucin del tiempo inter-eventos.

Una forma alternativa de estudiar un proceso de Poisson es mediante la observacin de los tiempos que transcurren entre eventos sucesivos, en contraposicin a observar la cantidad de eventos que se producen en un lapso de tiempo de longitud fija, como hemos venido haciendo hasta ahora. ilustrar esto, supngase que Para estamos

interesados en estudiar el proceso asociado a la llegada de carros a una interseccin donde hay semforo. Consideremos que se produce un evento cuando un carro pasa por el rea rayada de alguna de las cuatro intersecciones que estamos estudiando. Hasta ahora hemos estudiado el proceso en atencin al nmero de eventos que se producen en un lapso de tiempo de longitud fija, lo cual en nuestro ejemplo se traduce a que el analista recopila pacientemente las estadsticas de cuantos carros pasan por la interseccin a determinadas horas del da (digamos, de 9 a 10 a.m.) todos los das (Fig. 4.2). En la figura a la izquierda, w representa el da en los cuales se toman las observaciones y Nw representa el nmero de carros que pasaron por la interseccin desde las 9 a 10am Cuando en ha cada el fecha correspondiente. de recopilar comienza las a de terminado

observaciones,

analista

resumir la informacin a fin de verificar si se trata efectivamente de un proceso Poisson. Primero calcula el nmero

promedio de carros que pasan por la

interseccin ( ), lo cual realiza sumando los


Nw y dividiendo entre el nmero de das Fig. 4.2. Anotacin de observaciones observados.

98

De forma semejante a como se ha planteado en los ejemplos anteriores, nuestro valeroso analista ajusta las observaciones a un modelo de Poisson y verifica la bondad de ajuste de este modelo con respecto a las observaciones. Ahora bien, supngase que en vez de tomar las observaciones de este modo instalamos un dispositivo electrnico en la interseccin que registre el tiempo (en segundos) que transcurre entre llegadas sucesivas de carros a la interseccin (Fig. 4.3). A partir de un instante 0, comenzaramos a cronometrar el tiempo inter-llegada de los carros. Naturalmente, esto generara una trayectoria del siguiente proceso estocstico:

{T

n N +

Fig. 4.3. Observacin de los tiempos entre llegadas de carros en una interseccin.

La secuencia aleatoria Tn n N + embargo,

} es de parmetro discreto, porque n denota el } es


una secuencia de variables mutuamente

tiempo transcurrido entre la llegada del n simo vehiculo y el n-1 simo vehiculo. Sin cada una de estas variables debe tener una distribucin continua. Supongamos pues que Tn n N +

independientes e idnticamente distribuidas segn una distribucin exponencial con

99

parmetro l (ver problema propuesto N 18). La funcin de densidad de probabilidad para cada Tn es entonces:

fTn (t ) = e t ,

,t > 0

Si estamos interesados en conocer la probabilidad de esperar t segundos o menos hasta que pase el prximo carro en la interseccin, dicha probabilidad podr calcularse mediante la funcin de distribucin de probabilidad acumulada de la exponencial:

P (Tn t ) = 1 e t ,

,t > 0

Recordemos adems que si los Tn son exponencialmente distribuidos, cabra esperar en promedio 1 segundos (o cualquier otra unidad de tiempo conveniente) entre llegadas sucesivas de carros porque E [Tn ] = 1 . Obsrvese que mientras mayor es l menor es, en promedio, el lapso de tiempo transcurrido entre dos llegadas sucesivas de carros. Por esta razn, l es conocida como la intensidad o frecuencia del trfico (ver seccin 4.2 en la descripcin del axioma 3). En base a Tn n N + podemos definir una caminata aleatoria Sn n N + del siguiente modo:

S n = Ti
i =1

Cada Sn representa el tiempo de espera que transcurre hasta la llegada del n simo vehiculo. Se puede deducir de algn modo la distribucin de probabilidad de los S n ? Teniendo en cuenta que Sn es una suma de n variables independientes e idnticamente distribuidas, se puede deducir mediante el uso de la funcin caracterstica o el desarrollo de las convoluciones que Sn es una variable distribuida segn la ley de Erlang (ver tabla 1.2, distribucin Gamma). Por lo tanto, su funcin de densidad es:

fSn (t ) =

(n 1)!

(t )n 1 e t ,

,t > 0

100

La pregunta crucial es: Si N(t) es un proceso de conteo que representa la cuenta de vehculos que han pasado por la interseccin hasta el instante de tiempo t, Cmo se distribuye N(t) si los tiempos inter-arribos son independientes e idnticamente distribuidos segn la ley exponencial? Veamos: {N (t ) = n} representa el suceso que se produce cuando pasan exactamente n vehculos por la interseccin en el transcurso de [0, t ] segundos. el siguiente vehiculo (el n+1 simo) llega despus de t. propuesto N 19: Este suceso es

equivalente al siguiente: El tiempo hasta que pasa el n simo vehiculo es menor que t y Entonces tenemos una equivalencia entre los siguientes dos sucesos (que se debe demostrar en el problema

{N (t ) = n} {Sn t } {Sn +1 t }

[4.8]

Por ser ambos sucesos equivalentes, sus probabilidades son iguales y se tiene que:

P {N (t ) = n} = P {Sn t } P {Sn +1 t } =
0

(n 1)!

(x )

n 1

dx
0

n!

(x )n e x dx

Integrando por partes la expresin en el extremo derecho tenemos:

P {N (t ) = n} =
0

(n 1)!

(x )

n 1

dx + e

(t )n
n!

(n 1)!

(x )

n 1

dx = e

(t )n
n!

que se corresponde a la funcin de probabilidad de Poisson.

Acabamos de establecer que cuando los tiempos de espera inter-eventos son exponencialmente distribuidos con el mismo parmetro lambda (la misma intensidad de trfico), el proceso resultante es un proceso de Poisson. Se puede demostrar tambin, aunque no se har en esta exposicin, que los tiempos inter-eventos de un proceso de Poisson homogneo son exponencialmente distribuidos con el mismo parmetro lambda. Esta caracterizacin del proceso de Poisson tiene una consecuencia de capital importancia prctica para nosotros: para simular un proceso de Poisson, debemos generar una secuencia de nmeros aleatorios exponencialmente distribuidos. La suma acumulada de dicha secuencia representar entonces los tiempos exactos en que suceden los eventos de tipo Poisson. 101

4.5. La distribucin uniforme de los tiempos de ocurrencia de sucesos en un proceso de Poisson.


En las caracterizaciones del proceso de Poisson homogneo que hemos planteado, se ha insinuado que los axiomas 1 y 2 referentes a la independencia y estacionariedad de los incrementos causan una distribucin uniforme y completamente aleatoria de los sucesos en la dimensin temporal (o espacial, si se quiere). De hecho, el proceso de Poisson homogneo se conoce como el proceso completamente aleatorio ya que distribuye los sucesos sobre el intervalo temporal infinito [0, ) de la misma forma en que se distribuyen puntos sobre un intervalo finito bajo la distribucin uniforme. Vamos a ilustrar mediante un ejemplo lo que se pretende establecer. Supngase que en un horizonte de 0 a 30 unidades de tiempo observamos un proceso de Poisson y que adems, en esa ventana de tiempo ocurrieron exactamente 31 sucesos de cierto tipo, tal como se muestra en la grfica a continuacin (Fig. 4.4). Adicionalmente, el suceso N 32 ocurri despus del instante de tiempo t=30.

Fig. 4.4. Una realizacin de un proceso de Poisson observada en el horizonte de tiempo de 0 a 30.

El resultado que se pretende establecer es el siguiente: si distribuimos 31 puntos de forma aleatoria y segn la distribucin uniforme sobre el intervalo temporal de 0 a 30, el resultado que vamos a observar es muy similar al de la Fig. 4.4:

Fig. 4.5. Distribucin de 31 puntos sobre el intervalo [0,30] segn la distribucin uniforme.

102

Es instructivo ojear el cdigo en R que genera estas grficas:


#Los eventos en un proceso de Poisson se aglomeran #y adems, el proceso de poisson distribuye los puntos en un #horizonte de tiempo como la distribucin uniforme. #Autor: Prof. Jos L. Romero P. fecha: 31/7/2007 #-----------------------------------------------------#Se simula un proceso de Poisson desde 0 a tmax unidades de tiempo tiempos.de.llegada=NULL tiempo=0 alfa=1; tmax=30*alfa while (tiempo<tmax) { tiempo=tiempo+rexp(alfa) tiempos.de.llegada=c(tiempos.de.llegada,tiempo) } tiempos.de.llegada=tiempos.de.llegada[1:length(tiempos.de.llegada)-1] l=length(tiempos.de.llegada) #Se distribuyen la misma cantidad de eventos uniformememnte en el #intervalo 0 a tmax distribucin.uniforme=runif(n=l,min=0,max=tmax) #Se genera la grfica y se exporta a un pdf pdf(file="Proceso_poisson.pdf") plot(x=c(tiempos.de.llegada,distribucin.uniforme),y=c(rep(5,times=l), rep(4,times=l)),main=c("Aglutinamiento de eventos en un proceso", " Poisson y comparacin con la distribucin uniforme"), xlab="Tiempos de llegada",ylab="",yaxt="n",col=c(rep("red",times=l), rep("blue",times=l))) legend(x=12,y=4.5,fill=c("red","blue"),legend=c("Poisson","Uniforme"))

En este programa estamos incorporando la leccin ms importante aprendida en el aparte anterior: si quieres simular los tiempos de los eventos en un proceso de Poisson, obtenlos recordando que el tiempo entre eventos sucesivos se distribuye exponencialmente. En efecto, esto es lo que se realiza en la primera parte del cdigo, donde se generan los tiempos de llegada dentro de una ventana temporal entre 0 y tmax.

Viendo las dos grficas, podrs notar lo siguiente: 1) La distribucin de los puntos en una grfica y en otra no son idnticas, pero son muy similares. Esto se debe a que el mecanismo aleatorio que las genera es idntico en una y en otra, resultado que pretendemos demostrar matemticamente en lo que sigue.

103

2)

Hay cierta tendencia en ambas figuras a que los puntos se aglomeren unos muy cercanos a otros. De hecho, hay algunos puntos que casi coinciden (son aquellos crculos ms oscuros de lo normal). En la realizacin del proceso de Poisson esto tiene una explicacin muy sencilla: la distancia (tiempo) que media entre dos sucesos consecutivos es distribuida exponencialmente, como se demostr en la seccin anterior. La distribucin exponencial es muy sesgada hacia la izquierda, de modo que es ms frecuente tener distancias entre puntos muy cortas. Lo mismo ocurrir con la distribucin uniforme, pues como se va a demostrar, se trata del mismo fenmeno aleatorio.

Previo a la demostracin, vamos a introducir una idea que quizs no te sea familiar: el concepto de lo que es un estadstico de orden. Supongamos que tenemos una secuencia de k variables aleatorias idnticamente distribuidas e independientes entre s. En el mbito de la inferencia estadstica, tal secuencia se conoce como muestra aleatoria, porque se supone que las variables se corresponden a observaciones hechas a una poblacin. Para hacer inferencias a partir de una muestra , componemos los valores de la misma para calcular lo que se conoce como estadstico, que no es ms que una funcin (multivariada) de la muestra. Los estadsticos de orden son simplemente un ordenamiento de menor a mayor de los elementos de la muestra. As, para una secuencia de k variables aleatorias U1, U 2 ,,U k , los estadsticos de orden

U (1), U (2 ),,U (k ) se obtienen ordenando la secuencia original segn su magnitud, de


modo que siempre se cumple que: U (1) U (2 ) U (k ) . En particular, estaremos interesados en conocer cual es la funcin de densidad conjunta de los estadsticos de orden basados en una muestra aleatoria tomada de una poblacin uniformemente distribuida en el intervalo [0,T ] :

fU(1) ,U( 2 ) ,,U( k ) (t1, t 2 ,, t k ) =

k! Tk

cuando

0 t1 t 2 t k T

[4.9]

El trmino 1 T k al lado derecho de la ecuacin proviene del hecho de ser los

U1, U 2 ,,U k uniformemente distribuidos en el intervalo [0,T ] y de ser mutuamente


independientes (la funcin de densidad conjunta es la productoria de las respectivas funciones de densidad). 104 El termino k! proviene de observar que hay k! posibles

ordenamientos (o permutaciones, si se quiere) de los elementos de la secuencia

U1, U 2 ,,U k y todos generan la misma secuencia U (1), U (2 ),,U (k ) .


Por otro lado, supongamos que N (T ) = k , lo que equivale a decir que hasta el instante de tiempo T, han ocurrido exactamente k sucesos de tipo Poisson. Ms precisamente, dado que N (T ) = k , la probabilidad (condicional) de que en cada uno de los subintervalos [t1 , t1 + t1 ], , [t k , t k + t k ] del intervalo [0,T ] ocurra exactamente un suceso y fuera de estos subintervalos no ocurra ningn suceso es:

t1e t1 t k e tk e (T t1 tk )
e
T

(T )
k!
se

t1 t k k! Tk

[4.10]

Esta

probabilidad

puede

expresar

en

funcin

de

los

instantes

S1 < S 2 < < S k < T en que se producen los k sucesos, de modo que:

P (t1 S1 t1 + t1,, t k Sk t k + t k N (T ) = k ) t1 t k

k! Tk

[4.11]

La notacin delta-t en los subintervalos [t1, t1 + t1 ], , [t k , t k + t k ] se utiliz con el propsito expreso de que intuyas que la expresin a la izquierda de 4.11 es una funcin de densidad conjunta (condicional) si hacemos tender los t i a cero (recordemos que la funcin de densidad es la derivada de la funcin de distribucin de probabilidad). Con todo esto, tenemos en definitiva que:

fS1,S2 ,,Sk (t1, t 2 ,, t k N (T ) = k ) =

k! Tk

cuando

0 t1 t 2 t k T

[4.12]

Y esto es exactamente igual a la expresin en 4.9. Como quien no quiere la cosa, hemos demostrado el siguiente teorema:

105

Teorema 4.3- Sea lambda. Bajo la

{N (t ), t 0} un proceso de Poisson homogneo con parmetro condicin N (T ) = k , los tiempos en que ocurren los k sucesos de

Poisson S1 < S 2 < < S k son variables aleatorias con la misma distribucin que los estadsticos de orden correspondientes a k variables aleatorias independientes

U1, U 2 ,,U k distribuidas uniformemente en el intervalo [0,T ]


Con esta informacin, vamos a echar un segundo vistazo al problema del encuentro visto en la seccin 1.7. Recordemos que el problema era determinar con cual probabilidad se encuentran dos personas si el tiempo de llegada de cada uno es uniformemente distribuido en el lapso de una hora e independiente del otro y adems el que llega primero no espera mas de 10 minutos (1/6 de hora) por el otro. No es que hayamos abordado el problema mal en aquella oportunidad, pero ahora, mediante una simulacin e interpretando el teorema 4.3, lo haremos de nuevo. Simulando los tiempos de ocurrencia de eventos en un proceso de Poisson con una tasa lambda arbitraria (en la simulacin realizamos corridas con distintos valores de lambda), consideramos solo los casos en los cuales el segundo suceso haya sucedido antes de la hora y el tercero despus de la hora. Esto redunda en que se cumple la hiptesis del teorema, a saber, que han sucedido dos eventos de tipo Poisson en el lapso de una hora, o N (1) = 2 . El teorema 4.3 nos asegura que bajo esta condicin, los tiempos de ocurrencia de los dos sucesos 0 < S1 < S 2 < 1 se distribuyen igual que los estadsticos de orden correspondientes a dos variables aleatorias independientes y uniformemente distribuidas entre 0 y 1. La tesis del teorema es la que nos permite calcular la probabilidad requerida: tan solo tenemos que calcular la proporcin de casos de la simulacin (que cumplen la hiptesis) donde el tiempo de ocurrencia del segundo evento dista en menos de 10 minutos (1/6 de hora) del tiempo del primer evento. Cabe preguntarse si el valor del parmetro del proceso de Poisson no afecta el resultado. El siguiente cdigo simul N=10000 corridas en las cuales ocurran exactamente dos sucesos de Poisson en una hora para cada {2, 4, 6, 8,10}. Sorprendentemente, las probabilidades no varan segn el valor de lambda y en conjunto, no difieren mucho del valor terico calculado en la seccin 1.7 (que era de

0,3055 ).
106

> N=10000 > for (lambda in seq(from=2,to=10,by=2)) { + cnt=0 + muestra=NULL + while (cnt<N) { + x=cumsum(rexp(lambda,n=3)) + if ((x[2]<1)&(x[3]>1)) { + muestra=c(muestra,x[2]-x[1]) + cnt=cnt+1 + } + } + cat("lambda=",lambda,"probabilidad=", + mean(as.integer(muestra<1/6)),"\n") + } lambda= 2 probabilidad= 0.3078 lambda= 4 probabilidad= 0.306 lambda= 6 probabilidad= 0.3082 lambda= 8 probabilidad= 0.2967 lambda= 10 probabilidad= 0.3069 > Para darle ms sustento emprico al asunto, se obtuvo un histograma de frecuencias contrastando las densidades empricas con la funcin de densidad terica (la lnea roja). Dicho grfico se incluye en la Fig. 4.6: llama la atencin la similitud entre este y el de la seccin 1.7. Por supuesto, el abordaje que se le hizo a este problema en la seccin 1.7 es ms natural y ms directo que el que hicimos ahora. Pero con esto se pretenda trabase mayor conocimiento intuitivo sobre lo que establece el teorema 4.3 y sobre las condiciones necesarias para su validez. Se vuelve a recalcar que el valor particular del parmetro lambda no esta entre estas condiciones necesarias.

107

Fig. 4.5- Densidades emprica y terica para el problema del encuentro en la seccin 1.7. Las implicaciones del teorema 4.3 se pueden enlazar con todo lo que hemos visto hasta ahora del proceso de Poisson homogneo, en particular, las consideraciones que hicimos para los procesos de Poisson espaciales. De hecho, las condiciones de estacionariedad e independencia de los incrementos, que caracterizan al proceso de Poisson homogneo implican que en cualquier punto de una determinada rea existe igual probabilidad de ocurrir un suceso que en otro lugar. En la terminologa del teorema 4.3 diramos que el proceso de Poisson espacial distribuye puntos sobre un rea o volumen uniformemente. Por otro lado, vista la relacin entre la uniforme y la exponencial que se da en el proceso de Poisson, cuando se distribuyen puntos en el espacio de forma completamente aleatoria y uniforme, ocurre cierto aglutinamiento. Quizs por eso es que las estrellas y otros cuerpos celestes forman conglomerados como galaxias y constelaciones?

108

Problemas Resueltos
1) Cierta enfermedad no contagiosa afecta en promedio a una persona de cada mil en la poblacin. Cul es la probabilidad de que ocurran al menos dos casos, ningn caso y exactamente un caso en un pueblo de 3000 habitantes? Solucin: Como la enfermedad es no contagiosa, su presencia en cualquier habitante del pueblo es independiente del resto de las personas. Por lo tanto un modelo razonable de la situacin es suponer que se trata de 3000 ensayos de Bernoulli con probabilidad de xito de 0,001. Usamos en este caso la aproximacin de Poisson con parmetro = np = 3 , de donde obtenemos:

P {X = 0} = e = e 3 = 0,0498 P {X = 1} = e = 3e 3 = 0,1494
P {X = 2} = 1 (P {X = 0} + P {X = 1}) = 0,8008
2)

{N (t ), t 0} un proceso de Poisson homogneo Calcular P {N (2.5) = 15, N (3.2 ) = 19, N (4.5) = 32} .
Sea Solucin:

con parmetro = 8 .

El evento cuya probabilidad deseamos calcular se puede escribir como

P {N (2.5) = 15, N (3.2 ) N (2.5) = 4, N (4.5) N (3.2 ) = 13} y sabemos que una de las
caractersticas del proceso de Poisson es la de poseer incrementos estacionarios e independientes, de donde la probabilidad que deseamos calcular es:

P {N (2.5) = 15} P {N (0.7 ) = 4} P {N (1.3) = 13} = e 8(2.5+0.7+1.3) = 2.34 10 6

2015 5.6 4 10.413 17!4!13!

109

3)

Los clientes llegan a la sucursal de un banco de acuerdo con un proceso de Poisson homogneo de intensidad . Se sabe que en el intervalo [0,T ] ha llegado exactamente un cliente. Determina cul es la distribucin de la variable aleatoria X que representa el instante en el que llega el cliente, condicionada a la informacin de la que disponemos. Solucin: Para determinar completamente la distribucin de la variable aleatoria X, basta con determinar el valor del parmetro lambda, pues se sabe que

{X (t ), t 0} es

un proceso de Poisson homogneo. Una forma de abordar el problema sera as:

representa la cantidad de eventos, en promedio, que ocurren en una unidad de


tiempo. En base a la evidencia, ocurri un evento en T unidades de tiempo. Por lo tanto, para estimar en base a esta informacin podramos utilizar una regla de tres: 1 es a T como es a 1, de donde = 1 T .

Este planteamiento podra no parecer lo bastante cientfico, por lo cul hablaremos brevemente de un procedimiento de la inferencia estadstica llamado estimacin puntual por el mtodo de la mxima verosimilitud. Bsicamente, dicho mtodo consiste en determinar el estimador (valor) del parmetro como aquel que maximiza la verosimilitud, o probabilidad, de observar determinado valor de la muestra. En nuestro caso, la probabilidad de observar 1 suceso en todo el intervalo [0,T ] es:

P {X (T ) = 1} = e T

T
1

Encontrar el valor de que maximiza esta probabilidad es equivalente a encontrar el valor de que maximiza el logaritmo neperiano de dicha probabilidad, porque el logaritmo es una funcin montona creciente. Por lo tanto, tenemos que:

110

T ( T + ln + lnT ) = T + 1 ln P {X (T ) = 1} = ln e T = 1
e igualando dicha derivada a cero (para hallar el punto crtico), se tiene que

= 1 T , como habamos concluido antes.


4) Considere la confeccin de Galletas La Abuela, en la que el nmero de pasas en cada galleta de avena es una variable aleatoria de tipo Poisson con un promedio de 1,5 pasas por galleta. a) Cul es la probabilidad de tener una o ms pasas en una galleta de avena seleccionada al azar? b) En vista de que los clientes han protestado, la Abuela ha dado instrucciones a sus empleados que desechen las galletas de avena sin pasas. Cual es la esperanza matemtica y la varianza del nmero de pasas por galleta en las galletas restantes? Solucin: Sea X el nmero de pasas de una galleta escogida al azar, donde

P {X = k } = e 1,5
Por lo

1,5 k . k! P {X = 0} = e 1,5 = 0,2231


y en consecuencia,

tanto,

P {X 1} = 1 P {X = 0} = 0,7769 , lo cual responde a la primera parte de la


pregunta. Esta probabilidad de 0,7769 ser considerada como la probabilidad total en la distribucin de pasas en las galletas remanentes, que contendrn como mnimo 1 pasa. Por lo tanto, la distribucin de probabilidad (truncada) de la cantidad de pasas en las galletas con por lo menos una pasa ser:

1,5 1,5 k para k 1 P {X ' = k } = e 0,7769 k! 0 caso contrario


De ah, la esperanza de X es
1,5 k 1,5 1,5 k k = = 1,9308 e 1,5 0,7769 k! 0,7769 k = 0 k!

E [X '] = e 1,5
k =1

111

Y para calcular la varianza:

E X ' 2 X ' = E [X ' ( X '1)] = e 1,5


k =1

1,5 k 1,5 k k (k 1) = e 1,5 k (k 1) 0,7769 k! 0,7769 k! k =2

= e 1,5

1,5 1,5 k 2 1,5 2 1,5 k 1,5 2 = e 1,5 = 0,7769 k = 2 (k 2)! 0,7769 k =0 k! 0,7769
2

De donde E X ' 2 =

[ ]

1,5 2 + 1,9308 = 4,8269 y finalmente: 0,7769

V [X '] = E X ' 2 E 2 [X '] = 4,8269 1,9308 2 = 1,0989

[ ]

112

Problemas Propuestos
1) Demuestra que la siguiente funcin es una funcin de probabilidad y deduce la esperanza matemtica y la varianza de la variable aleatoria correspondiente:
x e p X (x ) = x! 0 x N 0 x<0

2)

Sea p(x; ) la funcin de probabilidad de Poisson con parmetro lambda. Demuestra la siguiente frmula de recursin:
p(x + 1; ) =

x +1

p(x; )

3)

El nmero de partculas emitidas de una fuente radioactiva durante un periodo de tiempo es una variable aleatoria con distribucin de Poisson y la probabilidad de que no haya emisiones es de 1 3 . calcula la probabilidad de tener 2 o ms emisiones en ese lapso de tiempo.

4)

Considrese el torneo de ftbol americano que se efecta entre los 28 equipos que constituyen la Liga Nacional de Ftbol (NFL) donde nos interesa el nmero de anotaciones (touchdowns) de cada equipo por juego. En base a la siguiente tabla, que muestra la estadstica de frecuencias del nmero de anotaciones por equipo por juego, ajusta el nmero de anotaciones a una variable aleatoria distribuida segn Poisson. En base a este ajuste, consideras que la distribucin de Poisson es un modelo matemtico adecuado para este fenmeno?
Nmero de anotaciones por equipo y juego 0 1 2 3 4 5 6 7 o ms Totales Nmero de veces observada (frecuencia absoluta) 35 99 104 110 62 25 10 3 448

113

5)

Supngase que en un recipiente que contiene 10.000 partculas, la probabilidad de que se escape una es de 0,0004 y cada escape ocurre de forma independiente. Cul es la probabilidad de que en ese recipiente ocurran 5 o ms escapes?

6)

Supngase que una operadora de tele-mercadeo recibe una llamada con probabilidad 0,01 y ninguna llamada con probabilidad 0,99 en un segundo. Utiliza la aproximacin de Poisson para calcular la probabilidad de que la operadora no reciba llamadas si se ausenta durante 5 minutos para tomarse un caf y comprala con la probabilidad binomial correspondiente.

7)

En un artculo publicado en una revista mdica especializada se reporta que para un paciente diabtico, insulina-dependiente de edad entre 30 y 40 aos, la probabilidad anual de contraer retinopata diabtica (ceguera) es de 0,0067. En un grupo de 1000 pacientes con estas condiciones, Cul es la probabilidad de que se den 4 o ms casos de ceguera causada por diabetes el prximo ao?

8)

En un hospital, se le hicieron pruebas a 3741 recin nacidos de los cuales 30 resultaron HIV-positivos. En una muestra aleatoria de 500 pacientes tomados de esta poblacin, cul es la probabilidad de que exactamente 10 de ellos resulten HIV-positivos? Justifica el uso de la distribucin hipergeomtrica para encontrar dicha probabilidad y aproxima esta probabilidad mediante la funcin de Poisson.

9)

Supngase que el 1,5% de las familias en Caracas tienen un ingreso anual por encima de los 30.000,00 Bs. F. Calcula la probabilidad de que al seleccionar una muestra aleatoria de 60 familias caraqueas, a lo sumo 2 tienen ingresos superiores a los 30.000,00 Bs. F.

10)

Al transmitir nmeros binarios de n dgitos mediante un componente electrnico, se introducen errores en la transmisin de cada bit de forma independiente y aleatoria con una probabilidad constante p = 0.0002 . Si se transmiten 1000 nmeros binarios de 64 bits cada uno por microsegundo, determina:

114

a) b)

Cul es la probabilidad de transmitir un nmero de 64 bits con cero, uno o ms errores? Cul es la probabilidad de que se transmitan exactamente diez nmeros incorrectamente en el transcurso de un microsegundo?

11)

En una manufactura de botellas de vidrio pueden encontrarse partculas extraas en el vidrio fundido. Si una de tales partculas se encuentra en el vidrio de una botella, dicha botella es defectuosa y debe ser descartada. Suponemos que estas partculas se encuentran distribuidas en el vidrio fundido de forma uniforme y aleatoria, y que en promedio, se tienen 30 partculas por cada 100 kg. de vidrio fundido y que se requiere 1 kg. de vidrio fundido para fabricar cada una de las botellas. Determina que porcentaje de las botellas deben ser descartadas. (Ayuda: la respuesta no es 30%)

12)

En un consultorio mdico llegan en promedio 15 pacientes diarios segn un proceso de Poisson. Cuntos pacientes deben ser admitidos diariamente a consulta si la gerencia desea estar segura con un 85% de confianza de no dejar de atender pacientes en un da?

13)

Considera un proceso de Poisson homogneo N (t ) t > 0 . Demuestra que para

s < t , N (s ) N (t ) = n es una variable aleatoria Binomial con n ensayos y


probabilidad de xito s t . Considrese un proceso de Poisson homogneo N (t ) t > 0 con tasa l. Calcule su ncleo de covarianza K (s, s + t ) con s, t > 0 .
n Demuestra por el mtodo de induccin completa que P n (t ) = e t ( t ) , n!

14)

15)

partiendo de la ecuacin 4.7 dada en este capitulo. 16) Como ejemplo de una distribucin aleatoria de puntos en el espacio, se da a continuacin una tabla basada en estadsticas referentes a la cantidad de impactos de bombas volantes alemanas tipo V-2 sobre Londres durante la segunda guerra

115

mundial.

El rea total expuesta a bombardeo se subdividi en 576 reas

pequeas de 1 4 km 2 cada una, registrando el nmero de reas N k en que hay exactamente k impactos.

0 229

1 211

2 93

3 35

4 7

5 o ms 1

Total 576

Nk

a) Cuntos impactos de bombas volantes se registraron en total, segn la estadstica anterior? b) Determina el promedio de impactos por rea de 1 4 km 2 . c) Determina el ajuste de impactos por rea de 1 4 km 2 a una distribucin de Poisson y verifica que el modelo de Poisson se ajusta bastante bien a este fenmeno. d) Segn las condiciones que dan origen al proceso de Poisson, interpreta y deduce las implicaciones de que el fenmeno descrito sea un proceso de Poisson. 17) En el bosque de Nunca Jams, los rboles se distribuyen segn un proceso Poisson espacial homogneo en dos dimensiones a razn de 50 rboles por hectrea. Cul es la distancia promedio entre un rbol y el rbol ms cercano? Sea Tn n N +

18)

} una

secuencia de variables mutuamente independientes e

idnticamente distribuidas segn una distribucin exponencial con parmetro l. Qu tipo de proceso estocstico es

{T

n N + ? Es estrictamente

estacionario? Es dbilmente estacionario? Razona tu respuesta. 19) Supngase que los tiempos entre eventos de un proceso (que llamaremos incrementos) son mutuamente independientes e idnticamente distribuidos y defnase una caminata aleatoria

{S

n N + del modo usual como la suma de n

incrementos positivos independientes. Sea {N (t ) = n} el suceso siguiente: Hasta el momento t, han ocurrido exactamente n eventos. Utiliza el lgebra de

116

conjuntos y los axiomas bsicos de la probabilidad para demostrar la siguiente equivalencia: P {N (t ) = n} = P {Sn t } P {Sn +1 t }. 20) Considrese un proceso de Poisson homogneo N (t ) t > 0 secuencia aleatoria

con tasa l y la

{S

n N+

} son

los tiempos de ocurrencia de eventos Calcula

asociados a este proceso de Poisson.

P { 3 x N (t ) = 10}, con S

0 x t.
21) Realiza una simulacin por computadora de un proceso de Poisson con intensidad promedio de 2 sucesos por unidad de tiempo. Utilizando dicha simulacin estima: a)

P {N [2,4 ] = 2}, donde N [2,4 ] representa la cantidad de sucesos ocurridos en el


intervalo [2,4] .

b)

P {3 S3 5} , donde S3 es el instante en que ocurre el tercer suceso.

22)

Un vendedor de perrocalientes observa que an cuando sus clientes asiduos no llegan en intervalos de tiempo regulares, no obstante arriban segn un proceso de Poisson con una tasa de llegada promedio de un cliente por minuto. Un da le dice a un amigo que le haga guardia en su carrito de perro calientes mientras el se ausenta por 5 minutos. A su regreso, el amigo le dice que en los cinco minutos llegaron 4 clientes. Descrbemelos por alguna caracterstica nica a cada uno y te dir el momento en el cual llegaron, le respondi el perrero. Calcula la probabilidad de que el perrero pueda identificar correctamente los tiempos de llegada de cada cliente si para cada cliente indica un intervalo de dos minutos dentro del cual se asegura que ese cliente lleg.

117

Вам также может понравиться