Вы находитесь на странице: 1из 43

TEMA 1

PROBABILIDAD

1. FENMENOS ALEATORIOS Los experimentos que se caracterizan porque al repetirlos bajo anlogas condiciones se obtiene siempre el mismo resultado, se denominan EXPERIMENTOS DETERMINISTAS. Por el contrario, son EXPERIMENTOS ALEATORIOS aquellos tales que al repetirlos en anlogas condiciones jams se puede predecir el resultado que se va a obtener.Las caractersticas que presentan los fenmenos aleatorios son: a. Es posible repetir el experimento indefinidamente sin que cambien las condiciones del mismo. b. Una pequea modificacin en las condiciones iniciales(darle ms peso a una cara,suelo inclinado,...) altera completamente el resultado final. c. No se puede predecir su resultado particular, sin embargo, se puede dar el conjunto de todos los posibles resultados del experimento. (*) d. Si el experimento se repite un gran n de veces, aparece un modelo de regularidad.(Esto va a ser lo que nos permita introducir el concepto de probabilidad) Ej. Lanzamiento de una moneda 2. ALGEBRA DE SUCESOS (*) Llamamos ESPACIO MUESTRAL de un experimento aleatorio al conjunto de todos los resultados posibles del experimento.( lo representamos por ). Cada uno de los elementos que forman el espacio muestral se llama punto muestral. Recibe el nombre de SUCESO DE UN EXPERIMENTO ALEATORIO a cada uno de los subconjuntos del espacio muestral,siendo el espacio de sucesos P( ) el conjunto formado por todos los posibles subconjuntos o sucesos de un experimento aleatorio. (#P( ) = 2exp(# )) En ej. ={C, X} y P( )={O,{C},{X},{C,X}}

Los SUCESOS se denominan ELEMENTALES si estn formados por un solo punto muestral, es decir, por un solo resultado del experimento aleatorio; si los sucesos estn formados por dos o ms puntos muestrales, se denominan SUCESOS COMPUESTOS. Otros ejs. Lanzamiento de un dado: ={1,2,3,4,5,6} Sucesos elementales:{1},...{6} Ej de suceso compuesto: A={2,4,6}=sacar n par Lanzamiento de 2 monedas: ={CC,CX,XC,XX} Sucesos elementales:{CC},...{XX} Ej de sucesos compuestos: A=al menos una cara={CC,CX,XC} B=a lo sumo una cara={XX,XC,CX} #P ( ) =2 exp(4)=16 . Llamamos SUCESO CIERTO o suceso seguro, al que siempre se realiza; es evidente que el suceso cierto estar formado por todos los resultados posibles del experimento, es decir, coincide con el espacio muestral. . Llamamos SUCESO IMPOSIBLE, y se designa por O , a un suceso que no se realiza nunca. . Dado un suceso cualquiera A , del espacio de sucesos, a un suceso que se realiza cuando no se realiza A y recprocamente; se le denomina SUCESO CONTRARIO ( o complementario) y se representa por A A A* A . Ej. {C} frente a {X} en ej 1. Entre los distintos sucesos de un experimento aleatorio se pueden realizar diferentes operaciones tales como: a. UNION DE SUCESOS: Se denomina union de los sucesos A y B (sucesos de un mismo experimento aleatorio) ,al que se realiza cuando se realiza A o B. Se representa por AUB. b. INTERSECCION DE SUCESOS: Dados dos sucesos A y B de un mismo experimento aleatorio, llamamos suceso interseccin de Ay B al suceso que se realiza cuando se realizan simultneamente los sucesos A y B; se representa por A B. Se verifican las denominadas LEYES DE MORGAN: Otras propiedades: . Distributivas : A (BUC) =(A B)U(A C) 1. AUB = A B 2. A B = A U B

AU(B C) =(AUB) (AUC) Cuando la interseccin de dos sucesos A y B es el suceso imposible, decimos que A y B son INCOMPATIBLES. (Obsrvese que un suceso y su contrario son siempre incompatibles) (Tambin se dicen mutuamente excluyentes o disjuntos; NO INDEPENDIENTES :lo veremos ms adelante cuando introduzcamos el concepto de Probabilidad) En 1854 George Boole public un libro titulado An Investigation into de Laws Thought en el que sistematiza sus ideas, construyendo la lgica formal como un nuevo tipo de lgebra que hoy en da llamamos ALGEBRA DE BOOLE. Se verifica que (P( ),U, ) tiene estructura de Algebra de Boole . Para simplificar diremos que en este caso esta estructura de lgebra vien caractrizada por: 1) Dados A y B de P( ), AUB C P ( ) 2) Dado A de P( ), A* C P( ) Consecuencias: a. El espacio muestral pertenece al espacio de sucesos. b. El conjunto vaco pertenece al espacio de sucesos. c. La interseccion de dos sucesos pertenece al espacio de sucesos. d. La unin finita de elementos del espacio de sucesos, pertenece al espacio de sucesos. e. La interseccion finita de elementos del espacio de sucesos, pertenece al espacio de sucesos. Una extensin de la estructura de Algebra de Boole aparece cuando la coleccin de conjuntos es tal que la condicin 1) se da tambin para uniones infinitas.Surge as el concepto de - ALBEGRA DE BOOLE o clase completamente aditiva. Si es finito o infinito numerable(N,Z,Q) se puede tomar esta -Algebra por ej. P( ) ( no quiere decir que sea la nica que se puede tomar ; lo que s es cierto es que cualquier otra estar contenida en ella) (Si es infinito no numerable , dada su cardinalidad tan grande, se suele tomar una A C P( ) ;ej. en R , se suele tomar A={Borelianos}-)

Se denomina entonces ESPACIO MEDIBLE al par formado por y una -Algebra construda sobre el espacio muestral. (Tambin se denomina espacio Probabilizable porque en l vamos a definir una probabilidad) 3. PROBABILIDAD La caracterstica d. del punto 1. se suele conocer como LEY DE ESTABILIDAD DE FRECUENCIAS Ej.

Esta ley nos va a permitir lo siguiente: Pretendemos definir el concepto de probabilidad, el cual intuitivamente est ligado al de frecuencia relativa.No podemos definir P como Fr. puesto que esta ltima es variable (en ej. anterior unas veces , tras 100 lanzamientos nos haban salido 40 caras, otras veces 20,...) y la probabilidad de un suceso queremos que sea cte. para poder conocerla a priori. Lo que s podemos, es ,dado que al repetir un experimento un gran n de veces, por la Estabilidad de Frecuencias , el resultado tiende a estabilizarse, definir Probabilidad de manera axiomtica como una aplicacin sobre el espacio de sucesos que verifique las mismas condiciones que la Frecuencia relativa. As la Probabilidad de un suceso ser como una especie de lmite de Frecuencias Relativas de ese suceso. i.e Probabilidad en ( ,A) es una aplicacin P: A C P( ) .P( )=1 .P( U A )= / A A =O [0,1 /

P(A ) siendo { } una familia numerable de

sucesos de i=j

(Nota: U A C A pues A

-Algebra; por eso puedodefinir P en ella)

Nota: Como trabajaremos habitualmente con finito ( i.e. tomaremos A=P( )), en este caso se puede definir probabilidad como: P:P( ) R /

.P(A)>=0 .P( )=1 .Dados A y B de P( )/ A B =O, P(AUB)=P(A)+P(B) Estas tres propiedades son generalizacin de las tres corres`pondientes de frecuencia relativa: .Fr.(A)>=0 .Fr( )=1 .Fr(AUB)=Fr.(A)+Fr.(B) si A B =O (Ver ej. fol 5. Aps. Estad.) Estos axiomas se denominan de Kolmogorov y a la tripleta ( ,P( ),P) se la denomina ESPACIO DE PROBABILIDADES o Espacio probabilstico. Consecuencias de la definicin: .Dada {A ,A ,.....A } familia finita de sucesos/ A A = O i=j, P(U A )= P(A )

.P(A*) =1-P(A)

.P( O ) =0 .Monotona:A C B P(A) <= P(B)

.P(A) <=! .A B = O , P(AUB) =P(A)+P(B)-P(A B)

i.e la P es sub-aditiva en gral. y aditiva en caso disjunto. * Un ej. de asignacin de Probabilidad (hemos dicho qu debe verificar pero no cul es su valor o definicin ) es la que se denomina ASIGNACIN EQUIPROBABLE y que consiste en : Dado ={x ,x ,...x }, defino: P(x ):=1/n para todo i Se demuestra que verifica las propiedades de probabilidad. En este caso se observa que dado A suceso cualquiera =>A={x ,...x } P(A) =P(U x )= P(x ) =k.1/n siendo k el n de ptos. muestrales en A =O Esta es la denominada REGLA DE LAPLACE, que dice que la probabilidad de un suceso A =k/n siendo k el n de casos favorables y n el n de casos posibles. Ej. un dado, una moneda. (Esta Regla de Laplace fue, por otra parte, la definicin clsica de Probabilidad que, como evidentemente no era realmente aplicable casi nunca (la equiprobabilidad es en realidad una caracterstica que se consigue casi en un laboratorio, pues existen cantidad de varables que desvirtan las condiciones), hubo de ser sustituda por la que acabamos de dar, la cual en el caso particular de total equiprobabilidad, coincide lgicamente con la de Laplace. 4.PROBABILIDAD CONDICIONADA

Sean A y B dos sucesos no disjuntos de un mismo e. muestral .En ocasiones es interesante conocer la probabilidad de que ocurra el suceso B sabiendo que previamente ha ocurrido el suceso A.Esta probabilidad se denotar P(B/A) Cmo se def.? Otra vez debido a la Ley de Estabilidad de Frecuencias, a partir de las props. de la frecuencia, intentaremos def. probabilidad condicionada. Supongamos que un experimento se realiza n veces , siendo NA el n de veces que ocurre el suceso A, NAB el n de veces que ocurren juntos los sucesos Ay B; entonces: fr.(A)= NA/N B respecto al total de veces que ocurre el suceso A) Como: NAB/N=(NAB/NA )(NA/N) => fr.(A B)=fr.(B/A).fr(A) As se define P(B/A) de manera que P(A B)=P(B/A).P(A) i.e P(B/A):=P(A B)/P(A) fr.(A B)=NAB/N fr.(B/A)=NAB/NA (el n de veces que ocurren juntos A y

Con esta definicin verifica los axiomas propios de una probabilidad(Ver apuntes 3 Estad.). Entonces ( ,P( );P ) e. de probabilidad dado ( ,P( ),P) e.probabilstico y A C /P(A)>0. (Ver los 2 ejs. Fol.19 Estad.) THS. IMPORTANTES: - REGLA DEL PRODUCTO - TH. DE LAS PROBABILIDADES TOTALES - TH. DE BAYES (ver ej. posterior) 5.INDEPENDENCIA DE SUCESOS Aps.3 Estad. Fol.20

(ver aps.fol24.3)

- Ay B independientes A* yB indep. A y B* indep. A* y B* indep. - Relacin entre Independencia e Incompatibilidad ! (Ver ej.fol.25) - Concepto de Independencia es relativo al e. de probabilidad (Ver ej.fol.25)

- Sucesos mutuamente independientes.Relacin con la independencia. (Ver ej.fol.26)

TEMA 2

VARIABLES ALEATORIAS
y

1. Sea un experimento aleatorio cuyo e.muestral es sobre el cual se define una probabilidad dada por: P:P( ) R

Esta funcin es difcil de manejar puesto que se trata de una funcin de conjuntos( el conjunto inicial es una coleccin de conjuntos), por eso ser interesante definir una nueva funcin cuyo dominio sea ahora i.e que asigne un n real a cada punto muestral. Ej. Consideremos el experimento aleatorio consistente enlanzar 3 monedas ={XXX,XXC,XCX,CXX,CCX,XCC,CXC,CCC} (son PR +PR +PR +PR =1+1+3.2/2.1+3.2/1.2=8 VR(2,3) )

Definir en este caso una variable aleatoria sera , por ej., definir la aplicacin que asocie a cada punto muestral, el n de caras que intervienen en l X R XXX XXC XCX CXX CCX XCC CXC CCC 0 1 2 3

Evidentemente esta funcin no es inyectiva i.e. X (y) =x nico, lo que s se verifica es que X (y) CP( ) y ,adems, X (- ,y) CP( ) -=A en este caso- para todo y de R, lo cual permitir calcular la probabilidad de X (- ,y) y, por tanto la probabilidad e obtener y caras o menos Ej. X (- ,1)={XXX,XXC,XCX,CXX} C P( ) As en gral.: Dado ( ,A,P) e.probabilstico, se denomina VARIABLE ALEATORIA en a cualquier aplicacin X: R/ X (- ,y) C A para todo x de R. Nota: Como trabajaremos con e.muestral finito y,por tanto, tomaremos gemeralmente A=P( ), X ser v.a.<=>X (- ,x) C P( ) para todo x de R i.e. X: R v.a. para toda X. Ver ejs.1,2,3 Fol.31,32 Aps.Estad. probs. 1 y 8 Fols.18y 21 2.FUNCION DE DISTRIBUCIN ASOCIADA A UNA V.A Definicin de Funcin de Distribucin gral.: F:R R / 1. es no decreciente 2. continua por la dcha. 3.lim F(x)=1, lim F(x)=0 x-+ x-F(+ ) F(- )

Dada una v.a. X, puesto que X (- ,x) = (X<=x) C A para todo x => podr calcular P(X<=x)y, as, podr definir una nueva funcin asociada a X, que se puede d., es funcin de distribucin . Ser la denominada FUNCION DE DISTRIBUCION ASOCIADA A LA V.A. X y tiene la forma: F:R R x F(x):=P(X<=x) i.e hace corresponder a cada valor de la v.a. su probabilidad acumulada. Ej. en ej anterior de lanzamiento de 3 monedas F(0)=P(X<=0)=1/8 F(1)=P(X<=1)=4/8 F(2)=P(X<=2)=7/8 F(3)=P(X<=3)=1 y, adems F(x)=0 para todo x<0 F(x)=1 x>3 3.VARIABLES ALEATORIAS DISCRETAS Una v.a. se dice discreta si toma un n finito o numerable de valores o. lo que es lo mismo, si el conjunto de puntos con probabilidad no nula es finito o numerable. La funcin P(X=x )=pi que asigna a cada valor de la v.a. su probabilidad, recibe el nombre de funcin de cuanta o funcin de masa de probabilidad y verifica: 1.pi >=0 2. pi=1 Relacin entre la funcin de masa de probabilidad y la funcin de distribucin: F(x)=P(X<=x)= pi xi<=x Adems de la definicin de funcin de distribucion se deduce que P(a<X<=b)=F(b)-F(a)= pi- pi (cierto X v.a.) xi<=a xi<=b 4. VARIABLES ALEATORIAS CONTINUAS Sea X v.a.,X se dice continua <=> su funcin de distribucin admite lo que se denomina una representacin integral i.e. sii existe f / F(b)-F(a)= f(x)dx P(a<X<=b) Esta f se denomina funcin de densidad y verifica: 1)f(x)>=0 2) f(x)dx=1

De esta definicin se deduce que la expresin de F en funcin de f ser: F(x)= f(t)dt Observacin: a diferencia de las v.a.discretas en las que P(xi)=pi>0 para cada uno de los valores de la variable ,en una v.a. continua P(X=a) = P(a<X<=a) = f=0 para todo a valor de la variable. La representacin de F respecto a f es:

F(x)=P(X<=x) (As el es evidentemente 0) Por tanto si me piden calcular: P(a<=X<=b)=P(a<X<b)=P(a<X<=b)=P(a<=X<=b)=F(b)-F(a) i.e.

5. TRANSFORMACIONES DE UNA V.A.(Cambio de v.a.) CONTINUA, POR UNA FUNCIN MONTONA Sea X una v.a. X ( ,A,P) R y consideremos una funcin montona g:R Al hacer la composicin X R R

g(X) obtenemos una nueva v.a. Y=g(X) tambin continua. (se d.) (se d.) La funcin de distribucin de esta nueva v.a. es la siguiente: FY (y)=P(Y<=y)=P(g(X)<=y)= * . Si g montona creciente: = P(X<=g (y))=FX (G (y)) * -como por montona, la aplicacin resulta bi-unvoca, g est bien definidaAdems la funcin de densidad ser dFY (y) d (F (g (y))) dx ------------ = ------------------- =f X(g (y)) ------

dy

dy
Regla Cadena (>0)

dy

. Si g montona decreciente: =P(X>=g (y)) =1-P(X<g (y))=1-F X(g (y)) * Y la funcin de densidad ser: dF Y(y) d(1-F X(g (y)) dx -------------- = ----------------------- = -f X(g (y)) -----dy dy dy
(<0)

dX i.e en cualquier caso la funcin de densidad es: f Y(g (y))/ ----/ dy

TEMA 3

MOMENTOS DE UNA V.A.

1.Sea X v.a.Se define la media o ESPERANZA de X como: A. Si X discreta: E(X)= xipi si /xi/pi serie convergente (pedir esto es + fuerte- convergencia absoluta de xipi- que pedir la simple convergencia de xipi ; Ver ej Fol.57 3 Estad.) i.e si el conjunto de valores de la variable es finito E(X) siempre existe B. Si X continua: E(X)= impropia convergente x.f(x)dx si /x/f(x)dx integral

Propiedades: (d.Apuntes 3) a. E(X) es el centro de gravedad de masas de la distribucin. (Si X discreta E(X) no tiene porqu coincidir con un valor de la variable, encambio s se alcanza si X continua) b. E(C)=C para toda C v.a. cte. c. E(X+b)=E(X)+b i.e. la esperanza es sensible a los cambios de origen. d. E(aX)=aE(X) i.e la esperanza es sensible a los cambios de escala. e. E(X+Y)=E(X)+E(Y)

2. MOMENTOS RESPECTO AL ORIGEN Se define el momento de orden r, respecto al origen como =E(X ) (i.e. =E(X)) E(X-O) ) .Si X discreta=> X discreta=> = xi.P(X =xi )= P(X=xi)=pi => = xi pi si /xi / pi<+ .Si X continua=> X continua=> = x f(x)dx si /x/ f(x)dx<+ se d. 3. MOMENTOS CENTRALES O RESPECTO A LA MEDIA Se define el momento central de orden r, como Relacin entre y : r r (x- ) = ( ) x (- ) +( ) x (- ) + ..................+( o 1 r = ( ) x (- ) h r r = E( ( ) x (- ) ) = ( )(- ) E(x )= h h 2 2 2 = ( )(- ) + ( )(- ) +( )(- ) 0 1 2 =E((X- ) ) r )x (- ) = r

r ( h = -2 + => = o )(- )

A se le conoce como VARIANZA de X y se la denota usualmente: Var(X)

Propiedades: 1) >=0 2) =0<=> la distribucin es degenerada i.e. si los valores de la variable son todos iguales. 3)Var(X+b)=Var(X) i.e. no le afectan cambios de origen 4) Var(aX)=a Var(X) 4.Diremos que xp es un p-cuantil de X (o<p<1) si P(X<=xp)>=p <=> F(xp)>=p P(X>=xp)>=1-p <=> P(X=xp)+P(X>xp)>=1-p <=> P(X=xp)+1F(xp)>=1-p <=> F(xp)<=p+P(X=xp) i.e. xp cuantil si

p<=F(xp)<=p+P(X=xp) y si, en particular, X v.a. continua, como P(X=xp)=0, p=F(xp)

* Si p=1/2 , x1/2 se denomina mediana de la distribucin .La mediana acumula el 50% de la distribucin y deja a su dcha.la otramitad. Se denota M Ej. Si por ej. la f de una v.a. X tiene la forma:

* Si p=1/4,p=2/4 p=3/4 obtenemos los denominados cuartiles, que se acostumbran a denotar qr r=1,2,3 Ej. Si por ej. tenemos

* Si p=1/10,.... p=9/10 obtenemos deciles: Dr r=1,...9 * Si p=1/100, ...... p=99/100 percentiles: Pr r=1,.....99

Nota: Tanto si X discreta como si X continua, en el caso de que existan varios xp / p<=F(xp)< = p+P(X=xp) , se tomar el cuantil xp como el nfimo de esos valores. Ej.

a.c.

discreta

5. FUNCIONES GENERATRIZ DE MOMENTOS Y CARACTERSTICA

Sea X una v.a. , se define la FUNCIN GENERATRIZ DE MOMENTOS como : X(t) = E(e )= * . Si X discreta: = e * i=1 pi si i=1 /e /pi<+

. Si X continua: = e f(x)dx si /e /f(x)dx<+ * Se llama as porque a partir de la generatriz de momentos se pueden obtener los momentos de cualquier orden respecto al origen, pues se verifica: X (0) =
derivada k-sima de X

Por ej. supongamos que X continua: X (t)= X (t)= xe xe f(x)dx => f(x)dx => X (0)= X (0)= xf(x)dx= E(X) x f(x)dx=E(X )

Por tanto, ofrece la misma informacin que la funcin de distribucin o la de densidad. Se define ahora FUNCIN CARACTERSTICA de X como: X(t) =E(e ) y se demuestra que, a diferencia de la funcin generatriz de momentos, la funcin carcterstica existe siempre. 6. Ths. DE MARKOV y DE TCHEBYCHEV
. DESIGUALDAD DE MARKOV:

Sea X v.a. con funcin de densidad f(x) (daremos el th. para caso continuo; anlogo si no es as) y sea g: R R una funcin no negativa. Entonces: P(g(X)>= ) <= E(g(X))/ demostrac.

E(g(X))= >=

g(x)f(x)dx=

g(x)f(x)dx>= {x/g(x)>= } g(x)>=

g(x)f(x)dx + g(x)f(x)dx >= {x/g(x)>= } {x/g(x)< } g(x)f(x)dx = P(g(X)>= ) {x/g(x)>= }

.TH. DE TCHEVICHEV:

Es un caso particular de la anterior desigualdad, para g(x)=(x- ) y con k C R P{ (X- ) >=k P{/X- />=k Entonces: }<= E((X- ))/k } 1-P{/X/<k =1/k }<=1/k

=k

o bien P{/X- /<k }>=1-1/k <X< +k

i.e 1-1/k cota de la probabilidad para cada k. Nota: Esta cota no se puede mejorar (Ver Fol.70 Aps. 3) El anterior resultado se puede interpretar diciendo que la probabilidad de que la variable difiera de su media en un mltiplo de (k ), est acotada por 1/k A mayor k, mejor cota: si k=1: P{/X- />= }<=1 No aporta nada si k=2: P{/X- />=2 }<=1/4 Mejor

TEMA 4

VARIABLES ALEATORIAS BI-DIMENSIONALES

1. (X,Y): R V.A. BI- DIMENSIONAL si cada una de sus componentes X e Y es, a su vez, v.a. unidimensional. Ej. sobre ={alumnos de una clase} (X,Y)=(Peso, Altura) 2. FUNCIN DE DISTRIBUCIN ASOCIADA A UNA VARIABLE ALEATORIA BI-DIMENSIONAL: F: R R (x,y) F(x,y):=P(X<=x,Y<=y) = P({w C /X(w)<=x} {w C /Y(w)<=y}) Como funcin de distribucin en R que es, verifica: 1- F(- ,y)=0 F(x,+ )=0 F(+ ,+ )=1 Demostracin por ej. de: F(x,- )=0 F(x,- )=P(X<=x,Y<=- )=P{w C /X(w)<=x} {w C / Y(w)<=- }=P(A O)=P(O)=0. 2. F es montona no decreciente para cada variable , es decir, x1<x2 => F(x1)<=F(x2) y1<y2 => F(y1)<=F(y2) 3. F es continua por la derecha de cada variable, es decir, lim. F(x,y) = F(x1,y) x x1 x>x1 lim. F(x,y) = F(x,y1) y y1 y>y1 PERO: En R estas tres propiedades caracterizan una funcin de distribucin. En gral , en R , y en particular en R , hace falta aadir una ltima propiedad, que en el caso de R, es una trivialidad y, por tanto, no se exige.Esta propiedad es la siguiente: 4. P(a<X<=b,c<Y<=d) = *
cierto suceso A

= F(b,d)-F(a,d)-F(b,c)+F(a,c) es >=0 * Nota: En el caso de la funcin de distribucin asociada a una variable aleatoria uni-dimensional, P(a<X<=b) = F(b)-F(a) >=0 siempre, por eso no hace falta exigirlo.
F no decreciente

3. VARIABLE ALEATORIA BI-DIMENSIONAL DISCRETA: (X,Y) discreta si lo son cada una de sus componentes. Entonces el conjunto de valores que toma la variable estar formado por el conjunto de pares del producto cartesiano XxY. La funcin de masa de probabilidad o de cuanta viene dada por: P(X=xi,Y=yj) =pij verifica: 1. pij>=0 2. i j pij=1

4. VARIABLE ALEATORIA BI-DIMENSIONAL CONTINUA: (X,Y) continua si exciste una funcin no negativa f / F(x,y) = f(x,y)dxdy

Esta funcin recibe el nombre de funcin de densidad conjunta y verifica: 1. f(x,y)>=0 2. Adems se verifica: d F(x,y) f(x,y)= ------------- =D F(x,y) dxdy 5. DISTRIBUCIONES MARGINALES: f(x,y)dxdy=1

Son cada una de las distribuciones de las variables que forman la v.a. bidimensional con independencia de los valores que tome la otra.Es decir: F(x,+ )=P(X<=x,Y<=+ )=P({w C / X(w)<=x} {w C / Y(w)<=+ }) =P(w C / X(w)<=x) = P(X<=x) =Fx(x) Distribucin marginal de X Anlogamente F(+ ,y)= FY(y) Distribucin marginal de Y - En una variable discreta: P(X=xi)=P(X=xi,Y=yj para todo j)= pij = pi. Distribucin j marginal de X. Anlogamente P(Y=yj)= pij=p.j i - En una variable continua: Fx(x)= X y como : F(x,+ )= ( f(x,y)dy)dx entonces: fx(x)= f(x,y)dy es decir, puedo obtener la funcin de densidad marginal de la variable X , a partir de la densidad conjunta, de la forma anterior. Anlogamente para la otra variable, i.e. fY(y)= f(x,y)dx fx(t)dt siendo fx la funcin de densidad marginal de

6. DISTRIBUCIONES CONDICIONALES - lo har para variables aleatorias continuas; sera similar para discretas Se puede analizar la distribucin de la variable X, sujeta a cierta restriccin impuesta por Y, es decir: P(X<=x,Y C A) ( f(x,y)dy)dx F(x/Y C A) = P(X<=x/Y C A) = -------------------- = -----------------------P(Y C A) fY(y)dy f(x,y)dy = ( ----------------- )dx fY(y)dy y como: F(x/Y C A) = Entonces: fx/Y C A dx

f(x,y)dy ------------------- =fx/Y C A

fY(y)dy Anlogamente para la otra variable. CASO PARTICULAR: F(x/Y=y) en ppo. , esta distribucin condicionada no estara definida en una variable continua, dado que P(X<=x,Y<=y) F(x,y) = --------------------P(Y=y) =0 Sin embargo,se puede obtener haciendo un paso a lmite: P(X<=x,y-e<Y<y+e) F(x/Y=y)=lim. F(x/y-e<Y<y+e) =lim. --------------------------- = e--0 e--0 P(y-e<Y<y+e) *
P(a<X<=b,c<Y<=d)=F(b,d)-F(a,d)-F(b,c)+F(a,c) = F(b,d)-F(- ,d)-F(b,c)+F(- ,c) si a=0 0 As P(- <X<=x,y-e<Y<y+e)=F(x,y+e)-F(x,y-e)

1/2e (F(x,y+e)-F(x,y-e)) D F(x,y) = lim. ------------------------------- = -------------e--0 1/2e (FY(y+e)-FY(y-e)) dF (y)


multiplico arriba y abajo por 1/2e f(xo,yo+t)-f(xo,yo) D f(xo,yo)=lim -----------------------t--o t

y como: F(x/Y=y)= fx/Y dx

Igualando y derivando respecto a la variable X: D F(x,y) f(x,y) fx/Y =--------------- =----------DF (y) fY(y)
f(x,y)=D f(x,y)

As, dos variables sern INDEPENDIENTES si f(x,y)=fx(x).fY(y) para todo (x,y).

7. TRANSFORMACION DE VARIABLES ALEATORIAS BI-DIMENSIONALES TH. X: R v.a. bi-dimensional continua

Sea g: R R tal que: 1. k=2 2. u1 =g1(x,y) u2 =g2(x,y)

gi inyectivas para todo i y,por tanto, con inversa: x=h1(u1,u2) y=h2(u1,u2) siendo gi y hi continuas para todo i=1,2 dgi dgi 3. ------- , ------ existen y son continuas para todo i=1,2 dx dy 4. /J/= dy --du1 dy --du2 dx --du1 dx --du2 =0

Entonces: asociada:

U=g(X) continua siendo su funcin de densidad

fU (u1,u2) =f(h1(u1,u2),h2(u1,u2))/J/ NOTA: Si k inicialmente <2, es decir si k=1, introduciremos arbitrariamente n-k=1 funcin. 8. MOMENTOS DE V.A. BI-DIMENSIONALES: - RESPECTO AL ORIGEN Se denomina momento respecto al origen de orden r+s y se denota rs a la E(X Y ). . Si (X,Y) v.a. bi-dimensional discreta, se verifica rs = xi yj pij
y=1 j=1 func. masa de probabilidad de la variable conjunta (X,Y)

. Si (X,Y) v.a. bi-dimensional continua,se verifica: f(x,y)dxdy

rs

xy

func.de densidad de la variable conjunta (X,Y)

As, en particular, :

10

=E(X)

01 =E(Y)

20

=E(X )

02

=E(Y )

11

=E(XY)

- RESPECTO A LA MEDIA

Se denomina momento respecto de la media, de orden r+s y se denota a la E( (X-E(X)) (Y-E(Y)) ). As , en particular:

rs

20 =E(X-E(X)) =Var(X) 02 =E(Y-E(Y)) =Var(Y) 11 =E( (X-E(X)) (Y-E(Y) ) = COVARIANZA de X e Y =Cov(X,Y) Se verifica lo siguiente: Var(aX+bY+c)= a Var(X)+b Var(Y)+2abCov.(X,Y) d. Var(aX+bY+c)=E( (aX+bY+c)-E(aX+bY+c) ) =E(a(X-E(X))+
aE(X)+bE(Y)+c

b(Y-E(Y)) ) =E(a (X-E(X)) +b (Y-E(Y)) +2ab(X-E(X))(Y-E(Y)) ) = =a Var(X) + b Var(Y) + 2ab Cov.(X,Y) Con respecto a la covarianza adems se comprueba: Cov(X,Y) =E( (X-E(X))(Y-E(Y)) ) =E(XY-XE(Y)-YE(X)+E(X)E(Y))= =E(XY)-E(Y)E(X)-E(X)E(Y)+E(X)E(Y)=E(XY)-E(X)E(Y) En particular si X e Y son independientes: E(XY)=E(X)E(Y), con lo cual, Cov.(X,Y)=0
demostr. por ej si son continuas (sin tambin se verifica) : E(XY)= xyf(x,y)dxdy = xyf1(x)f2(Y)dxdy= xf1(x)dx yf2(y)dy=E(X)E(Y)

Es decir, si X e Y son independientes => Cov(X,Y)=0 <= El recproco no es cierto en gral. O sea si x e Y indepedientes: Var(aX+bY+c) = a Var(X)+b Var(Y)

TEMA 5

MODELOS DE VARIABLES

ALEATORIAS DISCRETAS
1. DISTRIBUCION DE BERNOUILLI.

Supongamos un experimento en el que slo pueden darse dos resultados : A A y definamos la variable aleatoria: 1 si se produce A X= 0 si se produce A A se suele denominar suceso xito y A fracaso. X es, por tanto, una variable aleatoria discreta cuya masa de probabilidad es: P(X=1) =P(A)= cierta probabilidad p P(X=0) =P(A)= 1-P(A)= 1-p que denotaremos q Se dir que X sigue una distribucin de Bernouilli de parmetro p y se denotar Ber(p). Ej. Lanzamiento de una moneda: xito= obtener cara 1 si cara X= X Ber(1/2) 0 si no cara As dada una variable de Bernouilli sus parmetros ms notables sern los siguientes: E(X) = 1.p+0.q = p Var(X) = E(X )-(E(X)) = p-p =p(1-p)=pq Adems su funcin generatriz es: X(t) =E(e )=e .p+e .q=q+pe
E(X )= 1 .p+0 .q = p

2. DISTRIBUCIN BINOMIAL Una variable aleatoria X se dice que sigue una distribucin binomial de parmetros n y p , y se denota Bi(n,p), si mide el n de xitos que se han producido a lo largo de un experimento consistente en n pruebas, siendo el xito un suceso de probabilidad p. Evidentemente, si el n de pruebas es 1, esta distribucin coincide con la de Bernouilli, y como el resultado obtenido en cada prueba es independiente del obtenido en las restantes, una Bi(n,p) en el fondo no es ms que la suma de n variables independientes Ber(p) i.e. X Bi(n,p) => X=X1+........+Xn siendo Xi Ber(p) Ej. Lanzamiento tres veces de una moneda ; xito = obtener cara ; X = n de caras obtenidas tras los tres lanzamientos X Bi(3,1/2) y , en cada una de esas 3 pruebas se estudia la ocurrencia o no del suceso xito i.e. se estudian las variables aleatorias 1 si cara en lanzamiento i-simo Xi= Xi Ber(1/2) 0 si no cara Supongamos que quiero estudiar en este experimento, la P(X=2). Esta =O probabilidad es evidentemente P((A A A) U (A A A) U (A A A)) =

P(A A A)+P(A A A )+P(A A A) = P(A)P(A)P(A)+P(A)P(A)P(A)+ +P(A)P(A)P(A) = p q+p q+p q=3p q. Este 3 es, en realidad, ( es, en realidad, q .
de 3 pruebas, quito 2 xitos y me queda un fracaso independientes

) yq

As, en general, la funcin de masa de probabilidad de una variable aleatoria Bi(n,p) es: fracasos P(X=k) =( )p q As la funcion de distribucin ser: F(x)= ( )p q
de n pruebas, se dan k xitos

i=0 y el resto de los parmetros notables sern: E(X) =E(X1+......+Xn)= i=1 Var(X)
independientes => Cov=0 =Var(X1+......+Xn)= Var(Xi)=npq

E(xi)=np

y su funcin generatriz: E(e i=1 )= i=1

i=1 X(t) = E(e )=E(e ) .

Xi independ. => e independ.

)=E(e .e

......e )=

Xi(t)=(q+pe

NOTA: Una distribucin dependiente de un parmetro x , se dice reproductiva respecto a ese parmetro si consideradas dos variables aleatorias independientes con esa distribucin, al sumarlas se obtiene otra variable aleatoria de igual distribucin y de parmetro la suma de los parmetros de las dos variables aleatorias. As, la distribucin Bi(n,p) se dice reproductiva respecto al parmetro n puesto que considerando: X1 Bi(n1,p) independientes X2 Bi(n2,p) X1+X2 Bi(n1+n2,p) demost. Sea X=X1+X2 X(t)= X1(t). X2(t)=(q+pe )(q+pe ) =(q+pe ) y como ya comentamos que la funcin generatriz de momentos ofrece la misma informacin que la funcin de distribucin o la de densidad , se puede demostrar que el hecho de que X tenga esa funcin generatriz garantiza que X sigue una distribucin Bi(n1+n2,p). Una caracterstica tambin importante es la moda o valor ms probable:

Def. Dada X variable aleatoria , si x es la moda de X, se verifica que P(X=x-1)<=P(X=x) y P(X=x+1)<=P(X=x) (i.e. los valores por encima y por debajo de la moda tienen < = probabilidad que ella) En el caso de la Binomial: P(X=x-1)<=P(X=x) P(X=x-1) ------------ <= 1 P(X=x) ( )p q -------------- <=1 ( )p q n! ---------------- p q (x-1)!(n-x+1)! qx -------------------------------- = ----------- <=1 n! (n-x+1)p ----------------- p q x!(n-x)! qx<=np-xp+p (1-p)x<=np-xp+p x-px<=np-xp+p x<=p(n+1) p(n+1)-1<=x<=p(n+1) 3. DISTRIBUCIN DE POISSON Consideremos un intervalo de tiempo a lo largo del cual estudiamos el n de ocurrencias de un suceso A , de manera que , en cada instante, la probabilidad de ocurrencia de ese suceso es muy pequea y cte. Como en ese intervalo existen infinitos instantes en los que comprobamos el experimento, el suceso A se dar, en el intervalo, un n de veces que puede oscilar desde x=0,1,.... x>=p(n+1)-1 Anlogamente P(X=x+1=<=P(X=x)

La variable aleatoria X que mide este n de ocurrencias se dice variable aleatoria de Poisson de parmetro , siendo la probabilidad del suceso A en cada instante. Se comprueba que e P(X=x) = --------x=0,1.... Se denota X P( ) x! Caractersticas fundamentales: .F(x)= e -----i=0 xi! (e . ) e (e ) . X(t) = E(e ) = e e ----- = e --------- = e (1+ ----- + ------ + i=0 i=0 xi! 1! 2! ..........) = e e =e x
desarrollo de Taylor de la func. e : e = k=0 -----k!

As X (t) = e e => X (0) = Entonces E(X) = X (t) = e e e +e e = (e e e +e e ) => = ( +1) =E(X ) Entonces Var(X) =E(X )-(E(X)) = ( +1)- = + - = Si x es la moda : P(X=x-1)<=P(X=x) y P(X=x+1)<=P(X=x) e ----(x-1)! --------------- <=1 e ----x! x ----- <=1 x<= Reproductividad: X=X1+X2 X1 X2 P( 1+ 2) x>= -1 -1 <=x<= P( 1) P( 2) independientes

X (0)

Anlogamente

demost. X(t) = X1(t). X2(t) =e e =e => X P( 1+ 2) i.e. la variable de Poisson es reproductiva respecto al parmetro (y este hecho se usa con frecuencia) .Se verifica lo siguiente:

Bi(n,p) -----------------------

P(np)

y esta aproximacin de Bi por Poiss se considera buena cuando np<5 p<01 Un ej. tpico de distribucin de Poisson suele ser la llegada de cohes a un semforo. 4. DISTRIBUCIN GEOMTRICA. Consideremos un suceso xito A de probabilidad p, y que, en lugar de contar el n de xitos obtenidos en n pruebas, estudiamos el n de fracasos hasta el primer xito. Sea X la v.a. que recoge ese n de fracasos. Se dice que X es una v.a. geomtrica de parmetro p y se denota G(p). Ej. Un borracho que llega a su casa con n llaves. Podremos definir la v.a. que cuenta el n de llaves fracaso antes de encontrar la llave la puerta; seguir una distribucin geomtrica de parmetro 1/n (suponiendo ,claro, que exista reemplazamiento de llaves una vez comprobadas) Se verifica que P(X=x) = q p x=0,1,2...... q=P(A) NOTA: Si consideramos Y=n de pruebas necesarias para que aparezca el primer xito entonces P(Y=x)=q p x=1,2,... La relacin entre X e Y es Y=X+1 . Algunos autores consideran esta como la variable geomtrica. Caractersticas de X : .
X(t)=E(e
hay x-1 fracasos 1 xito

)=

p e P(X=x) = p (e q) =------ =p(1-qe ) x=0 pq x=0 1-qe

pqe . E(X)= X (0)=------=----- = ----- = --(1-qe ) t=0 (1-q) p p pqe (1-qe ) -pqe 2(1-qe )(-qe ) pqe (1-qe +2qe ) .E(X )= X (0)= --------------------------------------- =----------------------(1-qe ) t=0 (1-qe ) t=0 pqe (1+qe ) pq(1+q) q(1+q) =---------------= ----------- = --------(1-qe ) t=0 (1-q) p q(1+q) q+q -q q As Var(X) = E(X )-(E(X)) = --------- -(q/p) = ---------- = ---p p p

a suma infinita de los trminos de una progres.geomt.: ----pq pq q 1-r

Reproductividad: X1 X2 G(p1) G(p2) independientes => X1+X2 G(p1+p2) demost. Sea X=X1+X2 ; X(t) = X1(t) X2(t)= p1(1-q1e ) p2(1-q2e ) = (p1+p2) (1-(1-(p1+p2))e ) Incluso aunque el parmetro fuese el mismo en X1 y en X2 : X(t)= p(1-qe ) p(1-qe ) =p (1-qe ) i.e. la v.a. geomtrica NO es reproductiva . Adems esta variable tiene una caracterstica especial que se conoce como falta de memoria P(X>x)=P(X>=x+1)= q p= p(q +q +......) = pq (1+q+q +....)= x+1 = pq (1/1-q) = q Es decir, P(X>x) = P(X>=x+1) =q con lo cual, si pretendo calcular p.ej. P(X>m+n,X>m) P(X>m+n) q P(X>m+n/X>m) =---------------------- =-------------- =------= q = P(X>=n) P(X>m) P(X>m) q es decir la probabilidad de que transcurran otros n fracasos antes de aparecer el primer xito, es independiente de que previamente ya se hayan producido m fracasos. Ej. La probabilidad de que una bombilla dure 5 horas ms despus de durar 3 horas es independiente de este ltimo detalle. xito=que la bombilla se funda 5. DISTRIBUCIN BINOMIAL NEGATIVA. Si en lugar de contabilizar el n de fracasos hasta 1 xito(de probabilidad p), estudiamos el n de fracasos hasta conseguir r xitos , estaremos ante una v.a. binomial negativa.se denota BN(r,p). Evidentemente si r=1, una binomial negativa no es ms que una v.a. geomtrica. k+r-1 k fracasos rq Se verifica que: P(X=k)= p q y que E(X)=----k r xitos p
buscar todas las combinaciones de x fracasos tomadas de un total de k+r pruebas

Anlogamente a como sucedi con la geomtrica, tambin en este caso se puede considerar la variable: n de pruebas para n xitos :Y Se verifica que r+(z-r)-1 z-1 P(Y=z)=P(X=z-r)= q p = q p z-r z-r y la esperanza y varianza sern: r q

E(Y)=--p

Var(Y)=---- r p

.Se verifica lo siguiente: BN(r,p) --------------------- P(rq) r>>> 6. DISTRIBUCIN HIPERGEOMTRICA. Se tiene cuando se realizan n extracciones de una poblacin de N elementos sin reposicin. En cada prueba se pueden dar los sucesos A--xito y A--- fracaso pero estas pruebas no son independientes entre s , ya que la probabilidad de xito cambia en cada extraccin (no hay devolucin). La variable X que contabiliza el n de xitos se denomina v.a. hipergeomtrica y se denota X H(N,n,p) N1 N2 N P(X=x)= x n-x / n siendo N1 el n de elementos tipo A y N2 los de tipo A Y la Esperanza y la varianza vienen dadas por: N-n E(X)=np Var(X)=npq ----N-1
factor de finitud < 1 (Como esta varianza es menor que la de la binomial, la dispersin es menor) probab.xito inicial

Ej. En una urna con 4 bolas blancas y 2 negras, se extraen sin devolucin 3 bolas Probab. de que salgan las dos negras? .Se verifica que: H(N,n,p)------------------ Bi(n,p) n/N<0,1

TEMA 6 VARIABLES ALEATORIAS CONTINUAS


1. DISTRIBUCION UNIFORME Una v.a. continua X se dice que tiene una distribucin uniforme en el intervalo (a,b) y se denota X U(a,b), si su funcin de densidad es: k si a<x<b f(x)= 0 en otro caso La k viene determinada por definicin de funcin de densidad, es decir: f =1 => k =1 => kx 1/(b-a) o sea f(x) = 0 Representacin grfica: 1/(b-a) en otro caso
b a

=1 => k(b-a) =1 => k=1/(b-a)

si a<x<b

a Caractersticas:

1. Funcin de distribucin: 1 1 F(x)=P(X<=x)= --- dx = ----- t b-a b-a As, F(x) =

x a

x-a = -----b-a 1

0 si x<=a (x-a)/(b-a) si a<=x<b 1 si b<=x

(x+h)-a x-a h 2. P(x<X<x+h) = F(x+h)-F(x)= --------- - ----- = ---b-a b-a b-a es decir, en la distribucin uniforme, la probabilidad en un intervalo NO depende de los extremos de este, sino que slo depende de su amplitud. 1 1 x b 1 b -a (b+a)(b-a) 3. Media : E(X)= x ----- dx = ----- --= ---- -------- = ------------b-a b-a 2 a b-a 2 2(b-a) a+b = ----2 * 4. Varianza: Var(X)= E(X )-(E(X)) = 1 1 x b 1 b -a (b-a)(b +ab+a ) E(X )= x --- dx = ---- ----= ----- -------- = --------------------b-a b-a 3 a b-a 3 3(b-a) * b +ab+a a +2ab+b 4b +4ab+4a -3a -6ab-3b a -2ab+b = ----------- - ------------- = -------------------------------- = ------------- = 3 4 12 12 (a-b) = ------12 2. DISTRIBUCIN NORMAL Una v.a.continua tiene una distribucin normal de parmetros y se denota X N( , ) si su funcin de densidad es: y ,

1 -1/2( (xf(x) = ------ . e 2 Funcin de Distribucin:

)/ )

<x<+

(Se demuestra que esta funcin es de densidad)

1 -1/2 ( (x- )/ ) F(x) = P(X<=x) = ----- e dx 2 Como el clculo de esta integral es laborioso , para cada x, el valor F(x) est tabulado .Lo habitual es que se trabaje con la distribucin Normal que tiene de parmetros = 0 y =1 , de manera que la tabla con la que trabajaremos ser con la de la N(0,1) , distribucin que recibe el nombre de DISTRIBUCIN NORMAL STANDARD. 1 -x /2 Su funcin de densidad ser , por tanto, f(x) = ----- e xCR 2 Caractersticas de la N(0,1): 1. Dada X N( , ) , Z=(X- )/ N(0,1) g(x)= (x- )/ => g (x)= 1/ > 0 => g montona creciente As: 1 -1/2 ( ( z+ - )/ ) 1 -1/2(z ) fZ(z) = fX( z+ ) = ---- e = ---- e 2 2 z=(x- )/ => z=x- =>x= z+ zCR
dx= dz

2. Dada X N(0,1) , Z= X+ N( , ) con >0 y CR g(x)= x+ => g (x)= >0 => g montona creciente As: z1 1 -1/2 ( (z- )/ ) fZ(z) = fX( ------) --- =----- e zCR 2
z= x+

1 -1/2 (x 3. Representacin grfica de f(x) = ---- e 2

=> x =z- => x = (z- )/ dx=1/ dz

a- Dominio de f = R y f continua en todo su dominio (dado que es una funcin exponencial) b- f(x)=f(-x) ,es decir, f es simtrica respecto al eje OY c- lim. f(x)=0 ,es decir, el eje OX es una asntota horizontal por x--+ la izquierda y por la derecha d- Crecimiento y decrecimiento: 1 -1/2 (x ) f (x) = ----- e (-x) As f (x)=0 <=> x=0 2

f (x)>0 f (x)<0 ---------------------------------------------crece 0 decrece +


(0,1/ 2 ) MXIMO

e- Concavidad y Convexidad: 1 -1/2 (x ) -1/2(x f (x)= ----- ( -1e +(-x) e 2 As f (x)=0 <=> x=-1 x=1
)

1 -1/2(x ) ) = ---- e (-1+x ) 2

f (x)>0 f (x)<0 f (x)>0 ----------------------------------------------------convexa -1 cncava 1 convexa


(-1,1/ 2 e(-1/2)) (1,1/ 2 e(-1/2)) PTO.INFLEX. PTO.INFLEX.

Con todos estos datos se puede elaborar la siguiente grfica: 1/ 2

-1 1 Esta representacin se denomina CAMPANA DE GAUSS Mediante un estudio totalmente anlogo se puede obtener tambin la grfica de la f de una N( , )

4. Funcin Generatriz:
X(t)=E(e

)=

1 = --2 As:

e
X(t)=

1 1 e ---- .e dx = ---2 2 1 dx=e ---- e 2

e dx .

dx =
(x-t)

-1/2 (x )+xt=-1/2 (x -2xt+t )+1/2 t

5. Momentos: Dado que (0)= k , podra utilizar la anterior funcin generatriz para determinar los momentos de orden k.,pero, en lugar de eso voy a determinarlos por definicin ,que para lo que quiero mostrar resulta ms cmodo: 1 k =E(X )= x --- e dx=...........= (k-1) k-2 2 integrando es decir, se puede obtener el momento de orden k a partir del momento de orden k-2. Esto es vlido, obviamente, slo para momentos superiores al 0 y al 1 . 0 =E(X )=E(1)=1 1 1 =E(X )= xe dx= ----(-e )=0 Es decir, en una N(0,1) , el 0 2 representa precisamente la esperanza de X. ( Anlogamente se podra demostrar que en una N( , ) , es la E(X) ) 2 =11=1 Entonces Var(X)=E(X )-(E(X)) =1-0=1 Es decir, en una N(0,1), el 1 representa precisamente la varianza de X. ( anlogamente se podra demostra que en una N( , ), es la Var(X) ) 3 =20=0 ( es decir, el coeficiente de Fisher := 3/ =0, lo cual garantiza que la distribucin es perfectamente simtrica - cosa que ya sabamos-) 4 =31=3 ( es decir, el coeficiente de Pearson:= 4/ =3 . Es interesante recordar que precisamente este valor es el que se utiliza como referencia para estudiar el mayor o menor apuntamiento de una distribucin. Se toma siempre como modelo la N(0,1) y luego se dir distrib. platicrtica aquella cuya f sea menos apuntada que la f de la N(0,1) - tendr por tanto coef. de Pearson <3 - , y se dir distribucin leptocrtica aquella cuya f sea ms apuntada que la de la f de la N(0,1) -tendr coef.de Pearson >3- La N(0,1) se dice mesocrtica.) =40=0 6 =531 7 =60=0 8 =7531 ---------As, en general: (2k+1) =0 (es decir, en una N(0,1) , los momentos de orden impar respecto al origen son todos nulos) y (2k) = (2k-1)(2k3)531 =
5 por partes

(2k)! (2k)! = --------------------------- = ------------

k=0,1,2......

2k (2k-2)(2k-4)42

2 k! , ):

.Propiedades importantes de una N(

1. Sean X1 N( 1, 1), X2 N( 2, 2),..........Xn N( n, n) variables aleatorias independientes. Sea Y=a1X1+a2X2+.......+anXn+b entonces: Y(t)=E(e )=E(e )=E(e )........E(e ) E(e )=e
es de la forma = e

..............e

=e

+1/2 t (

Anlogamente a como se calcul para la N(0,1), se puede demostrar que la asociada a una N( , )

Entonces

N(a1 1+.......+an n+b, a1

+.......+an

En el caso particular Y=X1+X2 Y N(


1+ 2, 1

es decir la N( ,

) es reproductiva respecto a sus dos parmetros.

2. Sean X1,.....Xn variables aleatorias independientes deistribudas segn una N( , ) , y consideremos la nueva variable media muestral definida por: X1+.....+Xn X = ---------------n entonces aplicando la propiedad anterior, tomando a1=a2=....=an=1/n ,se tiene: X N(1/n +1/n +1/n ; 1/(n) +1/(n) +......+1/(n) ) es decir:
n(1/n) n(1/(n) )

X N(

/ n) Bi(n,p) , entonces:

Se verifica que: Sea X

X-np n>20 --------- ---------------- N(0,1) npq Esta aproximacin se considera buena cuando np>5 y viene a salvar la limitacin que tenamos hasta ahora al trabajar con la binomial, dado que , de momento, slo podamos aproximar esta por una Poisson cuando p<0,1 y np<0,5.

De todos modos , dado que estamos aproximando una distribucin discreta por una continua, hay que tener en cuenta una pequea modificacin que se denomina Correccin de Yates: Cuando calculamos, dada X binomial, la P(X>=x) para cierto x, como X discreta la P(X=x)es =0, y si me limito a hacer P(X>=x)=P((X-np/ npq)>=x-np/ npq) ,dado que ahora trabajar con una continua ,la P((X-np/ npq)=x-np/ npq) ser 0 y as estar pasando de uno de los valores que tena inicialmente ; para salvar esto Yates propone, en lugar de buscar la P(X>=x) , calcular la P(X>x-0,5) , de modo que as ya queda recogido perfectamente el x inicial y la variacin en el resultado final se considera aceptablemente pequea. Ej. Sea X Bi(200,0,3) X-60 695-60 buscando en la tabla P(X>=70) =P(X>695)=P(------- > ---------- ) =P(Z > 147) = 00708 648 648 habitualmente la N(0,1)
N(0,1)
suele denotarse Z

Si ,en lugar de calcular P(X>=x), tenemos que obtener la P(X<=x) la correccin ser P(X<x+05) . NOTA: Si nos piden P(X>x) (sin el =) como en una variable discreta eso equivale a P(X>=x+1), la correccin obligar a hacer P(X>x+1-05) es decir P(X>x+05); anlogamente si nos piden P(X<x)=P(X<=x-1)=P(X<x1+05) =P(X<x-05). En gral. ,debido al th.Central del Lmite , no slo podremos aproximar la Binomial por la N(0,1) sino que esta ltima distribucin resultar en determinadas condiciones una aproximacin aceptable de otras variables tipificadas (es decir tras haber restado la media y dividido por la desviacin tpica) Una muy usual adems de la de la Binomial es: Aproximacin de Poisson por Normal: XSi X P( ) => ------------ ------------------ N(0,1)
E(X)= Var(X)=

y esta aproximacin se considera aceptable cuando >5 Hay que tener en cuenta que dado que X es discreta tambin aqu ser necesario realizar la correccin de Yates.

3. DISTRIBUCIN GAMMA:

Una v.a. continua se dice que sigue una distribucin Gamma de parmetros a y p , y se denota (a,p) , si su funcin de densidad es de la forma: a f(x)= ---- x e para x>0 (p) siendo (p)= x e dx y verificndose que (p)=(p-1)! si pCN

Caso particular: DISTRIBUCIN EXPONENCIAL NEGATIVA: Es una Gamma de parmetros a y 1 . Es decir su funcin de densidad es de la forma: f(x)=ae si x>0 Se suele denotar E(a). Caractersticas de esta ltima distribucin: a. Grfica: a

0 b. E(X)= c. E(X )= p/a d. Funcin de distribucin: F(x)=P(X<=x)= ae dx=(-e )


x 0

xae

dx= a (2) /a = 1/a

En gral. para una (a,p) es p/a

x ae dx= a (3) /a =2/a

Var(X)= E(X )-(E(X)) = 2/a -1/a =1/a En gral. par una (a,p) es

= (-e

)-(-e )= 1-e

Con lo cual: P(X>x)= 1-P(X<=x)=1-(1-e )=e

Propiedades fundamentales: P(X>p+q) e 1. P(X>p+q / X>p) = -------------- = -------- = e = P(X>p)

P(X>q) e es decir, la exponencial negativa tiene falta de memoria. 2. La exponencial negativa no es reproductiva respecto a su parmetro aunque lo que s se verifica es que la suma de n variables aleatorias independientes idnticamente distribudas segn una exponencial negativa de parmetro a, sigue una distribucin Gamma(a,n). demost. En gral dada X =a / (p) x e (a,p)
X(t)

= E(e )=

e a / (p) x e dx =

dx= a / (p) (p)/ (a-t) = (a/a-t) = (a-t/a) = (1-t/a) v.a.i.i.d.

As si p=1 X(t)= (1- t/a) Entonces si tenemos X=X1+X2+X3+........+Xn

X(t) = Xj(t)= (1- t/a) lo cual quiere decir que la suma de esas exponenciales tiene distribucin Gamma.

TEMA 7 REGRESIN
Existen dos enfoques para abordar la relacin entre dos variables: . 1: la correlacin estudia el grado de dependencia existente entre las variables.

. 2: la regresin se encarga de determinar aquella estructura de dependencia que mejor exprese el tipo de relacin de la variable Y con la variable X (o viceversa).As llamaremos regresin de Y sobre X a la funcin que explica la variable Y para cada valor de X.LLamaremos regresin de X sobre Y a la funcin que explica X para cada valor de Y. A. REGRESIN TIPO I: - De Y sobre X : Para cada x de X se considerar y=g(x)=E(Y/X=x)

-De X sobre Y : Anlogamente a la anterior , para cada y de Y se considerar : x=g(y)=E(X/Y=y) B. REGRESIN TIPO II: Utiliza una funcin matemtica para explicar la relacin entre las variables. El mtodo seguido para ello es el siguiente: 1 Se obtiene (mediante una representacin grfica) una idea aproximada de la nube de ptos soporte de la funcin de densidad, para decidir qu funcin es la que mejor describira el comportamiento de ambas variables (una polinmica de primer grado, de 2...) 2 Una vez elegida la funcin aparentemente ms adecuada , se determinarn sus parmetros por el Mtodo de Mnimos Cuadrados, i.e. si por ejemplo la funcin que ms se ajusta a la distribucin es un polinomio de 2 grado ,y=ax +bx+c , tendremos que Min E( (Y-(ax +bx+c)) ) a,b,c

La regresin Tipo II es la que se utiliza de manera ms general y ser tanto ms acertada cuanto ms lo sea la eleccin del tipo de funcin de ajuste. CASO PARTICULAR : Aquel en que la funcin utilizada para ajustar es una recta: REGRESIN LINEAL: Supongamos:

Intentar deducir la recta cuya distancia a la nube de ptos. soporte de la funcin de densidad sea la menor posible. As:
DEFINICIN:

Se denomina recta de regresin mnimo cuadrtica de Y sobre X a la recta y=a+bx con a y b tales que min E( (Y-(a+bX)) ) a,b NOTA: Se busca minimizar la media de las diferencias entre Y y a+bX y as conseguir una recta de aproximacin aceptable; se toman las diferencias al cuadrado pues se consigue lo mismo adems de que las diferencias queden siempre positivas y as no se contrarresten unas con otras. a y b ? E( (Y-(a+bx)) )=E(Y +a +b X +2abX-2aY-2bXY)=E(Y )+a +b E(X ) +2abE(X)-2aE(Y)-2bE(XY) Como pretendo minimizar esta funcin respecto de sus dos parmetros. la derivar respecto a ellos e igualar estas derivadas a 0. Derivando respecto a a: 2a+2bE(X)-2E(Y)=0 <=> a=E(Y)-bE(X) Derivando respecto a b: 2bE(X )+2aE(X)-2E(XY) <=> bE(X )+E(Y)E(X)-b(E(X)) -E(XY)=0 <=> bV(X)=E(XY)-E(X)E(Y)=Cov(X,Y) <=> Cov(X,Y) b= --------------V(X) Con lo cual: Cov(X,Y) y=a+bx=E(Y)-bE(X)+bx <=> y-E(Y)= -------------- (x-E(X)) V(X)

Cov(X,Y) se suele denotar V(X) As la recta queda

12 1 12

y-E(Y)= ------ (x-E(X))


1

Se la denota r.r. y x - pues explica Y a partir de XAnlogamente, la r.r x y i.e. la recta de regresin que explica X a partir de Y ser: x-E(X)=------- (y-E(Y)) Estas dos rectas se cortan en el pto.(E(X),E(Y)), denominado centro de gravedad de la distribucin.
DEFINICIN: Se
2 21

denomina coeficiente de correlacin entre X e Y y se denota


12 2 21

, al cociente
XY 1

=--------- (= ------- =
2 1

XY)

Se verifica que se mueve entre -1 y 1. Utilizando el concepto de coeficiente de correlacin , las rectas anteriores pueden expresarse: r.r. y r.r x x : y-E(Y)= y : x-E(X)=
1

--- (x-E(X)) --- (y-E(Y))


1

As 2/ 1 y 1/ 2 son, respectivamente, las pendientes de las r.r. y x y x y (se denominan coeficientes de regresin lineal). Posibilidades: - =1 ; entonces y-E(Y)= 2/ 1 (x-E(X) (x-E(X))= 1/ 2 (y-E(Y)) i.e. rectas coincidentes y de pendiente >0 (pues pendiente = 2/ 1 >0) - =-1 ; entonces y-E(Y)= - 2/ 1 (y-E(Y)) (x-E(X))= - 1/ 2 (yE(Y)) i.e. rectas coincidentes pero ambas de pendiente <0 (pues pendiente = - 2/ 1 <0) -0< <1; no coincidentes y de pendiente >0 - -1< <0; no coincidentes y de pendiente <0 - =0 => y x y=E(Y) cte. => recta paralela a OX x y x=E(X) cte. => OY VARIANZA RESIDUAL: Tanto en la regresin tipo I como en la Tipo II , se define lo que se denomina el residuo de la regresin.

- en la Tipo I: Como se aproxima Y E(Y/X=x) , Y, en realidad, ser Y=E(Y/X=x) + R => R=Y-E(Y/X=x)


RESIDUO

- en la Tipo II: (hacemos el estudio en el caso particular de regresin lineal) Y E(Y)+


12/ 1

(X-E(X)) As: Y=E(Y)+


12/ 1

12/ 1

(X-E(X)) + R
RESIDUO

=> R=Y-( E(Y)+

(X-E(X)) )

En ambos casos se verifica que E(R)=0 as como: - en TipoI : V(R) = E(R ) = E(V(Y/X))
VARIANZA RESIDUAL

Con lo cual V(Y)= V( E(Y/X)+R ) = VE(Y/X) +EV(Y/X) y esto se denomina descomposicin de la varianza en suma de dos: la varianza debida a (explicada por) la regresin (VE(Y/X)) y la varianza residual (EV(Y/X)). Se define la denominada RAZN DE CORRELACIN como: VR EV(Y/X) VE(Y/X) YX = 1- ------ = 1- ------------ = -------------VY VY VY Se verifica que 0 <= YX <=1 . YX =1 <=> VR=0 i.e. la regresin explica perfectamente la relacin entre Y y X . . YX =0 <=> VR=VY i.e. la parte de la varianza explicada por la regresin es 0. Cuanto ms prxima a 1 sea la razn de correlacin , mejor ser la explicacin que da la regresin de la dependencia entre las variables , y al revs si la razn se acerca 0. - en Tipo II lineal: V(R) = E(R ) =
VARIANZA RESIDUAL

2 (1-

Con lo cual V(Y) = VE(Y) + V(( 12 / 1 )X) - V(( 12 / 1 )E(X) ) + V(R) 0 ( 2 / 1) 0 2 (1- ) ( 2 / 1) 1 = 2 + 2 (1- ) descomposicin de la varianza en dos: la debida a la regresin ( 2 ) y la residual ( 2 (1- )) . Si = + 1 - 1 , VR = 2 , i.e. la recta y x ( que,adems razonamos antes que coincide en este caso con la recta x y ) explica perfectamente la relacin entre las variables, o sea , existe una dependencia lineal entre las

variables dado que los valores de (X,Y) estn totalmente distribudos sobre y x, y sobre x y. . Por el contrario, si = 0 , VR = 0, i.e. ninguna de las rectas de regresin explican en absoluto la relacin entre las variables. Cuanto ms prximo sea a 1 en valor absoluto , ms aceptable ser la regresin lineal, y al contrario cuanto ms cercano a 0. Por ltimo se puede demostrar (no lo veremos) que existe una relacin entre la razn y el coeficiente de correlacin: Se verifica : YX >=

Вам также может понравиться