Академический Документы
Профессиональный Документы
Культура Документы
xn pnm
Asignación de probabilidades.
Para (X=1,Y=2)
Equivalencia entre sucesos:
el suceso elemental (1,1) ∈ Ω genera el suceso (1,2)
∈ Ʀx,y . Luego:
1 1
P( (1,1) ) = ≡ 𝑃 𝑋 = 1; 𝑌 = 2 =
36 36
Para (X=2,Y=3)
Equivalencia entre sucesos:
Resultados perteneciente al espacio muestral que
originan el valor X=2 del recorrido de X e Y=3 del
recorrido de Y.
Son:
(2,1) (2,2) (1,2) ∈ Ω que originan X(2,1)=2; X(2,2)=2;
X(1,2) =2
(1,2) (2,1) ∈ Ω originan Y(1,2)=3; Y(2,1)=3
Luego, los pares comunes perteneciente a Ω, son (1,2) y
2
(2,1), su probabilidad conjunta es , por lo tanto
36
2
P(X=2,Y=3) = .
36
Así sucesivamente, se asignan las probabilidades para los
pares (x,y).
Distribución de probabilidad de la v.a.b. (X,Y) o del
Vector aleatorio de dimensión 2
X\ Y 2 3 4 5 6 7 8 9 10 11 12 PX(x)
1 1/36 0 0 0 0 0 0 0 0 0 0
2 0 2/36 1/36 0 0 0 0 0 0 0 0
Asignación de probabilidades.
Distribución de Probabilidad conjunta de (X,Y)
X\Y 0 1 2
0 1/9 1/9 1/9
1 2/9 2/9 0
2 1/9 0 0
i) 𝑝(𝑥𝑖 ,𝑦𝑗 )≥ 0 ∀ 𝑥, 𝑦
ii) σ∞ σ∞
𝑗=1 𝑖=1 𝑝(𝑥𝑖 ,𝑦𝑗 )=1
1 1/36 0 0 0 0 0 0 0 0 0 0 1/36
2 0 2/36 1/36 0 0 0 0 0 0 0 0 3/36
Y 2 3 4 5 6 7 8 9 10 11 12
0 0 0 0 0 2/36 2/36 2/36 2/36 2/36 1/36 : 11/36
𝑃(𝑌Τ𝑥=6) 0 0 0 0 0 2/11 2/11 2/11 2/11 2/11 1/11 : 1,0
∞ ∞
−∞ −∞ 𝑓 𝑥, 𝑦 𝑑𝑥dy = 1.
𝑓(𝑥,𝑦)
𝑓(𝑥Τ𝑦) = cuando ℎ 𝑦 > 0
ℎ(𝑦)
y de:
𝑦Τ 𝑓(𝑥,𝑦)
𝑓( 𝑥) = cuando g(x) > 0
𝑔(𝑥)
Ejercicio N°3.
El tiempo total (en horas) que permanece un cliente en un
determinado restaurante se divide en: Y1 = tiempo de espera
hasta que se sirve el primer plato; Y2 = tiempo desde ese
momento hasta que el cliente sale del restaurante (es decir,
tiempo de comer y pagar). Las variables aleatorias Y1 e Y2
tienen distribución conjunta dada por:
𝑒 −(𝑦1+𝑦2) 0 ≤ 𝑌1 ,𝑌2 ≤ ∞
f (y1, y2) =
0, en todo otro lugar.
Calcular:
a) La probabilidad de que el cliente pase más de una hora en el
restaurante;
b) Las distribuciones marginales de Y1 e Y2.
c) La probabilidad de que un cliente tarde en ser servido más de
una hora
SOLUCIÓN:
a) Pr(𝑦1 + 𝑦2 > 1) = 2/e;
b) 𝑓𝑌1 (𝑦1 ) = 𝑒 −𝑦1 𝑦1 ≥ 0
𝑓𝑌2 (𝑦2 ) = 𝑒 −𝑦2 𝑦2 ≥ 0
c) Pr(𝑦1 > 1) = 1/e
Desarrollo items a)
𝑦2
0
1 𝑦1
𝑃(𝑦2 ≤ 1 − 𝑦1 ) =
1 1−𝑦1 −(𝑦 +𝑦 )
0 0 𝑒 1 2 𝑑𝑦2 𝑑𝑦1 = 1 − 2𝑒 −1
2
1 − 𝑃(𝑦2 ≤ 1 − 𝑦1 ) = 1- (1 − 2𝑒 −1 ) = 𝑒
Ejercicio N° 4.- Una fábrica obtiene la mayor parte de sus
ganancias totales vendiendo dos artículos A y B. Por razones
de almacenamiento, las ganancias por venta del artículo A
nunca pueden superar a las del artículo B. Responde a las
preguntas, si las ganancias (X,Y), donde X son las obtenidas
por ventas del artículo A e Y las del artículo B, tienen la
siguiente función de densidad conjunta:
1
𝑠𝑖 0 ≤ 𝑥 ≤ 10000 0 ≤ 𝑦 ≤ 10000 𝑥 ≤ 𝑦
𝑘
a) Calcular el valor de k
b) Calcular que las ganancias totales sean mayores a 10000
Solución:
10000 10000 1
a) 0 0 𝑘
𝑑𝑥𝑑𝑦 = 1
1
𝑘= se reemplaza en la función de densidad.
100002
𝑦 > 10000 − 𝑥
5000 10000 X
El área con las cuadrículas es posible subdividirla en
dos áreas iguales, permitiendo medirla de la siguiente
manera:
= 0,5.-
Ejercicio N°5: Sean X e Y una variable aleatoria bidimensional o
un vector aleatorio de dimensión 2, que se representa por el
siguiente modelo de f.d.p.
1
𝑦2 0 ≤ 𝑦2 ≤ 2
2
𝑔(𝑦2 )=
0 en t. o. l
0 2
Independencia entre las variables aleatorias
Análogo al caso de sucesos independientes:
𝑃 𝐴 ∩ 𝐵 = 𝑃 𝐴 ∗ 𝑃(𝐵)
Caso en que las variables aleatorias son discretas. Entonces
para que dichas variables sean independientes se tiene que
cumplir:
𝑃 𝑋 = 𝑥; 𝑌 = 𝑦 = 𝑃𝑋 𝑥 ∗ 𝑃𝑌 𝑦
La probabilidad conjunta es igual al producto de las
probabilidades marginales.
Ejercicio N° 7 :
𝑃 𝑋 = 2; 𝑌 = 3 = 𝑃 𝑋 = 2 ∗ 𝑃(𝑌 = 3)
2/36 3/36 * 2/36
1/18 ≠ 1/6 No hay indepen.
Nota: Si todas las probabilidades conjuntas
fueran igual a los respectivos productos entre
las probabilidades marginales de X e Y,
entonces dichas variables son independientes.
Cuando dos variables aleatorias continuas son
independientes, X no está asociada con Y y viceversa,
entonces:
𝑓 𝑥, 𝑦 = 𝑔 𝑥 ∗ ℎ(𝑦)
La función de densidad conjunta de x, y es igual al
producto de las distribuciones marginales de las
respectivas variables aleatorias (continuas).
Con el ejemplo N° 3 anteriormente planteado,
averigüe, si las variables aleatorias X e Y son
independientes.
La generalización de esta idea al caso de un vector
aleatorio con más de dos variables aleatorias. En
general, cualquier función f puede considerarse como
una función de densidad de k variables aleatorias,
siempre que:
i) 𝑓 𝑥1 , 𝑥2 , … … … 𝑥𝑘 ≥ 0
∞ ∞ ∞ ∞
ii) −∞ −∞ −∞ … … … −∞ 𝑓( 𝑥1 , 𝑥2 , … … … 𝑥𝑘 )
𝑑𝑥1 𝑑𝑥2 … … … . 𝑑𝑥𝑘 =1
La función de distribución acumulativa de
probabilidad para la variable aleatoria bidimensional
se define:
𝑥 𝑦
𝐹 𝑥, 𝑦 = 𝑃 𝑋 ≤ 𝑥; 𝑌 ≤ 𝑦 = −∞ −∞ 𝑓 𝑥, 𝑦 𝑑𝑦𝑑𝑥
Generalización:
𝑷 𝑿𝟏 ≤ 𝒙𝟏 𝑿𝟐 ≤ 𝒙𝟐 … . . 𝑿𝒌 ≤ 𝒙𝒌 =
𝒙𝟏 𝒙𝟐 𝒙𝒌
𝑭(𝒙𝟏 𝒙𝟐 … … . 𝒙𝒌 )=−∞ −∞ … … −∞ 𝒇(𝒕𝟏 𝒕𝟐 … 𝒕𝒌 )d𝒕𝟏 𝒅𝒕𝟐 ………..𝒅𝒕𝒌
Valores esperados
Con las distribuciones marginales se pueden obtener
las esperanzas de cada una de las variables aleatoria y
sus respectivas varianzas, ya que las distribuciones
marginales en esta caso, son distribuciones asociadas
a una variable aleatoria.
Caso en que las variables aleatorias son discretas:
σ𝑅𝑋 𝑥𝑝𝑋 𝑥 = 𝐸(𝑥) σ𝑅𝑌 𝑦𝑝𝑌 𝑦 = 𝐸(𝑦)
Caso en que las variables aleatorias son continuas:
∞ ∞
−∞ 𝑥𝑓𝑋 (𝑥)𝑑𝑥 =𝐸 𝑥 −∞ 𝑦𝑓𝑌 (𝑦)𝑑𝑥 =𝐸 𝑦
𝑉 𝑥 = 𝐸(𝑥 )-𝐸(𝑥)2 Igual al caso unidimensional.
2
Como las distribuciones condicionales, conducen a
distribuciones unidimensionales, es posible determinar
sus esperanzas, varianzas, desviaciones estándar,
coeficiente de variabilidad y otros indicadores. Cuyas
notaciones de las dos primeras son:
𝑦 𝑦
𝐸 ൗ𝑋 = 𝑥 = 𝑦 ∗ 𝑃( ൗ𝑋 = 𝑥 )
𝑅𝑦
𝐸 𝑥ൗ𝑌 = 𝑦 = 𝑥 ∗ 𝑃( 𝑥ൗ𝑌 = 𝑦)
𝑅𝑥
𝑦 𝑦 2ൗ 𝑦 2
𝑉 Τ𝑋=𝑥 = 𝐸 𝑋=𝑥 − 𝐸 Τ𝑋=𝑥
𝑥 𝑥 2ൗ 𝑥 2
𝑉 Τ𝑌=𝑦 = 𝐸 𝑌=𝑦 − 𝐸 Τ𝑌=𝑦
Ejercicio N°7:
Y 2 3 4 5 6 7 8 9 10 11 12
𝑃(𝑌Τ𝑥=6) 0 0 0 0 0 2/11 2/11 2/11 2/11 2/11 1/11 : 1,0
𝑦 14+16+18+20+22+12
𝐸( Τ𝑋=6 ) = = 9,2727
11
𝑉 𝑦ൗ𝑋=6
𝑉 𝑦Τ𝑋=6 = 1,6 𝐶𝑉 = 𝑦 = 0,1726
𝐸( ൗ𝑋=6 )
Valor esperado de una función de variables aleatorias
Sea g(𝑋1 , 𝑋2 , … … . . 𝑋𝑘 ) una función de las variables aleatorias
discretas 𝑋1 , 𝑋2 , … … . . 𝑋𝑘 , que tienen una función de probabilidad
conjunta p(𝑥1 , 𝑥2 , … … . . 𝑥𝑘 ) entonces:
𝐸[g(𝑋1 , 𝑋2 , … … . . 𝑋𝑘 )]=
σ𝑥𝑘 σ𝑥𝑘−1 … σ𝑥1 g(𝑥1 , 𝑥2 , … … . . 𝑥𝑘 )p(𝑥1 , 𝑥2 , … … . . 𝑥𝑘 )
Si 𝑋1 , 𝑋2 , … … . . 𝑋𝑘 son variables aleatorias continuas
con función de densidad conjunta f(𝑥1 , 𝑥2 , … … . . 𝑥𝑘 ),
entonces:
𝐸[g(𝑋1 , 𝑋2 , … … . . 𝑋𝑘 )]=
∞ ∞ ∞
−∞ … . . −∞ −∞ g(𝑥1 , 𝑥2 , … … . . 𝑥𝑘 ) f(𝑥1 , 𝑥2 , … … . . 𝑥𝑘 )
𝑑𝑥1 𝑑𝑥2 …….𝑑𝑥𝑘
Ejercicio N°8. 𝑋1 𝑦 𝑋2 tienen la siguiente función de
densidad de probabilidad conjunta
2 𝑥1 0 ≤ 𝑥1 ≤ 1 ; 0 ≤ 𝑥2 ≤ 1
𝑓(𝑥1 , 𝑥2 )=
0 en cualquier otro lugar
1 1 1
𝐸(𝑋1 𝑋2 )= 0 0 𝑥1 𝑥2 (2 𝑥1 )𝑑𝑥1 𝑑𝑥2 =
3
Sean 𝑋1 𝑦 𝑋2 variables aleatorias independientes con
función de densidad conjunta 𝑓(𝑥1 , 𝑥2 ). Sean 𝑔(𝑥1 ) y
ℎ(𝑥2 ) funciones de dichas variables aleatorias. Entonces
𝐸[𝑔(𝑥1 ) ℎ(𝑥2 ) ]=𝐸[𝑔(𝑥1 )] 𝐸[ℎ(𝑥2 )]
Siempre y cuando los valores esperados existan.
Covarianza: Mide la variabilidad conjunta de (𝑋1 , 𝑋2 )
Cov(𝑋1 , 𝑋2 ) = 𝐸[(𝑋1 -𝐸(𝑋1 ))((𝑋2 -𝐸(𝑋2 ))]
= 𝐸(𝑋1 𝑋2 )-𝐸(𝑋1 ) 𝐸(𝑋2 )
Puede tomar valores positivos o negativos, depende del
tipo de relación lineal que haya entre las variables 𝑋1 𝑦 𝑋2
directa o inversa, será cero cuando no haya relación
lineal entre las variables 𝑋1 𝑦 𝑋2 .
Coeficiente de correlación de Pearson: Mide el grado
de asociación entre 𝑋1 ; 𝑋2 , en término lineal.
𝐶𝑜𝑣(𝑋1 ,𝑋2 ) 𝐸(𝑋1 𝑋2 )−𝐸(𝑋1 ) 𝐸(𝑋2 )
𝜌𝑥1𝑥2 = = −1 ≤ 𝜌𝑥1𝑥2 ≤ 1
𝜎𝑋1 𝜎𝑋2
𝑉 𝑋1 𝑉(𝑋2 )
1 2 1
− ∗( ) 0
3 3 2
𝜌𝑥1𝑥2 = = =0
0,23570226∗0,18867513 0,068
Caso 3.
Sean las variables aleatorias (𝑋1 ; 𝑋2 … … … … 𝑋𝑛 ) que
𝑛
σ
no son independiente entre sí y sea U = 𝑖=1 𝑎𝑖 𝑋𝑖 una
combinación lineal de ellas, entonces:
𝑛
V(U)= 𝑖=1 𝑎𝑖 2 𝑉 𝑋𝑖 + 2 σ σ𝑖<𝑗 𝑎𝑖 𝑎𝑗 𝐶𝑜𝑣(𝑋𝑖 𝑋𝑗 )
σ
𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜𝑠 𝑙𝑜𝑠 𝑝𝑎𝑟𝑒𝑠 𝑖, 𝑗 𝑐𝑜𝑛 𝑖 < 𝑗
Caso: Teorema de Chebyshev.
Si Y es una variable aleatoria con media finita 𝜇 y
varianza 𝜎 2 , entonces para cualquier constante
positiva k>0 ,
1
𝑃( 𝑌 − 𝜇 <k 𝜎) ≥ 1 −
𝑘2
Ejercicio N° 11.
La cantidad de clientes que llegan cada día a un
quiosco, y que se observa por un periodo prolongado,
tiene una media de 20 clientes y una desviación
estándar de 2. Se desconoce la distribución de
probabilidad.
¿ Cuál sería la probabilidad mínima de que mañana
lleguen entre 16 y 24 cliente al quisco?
𝑃 16 ≤ 𝑌 ≤ 24 = 𝑃 16 − 20 ≤ 𝑌 ≤ 24 − 20 =
1
𝑃( 𝑌 − 20 ≤ 4)≥ 1 − 2
𝑘
𝜇 = 20 𝑦 𝜎 = 2, como se sabe que kσ = 4,
entonces k=2
Al reemplazar, se tiene:
1 3
𝑃 16 ≤ 𝑌 ≤ 24 ≥ 1 − ≥
4 4
Habría una probabilidad de al menos de un 75% de
que lleguen mañana entre 16 y 24 clientes al quiosco.
Ley de los grandes números
Sea 𝑥1 𝑥2 𝑥3 … … … 𝑥𝑛 una muestra aleatoria de la
variable aleatoria X, en que se sabe que estas son
independientes entre sí y que cada una de ellas se
distribuye de la misma forma como la población.
σ𝑛
𝑖=1 𝑥𝑖
La media de la poblacional es 𝜇 𝑦 = 𝑥ҧ media
𝑛
muestral, generada con la muestra aleatoria.
σ𝑛
𝑖=1 𝑥𝑖
Entonces lim =𝜇 La varianza de la media
𝑛→∞ 𝑛
𝜎2
muestral es V(𝑥ҧ𝑛 )=
𝑛
1 𝜎
𝑃 𝑥ҧ𝑛 − 𝜇 <∈ = 1 − 2 si ∈=k
∈ 𝑛