Вы находитесь на странице: 1из 9

Captulo 4: Probabilidad

Espacio muestral: Es el conjunto de todos los resultados posibles de un experimento


estadstico y se representa con el smbolo S.

Evento: un subconjunto del espacio muestral.

Relaciones y operaciones con eventos:

Complemento: de un evento A con respecto a S. Es el subconjunto de S que no estn en


A, y se denota por A.

Implicacin: El evento A implica el evento B si siempre que ocurre A tambin ocurre B,


se denota A B . Ejemplo: A = (3,7,9); B = (nmeros impares).

Igualdad de eventos: Si A y B se implican mutuamente: A B y B A. Ejemplo: A =


(1,2,3); B = (1,2,3). Tienen que tener el mismo espacio muestral.

Interseccin: Eventos en comn entre A y B. se denota A B. Ejemplo:


C = A B. Siendo A = (1,2,3,4) y B = (7,6,5,4). Entonces C = (4).

Unin: Evento que contiene todos los elementos que pertenecen a A o a B o a ambos. Se
denota A B. Ejemplo A = (1,2,3,4). y B = (7,6,5,4). Entonces C = (1,2,3,4,5,6,7).

La diferencia de dos eventos A y B es el evento C que se verifica cuando se cumple A,


pero no se cumple B. C = A B = A B. Ejemplo: A = {2, 4, 6}; B = {3, 6}; A B = {2, 4}

Sucesos independientes: sucesos o eventos que no tienen relacin entre s; la


ocurrencia de uno no afecta la ocurrencia del otro

Sucesos dependientes: sucesos o eventos que s tienen relacin entre s; la ocurrencia


de uno s afecta la ocurrencia del otro.

Clculo de probabilidades:

Permutaciones: Donde el orden de los eventos s importa, lo que quiere decir, que cada
permutacin es un resultado posible de la operacin, aunque tenga los mismos objetos.
!
( ) =
( )!
Siendo n los elementos y r siendo el subconjunto que se est buscando

Ejemplo: De cuntas maneras pueden quedar asignados los ttulos de CAMPEN y


SUBCAMPEN entre los equipos A, B, C, D? El resultado puede ser AB, AC, AD, BA,
BC, BD, CA, CB, CD, DA, DB, DC. Es decir, 12 resultados posibles. Es una permutacin
porque que salga campen A y subcampen B, no es lo mismo que salga campen B y
subcampen A. Las combinaciones AB y BA no son lo mismo, por lo tanto, el orden de los
eventos s importa.

4 4! 4.3.2.1
( ) = (42)! = 2.1 = 12
2

Combinaciones: Donde el orden de los mismos no importa. Interesa nicamente la


presencia de los eventos, pero no la posicin (como s sucede con las permutaciones)

!
( ) =
! ( )!

Ejemplo: Cuntos son los posibles partidos que se pueden dar en una final entre los
equipos A, B, C, D? El resultado puede ser: AB (Que va a ser el mismo partido que si
fuera BA), AC, AD, BC, BD y CD = 6.

4 4! 4.3.2.1
( ) = 2!(42)! = 2.1.2.1= 6
2

Permutaciones de varias clases: nmero de permutaciones distintas de n cosas de las


que n1 son de una clase, n2 de una segunda clase, , nk de una k-sima clase es

!
1! 2! !

Ejemplo: De cuantas formas diferentes se pueden acomodar 3 focos rojos, 4 amarillos y


9!
2 azules en una serie de lucas navidea con 9 portalmparas? 3!4!2! = 1260

La idea de probabilidad es una generalizacin de la medida de frecuencia relativa.

La frecuencia relativa describe puntualmente la cantidad de ocurrencias de un evento


determinado (A) en un experimento con espacio muestral S, mientras que, la probabilidad
describe la generalizacin, es decir, la poblacin

Probabilidad de un evento (con lmites): A medida que va aumentando la cantidad de


muestras tomadas de un experimento, el resultado final de su probabilidad va a terminar
siendo el ms acercado posible a la realidad, es decir, se va a estabilizar segn vayamos
aumentando el nmero de pruebas. Ejemplo: Si tiro 5 veces una moneda y en las 5 veces
me sale cruz, voy a tener (estadsticamente) una probabilidad del 100% la cual induce que
la prxima vez que lance la moneda salga cruz, pero si repetimos este experimento
infinitas veces su probabilidad se va a ir acercando a la realidad (50% de posibilidades).
Una forma ms sencilla de calcular dicha probabilidad es con la regla de Laplace
Regla de Laplace: Si queremos calcular la probabilidad de un evento A en un espacio
muestral S, su frmula va a ser. Probabilidad de que ocurra A =

Captulo 4: Probabilidad condicional


Frecuencia relativa describe puntualmente la cantidad de ocurrencias de un evento
determinado (A) en un experimento con espacio muestral S.
Mientras que, la probabilidad describe una generalizacin, es decir, la poblacin.

Propiedades de la probabilidad

P(A) = 1 P(A)
Sea A y B, dos eventos cualesquiera, entonces: P(A B) = P(A) + P(B) - P(A B)
Si A y B, son mutuamente excluyentes (no tienen sucesos en comn), entonces:
P(A B) = P(A) + P(B)
Si A,B,C,D,E son eventos excluyentes entonces se cumple que
P(A B C D E) = P(A) + P(B) + P(C) + P(D) + P(E)

Probabilidad condicional: la probabilidad de que un evento B ocurra cuando se sabe que


ya ocurri algn evento A. Con este concepto tratamos de registrar el cambio que
experimenta la probabilidad de un suceso si aumenta la informacin que disponemos
sobre el resultado del experimento.
( )
(|) =
()
Eventos independientes
Si dos eventos no tienen impacto entre si (no tienen relacin) se va a dar que:
(|) = ()
(|) = ()
Despejando las ecuaciones de probabilidad condicional (dependientes e independientes) obtenemos
las reglas multiplicativas que dicen:
Si son dependientes:
( ) = () (|)
( ) = () (|)
* y representan el mismo conjunto*
Si son independientes:
( ) = () ()

Teorema de probabilidad total


Se utiliza para calcular la probabilidad de un evento B teniendo nicamente eventos donde B est
involucrado
() = () (|) + () (|) + () (|)
Y as con todos los eventos en los que participa B

El evento B es el de probabilidad total, es decir, que no tiene ninguna condicin aadida, ya que se
expresa en funcin de las intersecciones con los eventos de A.

Regla de Bayes
Este teorema se usa para calcular una probabilidad condicionada de una forma indirecta.
( ) ()(|) ()(|)
(|) = = =
() () .

Captulo 4: Variables aleatorias


Una variable aleatoria es una funcin que asocia un nmero real con cada elemento del espacio
muestral. Cuando la variable aleatoria slo toma una cantidad finita o infinita numerable de valores
se denota como variable aleatoria discreta.
Distribuciones discretas de probabilidad:
Una funcin de probabilidad o distribucin de probabilidad definida sobre una variable aleatoria es
una funcin que asigna a cada valor posible de esta variable aleatoria una probabilidad.
Distribucin Acumulada:
Es una abstraccin del concepto de frecuencia relativa acumulada. La distribucin acumulada de F
(x) se define:

() = ( ) = ( )

Ejemplo: F(3) = P( X 3) = P(0) + P(1) + P(2) + P(3)


Distribuciones continuas de probabilidad: las que se resuelven con integrales
Distribucin de probabilidad conjunta: Una funcin de probabilidad conjunta o distribucin de
probabilidad conjunta definida sobre las variables aleatorias discretas X e Y es una funcin que
asigna a cada valor posible de estas variables aleatorias una probabilidad.

Si se desea calcular la probabilidad de que la variable aleatoria X caiga entre a y b cuando se sabe
que la variable Y=y, evaluamos:

Media de la distribucin de probabilidad conjunta:


La media o valor esperado de una variable aleatoria X es de especial importancia en la estadstica
porque describe el lugar donde se centra la distribucin de probabilidad. Sabemos que se puede
calcular la media de un conjunto de datos mediante el conocimiento de los distintos valores que
ocurren. Tambin podemos realizar el clculo utilizando las frecuencias relativas sin el
conocimiento del nmero total de observaciones.
Media de variable aleatoria x:

= ( ) = ( )
Media de una funcin como variable aleatoria:

(2 +4) = ( 2 + 4) = ( 2 + 4)*( )

Media de variables aleatorias x e y con distribucin de probabilidad conjunta:

() = () = *( )

() = () = *()

Varianza de la distribucin de probabilidad conjunta:


podemos definir las varianzas que necesitamos para caracterizar la variabilidad en la distribucin.
Varianza de variable aleatoria x:

2 = ( 2 ) 2 = ( 2 ( )) ( )2

Varianza de una funcin como variable aleatoria


2 2 2 2 2 2 2
( 2 +4) = (( + 4) ) = (( + 4) ( )) ( )

Varianza de variables aleatorias x e y con distribucin de probabilidad conjunta:

2 = ( 2 ) 2 = ( 2 ( )) ( )2

2 = (2 ) 2 = ( 2 ()) ( )2

Desviaciones estndar: es la raz cuadrada de la varianza obtenida.


Covarianza:
La covarianza entre dos variables aleatorias es una medida de la naturaleza de la asociacin entre
las dos.
Si valores grandes de X a menudo tienen como resultado valores grandes de Y o valores pequeos
de X tienen como resultado valores pequeos de Y. De la misma forma, si (x) es positiva a
menudo tendr como resultado Y (y) positiva y viceversa. De esta forma el producto de ambos
tender a ser positivo.
- Si a valores grandes de X tienen como resultado valores pequeos de Y, entonces el producto
tender a ser negativo.
As el signo de la covarianza indica si la relacin entre las dos variables es positiva o negativa.
Cuando X e Y son independientes se puede demostrar que la covarianza es cero. Lo opuesto, sin
embargo, no es cierto. Dos variables pueden tener covarianza cero y no ser independientes.
La covarianza se define:
= () ( )*( )

Siendo E[XY] = **(, )


Teorema de Chebyshev: La probabilidad de que una variable aleatoria tome un valor dentro de
cierto intervalo alrededor de la media, es mayor que para una variable aleatoria similar con una
desviacin estndar mayor.
Si pensamos en la probabilidad como un rea, esperaramos que la mayor rea de la curva de
distribucin continua con desviacin estndar pequea tenga la mayor parte de su rea cercana a ,
mientras que con una desviacin estndar grande, el rea estara mas extendida. En otras palabras:
Una varianza pequea indica que las desviaciones grandes alrededor de la media son improbables
Como el rea bajo una curva de distribucin de probabilidad o en un histograma de probabilidad
suma 1, entonces el rea entre dos puntos cuales quiera es la probabilidad de que la variable
aleatoria tome un valor comprendido entre esos dos puntos.
El teorema de Chebyshev da una estimacin conservadora de la probabilidad de que una variable
aleatoria tome un valor dentro de k desviaciones estndar de su media para cualquier nmero real k.
La probabilidad de que cualquier variable aleatoria X tome un valor dentro de k desviaciones
estndar de la media es al menos / 2 . Es decir :
( < < + ) / 2
Distribucin uniforme:
Como su nombre lo indica, la probabilidad de ocurrencia de cada uno de sus resultados es uniforme
y est determinada por la cantidad de valores que pueda tomar su variable aleatoria. Ejemplo:
lanzamiento de un dado, su probabilidad es uniforme.
Distribucin binomial (xito o fracaso):
Cuando el experimento consiste en repetidas pruebas con dos posibles resultados como xito o
fracaso recurrimos a la distribucin binomial.
Observe del ejemplo de extraccin de cartas de una baraja, que las probabilidades de xito para
cada extraccin cambia si las cartas no se reemplazan. Es decir, la probabilidad de extraer una carta
de coraznes en la primer extraccin es de , pero en la segunda es una probabilidad condicional
que tiene un valor de 13/51 o 12/51 dependiendo de si la primera fue xito o fracaso.
Si cambiamos el experimento ligeramente, definimos que luego de cada extraccin la carta vuelve a
la baraja y se vuelve a barajar, entonces cada prueba del experimento ser independiente de la
anterior y la probabilidad de xito permanece constante.
A este experimento cambiado se lo denomina Proceso de Bernoulli.
Proceso de Bernoulli:
El experimento consiste de N pruebas que se repiten.
Cada prueba produce un resultado binario, es decir, que se puede clasificar en xito o fracaso.
La probabilidad de xito permanece constante en cada prueba. (Denotada por p)
Las pruebas que se repiten son independientes.

Donde = Y 2 =
Distribucin multinomial:
El experimento binomial se convierte en un experimento multinomial si cada prueba tiene ms de
dos resultados posibles.

Distribucin hipergeometrica:
El experimento binomial requiere de la independencia entre las pruebas. Por tanto, si por ejemplo la
prueba consiste en retirar una carta de una baraja, deberemos reemplazar la misma para restaurar la
condicin de independencia entre las pruebas.
Otra opcin es utilizar la distribucin hipergeomtrica que no requiere de independencia entre
pruebas. En la misma, siguiendo el ejemplo, la carta retirada de la baraja no debe ser reemplazada.

Distribucin de Poisson
Un experimento de Poisson otorga valores numricos de la variable aleatoria X sobre un intervalo
determinado, que puede ser tiempo, longitud, etc. a partir del conocimiento de la tasa de ocurrencia
de los resultados en un intervalo prefijado (usualmente la tasa de ocurrencia promedio).
Un experimento de Poisson se deriva del proceso de Poisson y posee las siguientes propiedades:
El nmero de resultados que ocurren en un intervalo o regin especfica es independiente del
nmero que ocurre en cualquier otro intervalo o regin del espacio disjunto.
La probabilidad de que ocurra un solo resultado durante un intervalo muy corto o en una regin
pequea es proporcional a la longitud del intervalo o al tamao de la regin y no depende del
nmero de resultados que ocurren fuera de este intervalo o regin.
La probabilidad de que ocurra ms de un resultado en tal intervalo corto o que caiga en tal regin
pequea es insignificante.

es el nmero promedio de resultados por unidad de tiempo o regin, tambin llamado tasa de
ocurrencia de resultados
t es el tiempo o regin especfica de inters (1 ms, 1 hora, 1da, 1 semana, etc )
e = 2.71828
X es la variable aleatoria de Poisson que toma valores x.
Tanto la media como la varianza tienen el mismo valor t

Вам также может понравиться