Вы находитесь на странице: 1из 4

1

Probabilidad
I. CONCEPTOS B ASICOS DE TEORIA DE CONJUNTOS
La palabra conjunto la emplearemos para representar una
colecci on de objetos considerada como una sola entidad. Los
objetos que constituyen la colecci on se llaman elementos del
conjunto, y de ellos se dice que pertenecen al conjunto.
Los conjuntos se designan con letras may usculas: A,B,C,...;
y los elementos con min usculas: a,b,c,....
Utilizamos la notaci on, x A, para indicar que x es un
elemento de A. Si x no pertenece a A, escribimos x / A.
Cuando convenga, designaremos conjuntos escribiendo los
elementos, separados por comas, entre corchetes.
Se dice que un conjunto A es un subconjunto del conjunto
B, y escribimos A B , cuando todo elemento de A pertenece
a B.
Se dice que dos conjuntos A y B son iguales si constan exac-
tamente de los mismos elementos , en cuyo caso escribimos
A=B.
En todas nuestras aplicaciones ocurrir a que tendremos jado
de antemano un cierto conjunto , y s olo nos interesar an
subconjuntos suyos. Este conjunto puede variar de una apli-
caci on a otra, y ser a considerado como el conjunto universal
de cada teora particular.
La notaci on {x/x y x satisface P} designar a el con-
junto de todos los elementos x de que satisfacen la propiedad
P.
Un conjunto que no contenga elementos se llama conjunto
vaco, y se representa mediante el smbolo . Consideraremos
el como subconjunto de cualquier conjunto.
Con frecuencia nos ayudamos de diagramas para hacer
intuitivas las relaciones entre conjuntos. Las ayudas gr acas
de este tipo se llaman diagramas de Venn y se utilizan para
comprobar la validez de ciertos teoremas de la teora de
conjuntos.
A partir de dos conjuntos dados A y B, siempre podemos
formar un nuevo conjunto llamado uni on de A y B que se
dene como el conjunto de los elementos que pertenecen al
menos a uno de los dos conjuntos y se representa con el
smbolo A B.
La intersecci on de A y B que se representa con el smbolo
AB, se dene como el conjunto de los elementos comunes
a A y B.
Dos conjuntos A y B se llaman disjuntos si A B = .
Para cada conjunto A , de dene el complementario de
A como el conjunto de los elementos de que no pertenecen
a A y se denota por A.
Dados los conjuntos A y B, se dene la diferencia AB
como el conjunto de los elementos de A que no pertenecen a
B, esto es, AB = A B.
Las operaciones de uni on e intersecci on verican las sigu-
ientes propiedades:
Leyes conmutativas:
_
A B = B A
A B = B A
Leyes asociativas:
_
A (B C) = (A B) C
A (B C) = (A B) C
Leyes distributivas:
_
A (B C) = (A B) (A C)
A (B C) = (A B) (A C)
A = A, A =
A A = A, A A = A
A A = , A A =
A = , A = A
Leyes de Morgan:
_
(A B) = A B
(A

B) = A B
II. ESPACIO PROBABILISTICO
Denici on 1: Un experimento se dice que es aleatorio si se
verica que:
1. Todos los posibles resultados se conocen de antemano.
2. Cualquier realizaci on da lugar a un resultado que no se
conoce previamente.
3. Puede repetirse en id enticas condiciones.
Denici on 2: El espacio muestral asociado a un experi-
mento aleatorio es el conjunto de todos los posibles resultados
del experimento.
El espacio de sucesos S es el conjunto de subconjuntos de
que verica las dos propiedades siguientes:
P.1- Si A
1
, A
2
, . . . , A
n
, . . . S =

_
i=1
A
i
S
P.2- Si A S = A = A S
Cualquier conjunto A S es un suceso y los subconjuntos
del espacio muestral que constan de un unico elemento se
llaman sucesos elementales.
Ejercicio: Sean E, F y G, tres sucesos. Encontrar una expresi on
formal para los siguientes sucesos:
1. S olo F ocurre.
2. Ocurren E y F, pero no G.
3. Ocurre, al menos, uno de los tres.
4. Ocurren, al menos, dos de los tres.
5. Ninguno ocurre.
6. Como mucho ocurre uno.
7. Como mucho ocurren dos.
8. Ocurren los tres.
Soluci on: 1. F

G. 2. E

G. 3. E

G.
4. (E F) (E G) (F G). 5. E

G.
6. (E F G) (E F G) (F GE) (GE F).
7. E

G. 8. E

G.
Denici on 3: Supongamos ahora que un experimento
aleatorio se realiza en las mismas condiciones un gran n umero
de veces n. Sea A un suceso, se dene la frecuencia relativa
del suceso A como el cociente: fr(A) =
n
A
n
siendo n
A
el
n umero de veces que ocurre A.
2
La frecuencia relativa de un suceso tiende a aproximarse a
un n umero jo al aumentar n. Es la llamada ley de regularidad
estadstica.
Propiedades de la frecuencia relativa:
1. 0 fr(A) 1
2. fr() = 1
3. fr(A

B) = fr(A) +fr(B)
siendo A y B dos sucesos incompatibles (A B = )
Denici on 4: Una probabilidad P sobre (, S) es una
funci on P : S [0, 1] que verica:
A.1 P() = 1
A.2 Para toda colecci on de sucesos A
1
, A
2
, . . . , A
n
, . . . in-
compatibles dos a dos (A
i
A
j
= con i = j)
se verica:
P(

_
i=1
A
i
) =

i=1
P(A
i
)
Consecuencias
1. P(A) = 1 P(A)
2. P() = 0
3. Si B A P(B) P(A)
4. P(AB) = P(A) P(A B)
5. P(A B) = P(A) +P(B) P(A B)
6. P(A B C) = P(A) +P(B) +P(C)
P(A B) P(A C) P(B C)
+P(A B C)
Ejercicio. Demostrar las cinco primeras consecuencias de la
transparencia anterior:
1. P(A

A) = P() = 1
P(A) +P(A) = 1 P(A) = 1 P(A)
2. A S, S P(A

) = P(A) = P(A) + P()


P() = 0
3. A = B

(AB) P(A) = P(B) +P(AB) P(B)


4. A = (AB)

(A

B) P(A) = P(AB)+P(A

B)
5. A

B = (AB)

B. Entonces
P(A

B) = P(AB)+P(B) = P(A)P(AB)+P(B)
Denici on 5: La terna (, S, P) se llama espacio proba-
bilstico.
Probabilidad en espacios muestrales nitos.
Si es discreto, cada conjunto con un elemento {
j
}, j =
1, 2, . . . , n, es un suceso elemental, y es suciente asignar
probabilidades a cada {
j
}. Si A S, se tiene:
P(A) =

jA
P({
j
})
En particular, si P({
j
}) =
1
n
, j = 1, 2, . . . , n resultara
(Regla de Laplace):
P(A) =
n umero de elementos de A
n umero de elementos de
III. COMBINATORIA
Variaciones de m elementos tomados de n en n (n m):
V
m,n
= m(m1) . . . (mn + 1)
Permutaciones de m elementos:
P
m
= m!
Combinaciones de m elementos tomados de n en n (n
m):
C
m.n
=
_
m
n
_
=
m!
(mn)! n!
Variaciones con repetici on de m elementos tomados de
n en n:
V R
m,n
= m
n
Permutaciones con repetici on de m elementos entre los
cuales hay iguales entre s y distintos al resto, iguales
entre s y distintos al resto, ....., y iguales entre s y
distintos al resto:
P
,,...,
m
=
m!
!! . . . !
Ejemplo. Cu al es la probabilidad de que escogiendo aleatori-
amente una secuencia de tres letras del alfabeto, no tengamos
ninguna letra repetida?
Soluci on: Consideremos un alfabeto de 26 letras: A =
{a, b, . . . , z}. El espacio muestral es: = {(, , )/
A, A, A} y el suceso de inter es: B = {(, , )/ =
, = , = }. Por tanto, la probabilidad buscada teniendo
en cuenta la regla de Laplace es:
P(B) =
V
26,3
V R
26,3
0,88
Ejemplo. Supongamos que seleccionamos aleatoriamente 12
chips de una caja que contiene 75 chips buenos y 25 defec-
tuosos. Calcular la probabilidad de que al menos un chip sea
defectuoso.
Soluci on: El suceso de inter es en nuestro caso es: B Al
menos un chip es defectuoso
P(B) = 1 P(B) = 1
_
75
12
_
_
100
12
_ 0,975
IV. PROBABILIDAD CONDICIONADA. INDEPENDENCIA
Denici on 6: Sean A y B dos sucesos. Supuesto P(A) > 0,
llamaremos probabilidad condicionada del suceso B respecto
del suceso A, y la denotaremos por P(B/A), al cociente:
P(B/A) =
P(A B)
P(A)
La denici on anterior podramos expresarla tambi en como
sigue:
P(A B) = P(A)P(B/A)
3
de donde se deduce
P(A B C) = P(A) P(B/A) P(C/A B)
supuesto P(A B) = 0.
Ejemplo. Un reci en graduado solicita empleo en las compa nas
A e B. Se estima que la probabilidad de ser contratado por A
es 0.7 y la de serlo por B es 0.5, en tanto que la probabilidad
de que se rechace alguna de sus solicitudes es 0.6.
1. Cu al es la probabilidad de ser contratado por una de
las compa nas por lo menos ?
2. Si es admitido por la compa na A Cu al es la probabil-
idad de ser rechazado por la B ?
Soluci on: Sea C
A
el suceso: ser contratado por A ; y sea
C
B
el suceso: ser contratado por B. Entonces los datos que
tenemos son: P(C
A
) = 0,7, P(C
B
) = 0,5 y P(C
A

C
B
) =
P(C
A

C
B
) = 0,6.
1. Queremos conocer P(C
A

C
B
)
P(C
A

C
B
) = P(C
A
) +P(C
B
) P(C
A

C
B
)
P(C
A

C
B
) = 1 P(C
A

C
B
) = 1 0,6 = 0,4.
Luego: P(C
A

C
B
) = 0,7 + 0,5 0,4 = 0,8.
2. Ahora queremos calcular P(C
B
/C
A
)
P(C
B
/C
A
) =
P(C
A

C
B
)
P(C
A
)
=
P(C
A
) P(C
A

C
B
)
P(C
A
)
=
0,7 0,4
0,7
Por tanto: P(C
B
/C
A
) 0,43.
Si P(B/A) = P(B) siendo P(A) > 0, entonces que haya
ocurrido A no inuye en la probabilidad que tena B de ocurrir,
y se dice que A y B son independientes. Con m as generalidad
se dice que A y B son independientes si
P(A B) = P(A) P(B)
Si P(A) > 0 las dos deniciones son equivalentes. Si
P(A) = 0 entonces A y B son independientes seg un la
segunda denici on, mientras la primera denici on no se puede
aplicar.
Denici on 7: Diremos que los sucesos A
1
, A
2
, . . . , A
n
son
mutuamente independientes si la probabilidad conjunta de
todos los subconjuntos que pueden formarse con ellos es el
producto de las probabilidades individuales. Es decir:
P
_

iI
A
i
_
=

iI
P(A
i
) I [1, . . . . . . , n]
Ejemplo. Dados dos sucesos A y B independientes, demostrar
que A y B son independientes.
Soluci on: Como A y B son independientes, resulta que
P(A B) = P(A) P(B)
Figura 1.
Luego
P(A B) =P(A) P(A B)
=P(A) P(A) P(B)
=P(A) (1 P(B))
=P(A) P(B)
Ejemplo. Consideramos el sistema de la gura (1), donde
se supone que el funcionamiento de cada componente es
independiente del de los dem as. Las probabilidades de que
cada componente funcione son: P(A) = 0,95, P(B) = 0,99,
P(C
1
) = P(C
2
) = P(C
3
) = 0,70, P(D
1
) = P(D
2
) = 0,75,
P(E) = 0,9. Calcular la probabilidad de que el sistema
funcione.
Soluci on:
P(A B (C
1
C
2
C
3
) (D
1
D
2
) E)
=P(A)P(B)P(C
1
C
2
C
3
)P(D
1
D
2
)P(E)
=P(A)P(B)[1 P(C
1
C
2
C
3
)][1 P(D
1
D
2
)]P(E)
=P(A)P(B)
_
1 (P(C))
3
_
1 (P(D))
2

P(E) = 0,772
donde P(C) = P(C
1
) = P(C
2
) = P(C
3
) y P(D) =
P(D
1
) = P(D
2
)
V. TEOREMAS DE LA PROBABILIDAD TOTAL Y DE BAYES
Teorema 1 (de la probabilidad total): Sean los sucesos
C
1
, . . . , C
n
incompatibles dos a dos de modo que
n
_
i=1
C
i
= .
A S resulta:
P(A) =
n

i=1
P(A/C
i
) P(C
i
)
A
'
&
$
%
C
1
C
2
. . .
C
n

Figura 2. Espacio de sucesos


Teorema 2 (de Bayes): En las mismas hip otesis del teore-
ma anterior, resulta:
P(C
i
/A) =
P(A/C
i
) P(C
i
)
n

i=1
P(A/C
i
) P(C
i
)
4
Ejemplo. Consideremos una fuente de informaci on binaria
{0, 1} emitiendo a trav es de un canal de comunicaci on someti-
do a perturbaciones aleatorias. As, al tener ruido el canal, un
0 transmitido se recibe a veces como un 1 y un 1 es algunas
veces recibido como un 0.
Para un canal concreto, suponemos una probabilidad de 0.94
de que un 0 se reciba como 0 y una probabilidad de 0.91 de
que un 1 se reciba como un 1. Adem as hay una probabilidad
de 0.45 de transmitir un 0. Calcular:
1. Probabilidad de que se reciba un 0.
2. Probabilidad de que se reciba un 1.
3. Probabilidad de que se haya transmitido un 1 si se ha
recibido un 1.
4. Probabilidad de que se haya transmitido un 0 si se ha
recibido un 0.
5. Probabilidad de error en la recepci on.
Soluci on: Podemos sintetizar los datos del problema en la
gura
E

E
d
d
d
d
d
d
d
d
d
d
d
d
0,91
E
1
R
1
E
0
0,94
0,09 0,06
R
0
Denotamos
E
0
se transmite 0 E
1
:= E
0
se transmite 1
R
0
se recibe 0 R
1
:= R
0
se recibe 1
1. P(R
0
)=P(R
0
/T
0
) P(T
0
) + P(R
0
/T
1
) P(T
1
)=0.4725
2. P(R
1
)=P(R
0
)=1 P(R
0
)=0.5275
3. P(E
1
/R
1
)=
P(R
1
/E
1
) P(E
1
)
P(R
1
)
=0.7763
4. P(E
0
/R
0
)=
P(R
0
/E
0
) P(E
0
)
P(R
0
)
=0.8952
5. P(error)=P((E
1

R
0
)

(E
0

R
1
))=0.0765
Ejemplo. Consideremos una fuente binaria emitiendo una serie
de dgitos independientes con P(E
0
) = 0,3 y P(E
1
) = 0,7.
Estas informaciones binarias se transmiten a un receptor
a trav es de dos canales de transmisi on distintos. En estos
canales hay distorsiones de manera que las probabilidades de
transici on ( probabilidad de recibir el bit k sabiendo que el
bit i ha sido emitido) son:
p
1
= P(R
k
/E
i
) = 10
7
en el canal I
p
2
= P(R
k
/E
i
) = 2 10
7
en el canal II
k = 0, 1 k = i
Cuando se emite un 0, el bit recibido por el primer canal
es independiente del bit recibido por el segundo. Lo mismo
ocurre cuando se emite un 1.
En cierto instante el receptor recibe de la primera conexi on
un 0 y de la segunda un 1. Cu al de las dos informaciones
daremos por buena? Es decir, cu al de los dos bits tiene mayor
probabilidad de haber sido emitido?
Soluci on:
E
E
E
E
R
E
p
2
= 2 10
7
p
1
= 10
7
I
II
Denotemos convenientemente los sucesos que intervienen:
R
(i,j)
: Se recibe el bit i por el canal I y el bit j por el
canal II.
E
i
: Se emite el bit i.
R
iI
: Se recibe el bit i por el canal I.
R
iII
: Se recibe el bit i por el canal II.
Vamos a calcular P(E
0
/R
(0,1)
) y P(E
1
/R
(0,1)
) y veremos
cual es mayor.
Por el teorema de Bayes:
P(E
0
/R
(0,1)
) =
P(R
(0,1)
/E
0
)P(E
0
)
P(R
(0,1)
/E
0
)P(E
0
) +P(R
(0,1)
/E
1
)P(E
1
)
Utilizando la independencia de ambos canales se obtiene que
P(R
(0,1)
/E
0
) =P(R
0I
/E
0
) P(R
1II
/E
0
)
=(1 10
7
) 2 10
7
2 10
7
P(R
(0,1)
/E
1
) =P(R
0I
/E
1
) P(R
1II
/E
1
)
=10
7
(1 2 10
7
) 10
7
Entonces
P(E
0
/R
(0,1)
)
P(2 10
7
0,3
2 10
7
0,3 + 10
7
0,7)
0,46
Por tanto:
P(E
1
/R
(0,1)
) = 1 0,46 = 0,54 > 0,46
Luego es m as probable que se haya emitido un 1 que un 0
(a pesar de que el canal II tiene mayor probabilidad de error
en la transmisi on, la fuente emite 1 con probabilidad mayor
que 0).

Вам также может понравиться