Академический Документы
Профессиональный Документы
Культура Документы
UNIVERSIDAD DE SONORA
DEPARTAMENTO DE INVESTIGACIN EN FSICA
INGENIERA EN TECNOLOGA ELECTRNICA
EDITADO POR:
COMIT EDITORIAL DEL DEPARTAMENTO DE INVESTIGACIN
EN FSICA
HERMOSILLO, SONORA
AGOSTO DE 2012
Contenido
TEORIA DE LA PROBABILIDAD Y PROCESOS ESTOCASTICOS ............................... 1
1.
INTRODUCCIN ....................................................................................................... 1
2.
PROBABILIDAD........................................................................................................ 1
2.1.
3.
5.2.
6.
7.
7.2.
7.3.
8.
9.
10.
CONCLUSIONES. ................................................................................................ 23
11.
BIBLIOGRAFA. .................................................................................................. 23
2. PROBABILIDAD
El concepto de probabilidad est ligado a realizacin (fsica o mental) de un experimento
aleatorio, entendindose por tal un experimento cuyo resultado es desconocido (es decir,
no predecible) por un observador. Suele ponerse el ejemplo de lanzamiento de un dado: el
resultado puede ser cualquier nmero entre 1 y 6, pero es a priori impredecible ni siquiera
por el lanzador.
La probabilidad es una medida de la incertidumbre que, para un observador, tiene el
resultado de un experimento, y es, por tanto, una medida subjetiva. As, por ejemplo, el
contenido de un mensaje enviado a travs de un canal de comunicaciones digitales es
completamente desconocido por el receptor antes de iniciarse la comunicacin, pero no por
el transmisor, que puede predecirlo con exactitud en la medida que conoce el mensaje
transmitido.
El desconocimiento puede ser total o parcial. Si consideramos el experimento lanzar dos
dados y sumar sus puntos, cualquier resultado entre 2 (1+1) y 12 (6+6) es posible. Sin
embargo, tambin sabemos que el 7 es un resultado ms esperable que el 2. Lo sabemos
por naturaleza del experimento o por informacin estadstica.
La probabilidad es esencialmente, una medida de incertidumbre sobre el resultado del
experimento, y por lo tanto, dependiente de la cantidad de informacin disponible por el
observador en cada momento. Para acercarnos a una definicin ms formal, se precisan
varios elementos:
2
Definimos ahora una medida de probabilidad Pr como toda una funcin que, aplicada sobre
cualquier suceso S , devuelve un nmero real Pr{S} que verifica las siguientes
propiedades
1.
2.
3.
4.
0 Pr {S}1
Pr {}=0
Pr {}=1
Dado un conjunto finito (o infinito numerable) de sucesos S i disjuntos (Si Sj =
), se verifica { } { }
2.1.
3
Ejemplo 1.2
La asignacin de probabilidades a los 6 resultados posibles del lanzamiento del dado
permite calcular un valor de probabilidad para cualquier otro suceso. As, por ejemplo,
suponiendo que la probabilidad de cada posible resultado es 1/6, la probabilidad de que se
obtenga un nmero par ser
{{ }
{ }
{ }}
{ }
{ }
{ }
3. VARIABLES ALEATORIAS
Estrictamente hablando, variable aleatoria es toda aplicacin de en la recta real, que
asigna a cada posible resultado un nmero. Dado el resultado
, la variable aleatoria X
tomara un valor
. En la prctica, la notacin suele simplificarse y, de forma
general escribiremos X, omitiendo el argumento.
Mediante el uso de variables aleatorias, el espacio muestral original se proyecta sobre un
subconjunto de la recta real, que llamaremos espacio muestral imagen.
Ejemplo 2.1
Un transmisor enva una secuencia de dgitos binarios (ceros y unos), { [ ]
}, a un receptor distante a travs de un canal de comunicaciones digitales. A consecuencia
de imperfecciones del canal, la secuencia de dgitos binarios detectada en recepcin,
{ [ ]
}, es posiblemente diferente a la transmitida.
Para evaluar el rendimiento de la comunicacin, considere el experimento consistente en
comparar las secuencias transmitida y recibida y determinar cul de los resultados
siguientes se ha producido:
Hay errores de transmisin, o bien
No hay errores
de transmisin. Puede definirse la variable aleatoria Z dada por
y
=1. De
} es la probabilidad de que se haya producido algn error en la
este modo, {
{
}
transmisin. Si llamamos al espacio muestral imagen ( es decir,
), podemos distinguir entre:
4
es tambin un suceso); respetando las propiedades 1 a 3, y calcular las probabilidades de los
dems sucesos aplicando la propiedad 4. Lo ltimo es posible porque puede construirse
cualquier suceso mediante la unin contable de sucesos atmicos (esto es, sucesos
formados por un solo resultado posible). Sin embargo, si es continuo, aquellos sucesos
que contengan un conjunto infinito y no numerable de resultados posibles no pueden
construirse como unin contable de sucesos atmicos; por lo tanto, no es posible calcular su
probabilidad a partir de las probabilidades de los sucesos atmicos. Adems, la mayora de
los sucesos atmicos tienen probabilidad nula.
Cuando es continuo, suele preferirse caracterizar la variable aleatoria X a partir de los
}. La funcin que devuelve la probabilidad de este suceso para
sucesos de la forma {
cada valor de X se denomina funcin de distribucin acumulada o, simplemente, funcin de
distribucin
{
si
}
} resulta
5
recurrirse a la funcin de distribucin acumulada o bien a su derivada, que se conoce como
funcin de densidad de probabilidad (abreviadamente, FDP).
Las siguientes propiedades son una consecuencia inmediata de esta definicin, y de las
propiedades de la funcin de distribucin enunciadas anteriormente:
1.
2.
3.
Adems, la densidad de probabilidad define completamente una variable aleatoria, en el
sentido de que permite calcular la probabilidad de cualquier suceso. Por ejemplo, la
} se puede calcular teniendo en cuenta que el conjunto
probabilidad del suceso {
{
} admite la particin
{
Y, por tanto
{
partiendo de la
}
6
definirse la funcin de probabilidad acumulada (o de distribucin) de una variable discreta,
{
}
dada por
La
funcin de distribucin cumple
, donde
es el mximo valor posible de X (estrictamente hablando, el
valor supremo).
Asimismo, las probabilidades pueden expresarse a partir de la funcin de distribucin.
Suponiendo
, puede escribirse
.
4.1.
Esperanza matemtica
Siendo
}
}
7
De modo anlogo se escribe la esperanza matemtica de una variable aleatoria continua:
{ }
Y, en general,
{
5. DISTRIBUCIONES DE INTERES
5.1.
Habitualmente,
y
representacin ms compacta:
X(se ha producido S) = 1
X(no se ha producido S) = 0
As, por ejemplo, esta variable aleatoria resulta til en comunicaciones para analizar
sucesos del tipo Se ha transmitido un bit de valor 1 o bien El mensaje recibido contiene
errores.
Binomial. Supongamos que cierto experimento aleatorio se repite n veces (independientes),
y desea evaluarse el nmero de veces que se produce cierto suceso S de probabilidad
{ }
. Considerando la variable aleatoria X que toma el valor k si el suceso S se ha
producido k veces, puede demostrarse que, en tal caso, X es una variable aleatoria de
{
}, con distribucin de probabilidades
espacio muestral
8
( )
( )
Su media es
Donde
es un parmetro de la distribucin.
La distribucin geomtrica surge, por ejemplo, cuando se desea evaluar la primera vez que
se produce un suceso S de probabilidad p es una sucesin infinita de realizaciones
independientes de cierto experimento aleatorio. Su valor medio (que es el tiempo medido
de aparicin del suceso) puede calcularse como:
{ }
Sabiendo que
, podemos escribir
{ }
=
(
9
5.2.
Su media es
{ }
Y su varianza
{
10
Y una inferior es
(
,
Que es la derivada de una funcin de distribucin de expresin ms sencilla:
,
En el caso
y
conocida como Rayleigh
,
Alternativamente, podemos definir una variable aleatoria de tipo Rayleigh a partir de dos
variables gaussianas: si
y
son gausianas independientes de media cero y varianza ,
la variable dada por
se define
11
Gamma. La variable aleatoria de tipo gamma de parmetros b y
se define por
,
Donde
es la funcin de Gamma.
,
La distribucin exponencial se utiliza frecuentemente para el modelado de la duracin
media de paquetes de datos.
Distribucin Chi-cuadrado
. Se dice que una variable aleatoria tiene una
distribucin
con grados de libertad si se ajusta a una distribucin Gamma con
los parmetros
y
. En este caso, la FDP en la ecuacin de Gamma
antes mencionada se reduce a
,
( )
con
es
es otra
} . Adems, si la
12
Si la transformacin no es uno a uno (porque para uno o mas
con
), se comprueba fcilmente que
se verifica que
Por el contrario, si
Derivando las dos ecuaciones inmediatas anteriores, segn se trate de una funcin creciente
o decreciente, resulta
|
Ejemplo 5.1
Si es una variable aleatoria gausiana de media
una distribucin
| |
y varianza , la variable
.
|
La ecuacin
tiene
13
Esta expresin puede generalizarse para funciones con tramos crecientes y decrecientes,
de modo anlogo al caso discreto: la fdp resulta de la suma
Ejemplo 5.2
Considere la variable aleatoria
funcin
creciente
con FDP
y la variable aleatoria
. La
y un tramo decreciente
y un tramo
, y en el
tramo creciente es
. Aplicando la ecuacin:
Es posible obtener:
Si
y varianza
6.1.
,
)
Esperanza matemtica
puede
14
O bien como esperanza matemtica de
{
.
}
Sabiendo que
(
Resulta
{
)|
es
, resulta
{
{ }
Por tanto, el valor medio es independiente de la variable que se utilice para su clculo. Esta
propiedad es vlida para cualquier funcin , no necesariamente creciente.
Un caso particular de inters es aquel en el que la relacin entre las variables es lineal.
Supongamos, por ejemplo, que la variable aleatoria continua tiene media
y varianza
, y se define la variable
, siendo y constantes conocidas. De acuerdo con
la ecuacin inmediata anterior, la media de es
{ }
15
Y su varianza
{
Variables discretas
{
} de
De forma general, dada una coleccin de variables aleatorias
espacios muestrales
, respectivamente, se define la funcin de probabilidad
conjunta de las variables en como aquella funcin que devuelve, para cada configuracin
posible de valores de las variables, su probabilidad de ocurrencia simultnea. De forma
general, denotaremos esta funcin como
. Asimismo, puede
construirse el vector aleatorio
16
La media
de un vector aleatorio
{ }
{ }
{ }.
{(
)(
)(
)}
}
{
son no-negativos.
}, con
17
| |
Donde
Variables continuas
}, se define y la
}
Cuando
, las definiciones anteriores se reducen a las ya conocidas para el caso
escalar. Puede interpretarse la funcin de densidad de probabilidad como un valor
proporcional a la probabilidad de que las componentes del vector aleatorio caigan dentro de
los intervalos [
]
[
].
{
Asimismo, de forma general, la probabilidad de que una variable aleatoria caiga dentro de
una regin
se puede calcular como
{
18
Asimismo, se define la media de un vector aleatorio
{ }
como
{ }.
{(
)(
)}
Donde
su determinante.
19
7.3.
Si es un variable discreta,
modo inmediato
Si
se generaliza de
, dada por
(
Y
Siendo
su determinante.
Ejemplo 6.1
Sea
un vector aleatorio e
, siendo una matriz cuadrada invertible y
un vector constante. La matriz Jacobiana de la transformacin es
y la
|
|
FDP de se puede calcular aplicando directamente la expresin
.
|
8. PROBABILIDADES CONDICIONALES
Hemos dicho que la probabilidad es una medida de la incertidumbre acerca del resultado de
un experimento, y por tanto es subjetiva, en la medida en que depende de la informacin
disponible por el observador que pueda tener alguna relacin con el mismo. Por tanto, si el
observador recibe nueva informacin, la cantidad de incertidumbre puede cambiar.
20
Se precisa, por tanto, alguna medida de la probabilidad de cierto suceso condicionada por
el conocimiento sobre la ocurrencia de otro suceso . Matemticamente, esto se escribe
{ | } y se define como
{
{ | }
}
{ }
{ | }
{
}
{ }
{ | } { }
{ | } { }
} {
Del mismo modo que hemos definido la funcin de probabilidad de una variable aleatoria a
partir de las probabilidades de los sucesos atmicos (sucesos constituidos por un solo
resultado posible), se define la funcin de probabilidad condicional de dado (o mejor,
de dado
) como
|
Ejemplo 7.1
Un ejemplo de probabilidades condicionales utilizado en transmisin digital es el modelo
de Canal binario simtrico, como se muestra en la figura 7.1. Este modelo define las
21
probabilidades con las que ocurren los 0 y los 1 a la salida de un canal de
comunicaciones, supuesto conocido el valor de los bits a su entrada. De esta forma se
definen las variables aleatorias
asociadas al bit transmitido y recibido,
respectivamente, relacionada a travs de las siguientes probabilidades
{
Transmisor
Canal
Receptor
Figura 7.1: Modelo de canal binario simtrico. El transmisor enva un bit S=0 o 1 a travs del canal. El
receptor observa un bit R= 0 o 1, que, con probabilidad , difiere de .
es un suceso y {
,y
{ }
{ | } { }
{ | } { }
22
{ }
{ }
De modo que:
{ }
( | )
( )
( | )
( )
( | )
( )
},
Y, derivando respecto de ,
23
Ejemplo 8.1
Consideremos el canal binario simtrico descrito por las probabilidades condicionales en el
ejemplo 7.1. Si la probabilidad de transmitir un 1 es y la de transmitir un 0 es
,
las probabilidades de recibir un 0 y un 1 son
{
} {
} {
} {
} {
} como
}.
10. CONCLUSIONES.
En estas notas se revisaron las principales definiciones de probabilidad y procesos
estocsticos aplicados a sistemas de comunicaciones electrnicas digitales para el curso de
Sistemas de Comunicaciones II de la Ingeniera en Tecnologa Electrnica.
11. BIBLIOGRAFA.
[1] LATHI B. P. & DING ZHI. Modern Digital and Analog Communication Systems.
Editorial Oxford University Press. 2009.
[2] PROAKIS JOHN G. Fundamentals Communication Systems. Editorial Prentice
Hall. 2004.
[3] HERRERA PEREZ ENRIQUE. Comunicaciones II: comunicacin digital y ruido;
una introduccin a la teora de la comunicacin digital y el ruido. Editorial Limusa,
Grupo Noriega Editores. 2008.