Вы находитесь на странице: 1из 30

1.

Sistemas Estocsticos

1. Sistemas Estocsticos _____________________________________________ 1


1.1. Introduccin ________________________________________________________ 2
1.2. Perturbaciones ______________________________________________________ 2
1.3. Conceptos de Probabilidad ____________________________________________ 3
1.3.1. Variable aleatoria ___________________________________________________ 5
1.3.2. Funcin de Distribucin. ______________________________________________ 5
1.3.3. Funcin Densidad. __________________________________________________ 6
1.3.4. Probabilidad Condicional _____________________________________________ 7
1.3.5. Esperanza. ________________________________________________________ 7
1.3.6. Momentos ________________________________________________________ 8
1.3.7. Varianza__________________________________________________________ 8
1.3.8. Tipos de Distribucin ________________________________________________ 9
1.3.9. Correlacin________________________________________________________ 9
1.3.10. Covarianza _______________________________________________________ 9
1.4. Proceso Aleatorio ___________________________________________________ 10
1.4.1. Funciones de Distribucin____________________________________________ 11
1.4.2. Esperanza de un Proceso Estocstico ____________________________________ 11
1.4.3. Autocorrelacin ___________________________________________________ 11
1.4.4. Autocovarianza ____________________________________________________ 11
1.4.5. Correlacin Cruzada ________________________________________________ 12
1.4.6. Covarianza Cruzada ________________________________________________ 12
1.4.7. Proceso Estacionario________________________________________________ 12
1.4.8. Vector de Proceso Aleatorio __________________________________________ 14
1.4.9. Secuencias Estocsticas______________________________________________ 15
1.4.10. Continuidad _____________________________________________________ 16
1.4.11. Diferenciacin ___________________________________________________ 17
1.4.12. Integracin ______________________________________________________ 18
1.5. Procesos Especiales __________________________________________________ 19
1.5.1. Proceso Estocstico Discreto __________________________________________ 19
1.5.2. Procesos Independientes _____________________________________________ 19
1.5.3. Procesos Incorrelados _______________________________________________ 19
1.5.4. Proceso Blanco____________________________________________________ 19
1.5.5. Procesos Estocsticos Ergdicos _______________________________________ 20
1.5.6. Proceso de Wiener _________________________________________________ 21
1.5.7. Proceso de Markov _________________________________________________ 21
1.6. Modelos Estocsticos ________________________________________________ 22
1.6.1. Modelos Continuos en Ecuaciones Diferenciales ___________________________ 22
1.6.2. Procesos Discretos _________________________________________________ 24
1.6.3. Modelos Discretos en Variables de Estado ________________________________ 24
1.6.4. Modelo Continuo en Variables de Estado _________________________________ 26
1.7. Referencias_________________________________________________________ 30

1
1.1. Introduccin
Los sistemas estadsticos estn relacionados, en control con la imposibilidad de
modelizar alguna parte del proceso a estudiar.
Citar ejemplos industriales.
Sensor de nivel
1.2. Perturbaciones
Un caso tpico de modelizacin son las perturbaciones que puede tener una planta,
ya sea por una imprecisin en la medicin, la aparicin de una carga o variacin propia de
la planta.
- Perturbacin de carga: carga mecnica de un motor, olas en un barco, etc. Son
generalmente lentas o de bajas frecuencias.
- Error de medicin: puede ser un error esttico de calibracin o con componentes
de alta frecuencia muy importantes. Una solucin habitual es filtrar esta seal
con el consiguiente retardo de la misma.
- Variacin de Parmetros: debidas a una variacin del punto de trabajo o a
derivas del propio sistema.
El ltimo tipo de perturbacin se estudia como un cambio en el modelo de la planta
en cambio los dos primeros se pueden modelizar como una dinmica adicional al sistema
original.
1.5 1.5 25 1.5

1
20
1 1

0.5
15

0.5 0.5 0

10
-0.5

0 0
5
-1

-0.5 -0.5 0 -1.5


0 5 10 15 20 25 30 0 5 10 15 20 25 30 0 5 10 15 20 25 30 0 20 40 60 80 100

Figura 1-1. Cuatro tipos diferentes de perturbaciones: de corta duracin, carga


constante, deriva y peridica
Estas perturbaciones se podran pensar como la respuesta impulsional de un sistema
Gn

2
Figura 1-2. Diagrama de bloques de una perturbacin y su efecto sobre la planta
Las perturbaciones que sern materia de estudio en este trabajo no se podrn
representar
1 1.5

0.9
1
0.8

0.7
0.5
0.6

0.5 0

0.4
-0.5
0.3

0.2
-1
0.1

0 -1.5
0 5 10 15 20 25 30 0 5 10 15 20 25 30

Figura 1-3. Perturbaciones de tipo estadstico


1.3. Conceptos de Probabilidad
La Teora de Probabilidad trata fenmenos que pueden ser modelados por
experimentos cuyos resultados estn gobernados por el azar (se denominan experimentos
aleatorios). Estos experimentos aleatorios estn caracterizados por

Los experimentos son repetibles bajo idnticas condiciones


El resultado de un experimento es impredecible

Si el experimento se realiza un gran nmero de veces, el resultado exhibe un


cierta regularidad estadstica (se observa un comportamiento promedio).
Se define un conjunto S que engloba todos los sucesos posibles de una variable. Es
decir, el conjunto total corresponde al suceso cierto y el conjunto vaco es el suceso
imposible. Se definen sobre este conjunto de operaciones, a saber:
A + B significa que ocurre el suceso A o el suceso B
A B significa que ocurre el suceso A y el suceso B

3
Si A B = 0 implica que los sucesos A y B son excluyentes, que no pueden ocurrir
simultneamente.
A B significa que si ocurre el suceso A , ocurre B

A es el complemento de A. Si ocurre A no puede ocurrir su complemento.


Denominamos evento o suceso a uno de los posibles resultados de un experimento
aleatorio. Cada suceso ocurrir con una probabilidad determinada y la probabilidad de que
ocurra alguno de los suceso es total. Por comodidad se asigna el valor 1 a la certeza total, es
decir que la probabilidad de que ocurra cualquier suceso individualmente ser menor que la
unidad y tambin no negativa.
Otra forma de verse es la siguiente: Sea A un evento y se supone que en n
realizaciones del experimento, el evento A ocurre N n ( A) veces. La frecuencia relativa
asociada al evento A es el cociente

N n ( A)
[1.1]
n
que verifica

N n ( A)
0 1
n
Si el evento A no ocurre nunca, entonces N n ( A) n = 0 , en tanto que si ocurre las
n veces que se realiza el experimento N n ( A) n = 1.

A medida que aumenta n, la frecuencia relativa converge a un valor y este se


definirse como probabilidad de ocurrencia del evento A:

N ( A)
P ( A ) = lim n [1.2]
n
n
Puede pensarse que un experimento aleatorio y sus resultados definen un espacio
con sus puntos. Este espacio se denomina espacio muestral (el conjunto de todos los
posibles resultados del experimento) y sus puntos se denominan muestras. Denotaremos al
espacio muestral con S. El espacio muestral completo S se denomina evento seguro, en
tanto que el conjunto vaco se denomina evento nulo o imposible.
Se puede ahora definir axiomticamente la probabilidad diciendo que un sistema de
probabilidad consiste de la tripla:
i. Un espacio muestral S de eventos elementales (resultados de experimento)
ii. Una clase de eventos que son un subconjunto de S.
iii. Una medida de probabilidad P ( ) asignada a cada evento A en la clase
, que tiene
las siguientes propiedades

4
(i) P (S ) = 1
(ii) 0 P ( A) 1
(iii) Si A + B es la unin de dos eventos mutuamente excluyentes en la clase
, entonces
P ( A + B ) = P ( A ) + P (B )
(iv) Si A B = 0 P ( A + B ) = P ( A) + P ( B )
(v) Si A y B no son mutuamente excluyentes entonces
P( A + B ) = P ( A) + P ( B ) P ( A B )
(vi) Si A1 ,L An son excluyentes P( A1 + L + An ) = P ( A1 ) + L + P ( An )
(vii) P ( A) = 1 P ( A)
(viii) La Probabilidad del suceso imposible es 0.
1.3.1. Variable aleatoria
En la teora de probabilidad, una variable aleatoria escalar X es considerada como el
resultado de un experimento en un espacio muestral que representa la coleccin de las
posibles salidas. Cuando la variable aleatoria X puede asumir slo un nmero finito de
valores en cualquier intervalo finito de observacin, se dice que X es una variable aleatoria
discreta. Si en cambio, la variable aleatoria X puede tomar cualquier valor en el intervalo de
observacin, se dice que la misma es una variable aleatoria continua.
Para describir las propiedades de las variables aleatorias se necesita dar una
descripcin probabilstica de las mismas.
Para una variable aleatoria X se puede definir su probabilidad en funcin de un valor
x, es decir la probabilidad del evento X x . Esta probabilidad se denota:

P (X x) [1.3]

1.3.2. Funcin de Distribucin.


Es claro que esta probabilidad es funcin de la variable muda x. Se define entonces
a sta como la funcin de densidad de probabilidad acumulada FX ( x ) :

FX (x ) = P( X x ) [1.4]

o simplemente funcin de distribucin de la variable aleatoria X.


Esta funcin es no decreciente

F X (- ) = 0
[1.5]
F X ( )=1

5
1

0.8

0.6

0.4

0.2

0 20 40 60 80 100

De igual modo se define la funcin de distribucin conjunta de dos variables


aleatorias como:

FX ,Y (x, y ) = P ( X x, Y y ) [1.6]

1.3.3. Funcin Densidad.


Una descripcin alternativa de la probabilidad de una variable aleatoria X se logra
usando la derivada de FX ( x ) para obtener la funcin de densidad de probabilidad de la
variable aleatoria X.

dFX ( x )
fX ( x) = [1.7]
dx
1

0.8

0.6

0.4

0.2

0 20 40 60 80 100

El nombre densidad de probabilidad se debe a que la probabilidad de que


x1 X x2 se obtiene como:

P ( x1 X x2 ) = f X ( x ) dx
x2
[1.8]
x1

Es decir que la probabilidad de que X [x1 , x 2 ] es igual al rea bajo la curva de


densidad de probabilidad en ese intervalo.
Es fcil de ver que para X asumiendo valores en el intervalo (a,b) la funcin de
distribucin est dada por:

FX ( x ) = f X ( ) d
x
[1.9]
a

y haciendo el extremo inferior resulta


x
FX ( x) = f
-
X (x)dx [1.10]

6
Como la probabilidad del evento cierto X < b es FX (b ) = 1 y la probabilidad del
evento imposible X < a es FX (a ) = 0 , se concluye que

f X ( x ) dx = 1
b
[1.11]
a

donde podra resultar que a = y b = + .


Tambin se define la funcin de densidad de probabilidad conjunta de las variables
aleatorias X e Y del siguiente modo:

2 FX ,Y ( x, y )
f X ,Y ( x, y ) = [1.12]
x y

1.3.4. Probabilidad Condicional


Consideremos un experimento que involucra un par de eventos A y B. Denotamos
con P (B | A ) a la probabilidad del evento B dado que el evento A ocurri. La probabilidad
P (B | A ) se denomina probabilidad condicional de B dado A. Asumiendo que A tiene
probabilidad no nula, la probabilidad condicional resulta

P ( AB )
P ( B | A) = [1.13]
P ( A)

donde P ( AB ) es la probabilidad conjunta de A y B.

Es fcil ver que

P ( AB ) = P ( B | A ) P ( A ) [1.14]

P ( AB ) = P ( A | B ) P ( B ) [1.15]

Teorema de Bayes

P ( A | B) P ( B )
P ( B | A) = [1.16]
P ( A)

Si se verifica que P ( A | B ) = P ( A) , entonces P ( AB ) = P ( A ) P ( B ) , y se dice que


los eventos A y B son estadsticamente independientes.

1.3.5. Esperanza.
Para analizar el comportamiento promedio de los resultados de un experimento
aleatorio se define la media o valor esperado de la variable aleatoria X como:

E ( x , k 1 ) = f x ( k 1 , ) d = m( k 1 ) [1.17]
-

7
la esperanza es una funcin de k pero ya es una variable determinstica.
es lineal
E ( )= ( E ) [1.18]

1.3.6. Momentos
Se define tambin el momento de orden n de la funcin de distribucin de
probabilidad de la variable aleatoria X , como:

E X n = x n f X ( x ) dx
b
[1.19]
a

El momento de primer orden (n=1) es el valor medio o valor esperado de la variable


aleatoria X. El momento de segundo orden (n=2) es el valor medio cuadrtico de X.
De forma similar, se definen los momentos centrados de orden n que no son ms
que los momentos de la diferencia entre la variable aleatoria X y su valor medio m X , es
decir:

E ( X m X ) = (x m ) f X ( x ) dx
n b n
[1.20]
a
X

Cuando se considera un par de variables aleatorias X e Y , un conjunto de


parmetros estadsticos importantes en este caso son los momentos conjuntos definidos
como:

E X iY k = xi y k f X ,Y ( x, y ) dx dy
b b
[1.21]
a a

donde f X ,Y ( x, y ) es la funcin de densidad de probabilidad conjunta de las


variables aleatorias X e Y.

1.3.7. Varianza
Para n=1 el momento central resulta nulo, en tanto que para n=2 resulta el momento
central de 2do orden y se denomina varianza de la variable aleatoria X, y se denota:

2X = var [ X ] = E ( X mX ) = ( x m X ) f X ( x ) dx
2 2 b
[1.22]
a

Las raz cuadrada de la varianza, o sea X , se denomina desviacin estndar de la


variable aleatoria X.
La varianza de una variable aleatoria es en cierta forma una medida del grado de
aleatoriedad de la variable, ya que da una indicacin de cunto se desva la variable con
respecto a su valor medio. Ms precisamente, se verifica la siguiente desigualdad de
Chebyshev:

8
2X
P ( X mX ) 2 [1.23]

para cualquier nmero positivo .

1.3.8. Tipos de Distribucin


Una variable aleatoria (escalar) se dice que tiene una distribucin Gaussiana o
Normal si su funcin de densidad de probabilidad est dada por:

1 ( x mX )2
pX ( x ) = exp [1.24]
X 2 2 2X

Es fcil de probar que los momentos de orden n, con n 3 , quedan unvocamente


determinados por los momentos de primer y segundo orden, o sea el valor medio m X y la
varianza 2X .

Cuando una variable aleatoria tiene distribucin Gaussiana, se denota:

X N X , 2X ( )
Las variables Gaussianas juegan una papel muy importante ya que se encuentran
frecuentemente cuando se hacen anlisis estadsticos de numerosos sistemas fsicos.

1.3.9. Correlacin

Un momento conjunto de gran importancia es la correlacin definida por E [X Y ]


que corresponde a i = k = 1 en [1.21].

E [ XY ] = xyf X ,Y ( x, y ) dxdy
b b
[1.25]
a a

Se dice que las variables son ortogonales si y slo si su correlacin es cero, i.e.

E [ XY ] = 0 [1.26]

1.3.10. Covarianza

Las correlaciones entre las variables centradas E [X E [X ]] e E [Y E [Y ]] se


denomina covarianza de X e Y, y se denota:

r XY (j,k)=cov X jYk = E ( X j - m Xj ) (Yk - mYk )


[1.27]
= ( x - m Xj ) ( y - mYk ) f(X,Y,j,k) dx,dy

llamando mX = E [ X ] y mY = E [Y ] resulta:

r XY (j,k)=cov X jYk = E X jYk mXj mYk [1.28]

9
Se dice que dos variables aleatorias X e Y estn no correlacionadas si y slo si su
covarianza es cero, es decir

r XY (j,k)= 0 [1.29]

Se define de igual manera la Autocorrelacin para una nica variable.

rX (j,k)= cov X j = E ( X j - m Xj )
2

[1.30]
= ( x - m Xj ) f(X,j,k) dx 2
2

y si X fuese un vector

rx (j,k)=E ( X j m Xj ) ( X k m Xk )
r 11 L L L

r12 r 22 L L [1.31]
=
r 13 r 23 r 33 L

L L L L
1.4. Proceso Aleatorio
Se consideran ahora seales que son funcin del tiempo y que son aleatorias en el
sentido que antes de llevar a cabo un experimento no es posible describir exactamente la
forma de onda que presentarn las seales observadas. En este caso, cada elemento del
espacio muestral es una funcin del tiempo x j ( t ) . El conjunto de funciones del tiempo
(espacio muestral) se denomina proceso aleatorio o proceso estocstico que se denotar
X (t ) .

1.8

1.6

1.4

1.2

0.8

0.6

0.4

0.2

0
0 5 10 15 20 25 30

Figura 1-4. Diferentes realizaciones de un proceso estocstico


Para cada instante de tiempo se tiene una variable aleatoria. Se asume entonces la
existencia una distribucin de probabilidad definida sobre una apropiada clase de conjuntos
del espacio muestral.

10
1.4.1. Funciones de Distribucin
Para conocer un proceso estocstico se necesitara saber la funcin de distribucin
de probabilidades en todo instante condicionada a los tiempos anteriores y posteriores. Es
decir:

FX ( X (t1 ) , X ( t2 ) ,L X ( tn ) , t1 , t2 ,L ,t n ) = P ( X ( t1 ) xt1, X ( t 2 ) xt 2, L X ( tn ) xtn ) [1.32]

para todo tiempo t y todo n


Esto en la prctica es imposible obtener por lo que se definen las funciones de
distribucin de primer y segundo orden. La funcin de distribucin de primer orden
corresponde a la distribucin de la variable en un tiempo dado

FX ( X (t0 ) , t0 ) = P ( X ( t0 ) xt 0 ) [1.33]

Si se quieren relacionar dos tiempos se utiliza la distribucin de segundo orden

FX ( X (t1 ) , X ( t2 ) , t1 , t2 ) = P ( X ( t1 ) xt1, X ( t 2 ) xt 2 ) [1.34]

1.4.2. Esperanza de un Proceso Estocstico

Para un proceso aleatorio X (t ) se define la media de X (t ) como el valor esperado


de la variable aleatoria obtenida observando el proceso en algn tiempo t, o sea:
+
m X ( t ) = E x ( t ) = xf X (t ) ( x ) dx [1.35]

donde f X (t ) ( x ) es la funcin de densidad de probabilidad de primer orden del


proceso. Debe notarse que la media es una funcin determinstica.

1.4.3. Autocorrelacin

La funcin de autocorrelacin del proceso X (t ) se define como el valor esperado


del producto de las variables aleatorias X (t1 ) y X (t2 ) en los instantes t1 y t2
respectivamente, es decir:
+ +
RX (t 1, t2 ) = E X ( t1 ) X ( t2 ) = x1 x2 f X (t1 ) X (t2 ) ( x1 , x2 )dx1dx2 [1.36]

donde f X ( t1 )X (t 2 ) ( x1, x2 ) es la funcin de densidad de probabilidad de segundo


orden.

1.4.4. Autocovarianza

La funcin de autocovarianza del proceso estocstico X (t ) se define como:

C X ( t1 , t2 ) = E ( X (t1 ) mX (t1 ) )( X (t2 ) mX (t2 ) ) = R X ( t1 , t2 ) mX (t1 )mX (t2 ) [1.37]

11
1.4.5. Correlacin Cruzada

Para el caso ms general de tener dos procesos aleatorios X (t ) e Y (t ) con


funciones de auto correlacin RX ( t1, t2 ) y RY ( t1 , t2 ) respectivamente, se definen las dos
funciones de correlacin cruzada:

RXY (t1 , t2 ) = E X ( t1 ) Y ( t 2 )
[1.38]
RYX ( t1, t2 ) = E Y (t1 ) X (t 2 )

Las propiedades de correlacin de los dos procesos se pueden representar entonces


en forma matricial, definiendo la matriz de correlacin de los procesos aleatorios X (t ) e
Y (t ) como:

R (t , t ) R XY ( t1, t2 )
R ( t1, t2 ) = X 1 2 [1.39]
RYX ( t1 , t2 ) RY ( t1 , t2 )

1.4.6. Covarianza Cruzada


De igual modo, para dos procesos estocsticos se define la funcin de covarianza
cruzada como:

C XY ( t1, t2 ) = E ( X (t1 ) m X ( t1 ) )(Y (t2 ) mY ( t2 ) ) = R XY ( t1, t2 ) mX (t1 ) mY ( t2 ) [1.40]

Se dice que dos procesos son incorrelados si su covarianza cruzada es nula para
todo t o sea:

C XY ( t1, t2 ) = 0
[1.41]
RXY (t1 , t2 ) = mX (t1 ) mY ( t2 )

Se dice que dos procesos son ortogonales si su correlacin cruzada es nula para
todo t o sea:

RXY ( t1 , t2 ) = 0 [1.42]

1.4.7. Proceso Estacionario

Un proceso aleatorio X ( t ) se dice estrictamente estacionario si la distribucin


conjunta de cualquier conjunto de variables aleatorias obtenidas observando el proceso
aleatorio X ( t ) es invariante con respecto a la ubicacin del origen t = 0 . Si se denota
X ( t1 ) , X ( t2 ) , L X ( t k ) las variables aleatorias obtenidas observando el proceso X ( t ) en
los instantes t1 , t2 ,L tk , entonces el proceso es estacionario en sentido estricto si:

FX (t1 + ), X (t2 + ),LX (tk + ) (x1, x2 , L, xk ) = FX (t1 ), X (t2 ),L X (tk ) (x1 , x2 ,L, xk ) [1.43]

12
para todo intervalo de tiempo , todo k, y todas las posibles elecciones de los
tiempos t1 , t2 ,L tk , donde FX ( t1 ), X ( t2 ),LX (t k ) ( x1, x2 ,L , xk ) es la funcin de distribucin
conjunta de las variables aleatorias X ( t1 ) , X ( t2 ) , L X ( t k ) .

Se deduce que para un proceso estacionario, f X (t ) ( x ) es independiente de t y por lo


tanto:

mX ( t ) = mX t [1.44]

Para un proceso estacionario, la funcin de autocorrelacin depende slo de la


diferencia t1 - t2 , es decir:

R X (t1 , t2 ) = R X (t1 t2 ) t1 , t2 [1.45]

Un proceso aleatorio X (t ) cuya funcin de auto correlacin est dada por:

E [X (t ) X (t )] = R X ( ) = r ( ) [1.46]

con r 0 se denomina ruido blanco. Resulta fcil de verificar que el espectro de


densidad de potencia es constante para todas las frecuencias.
Un proceso aleatorio para el cual se verifican las dos condiciones anteriores se
denomina estacionario en sentido amplio. Un proceso aleatorio que es estrictamente
estacionario es estacionario en sentido amplio, pero lo opuesto no se verifica.

Si los procesos aleatorios X (t ) e Y (t ) son cada uno estacionarios y adems son


conjuntamente estacionarios, entonces la matriz de correlacin puede escribirse como:

R X ( ) R XY ( )
R ( ) = [1.47]
RYX ( ) RY ( )

donde = t1 t2

Una restriccin menor es definir un proceso estrictamente estacionario de orden n


donde la condicin [1.43] se cumple para todo k n . Por ejemplo un proceso estrictamente
estacionario de primer orden es

FX ( t1 + ) ( x1 ) = FX ( t1 ) ( x1 ) [1.48]

en este caso sigue valiendo la independencia de la media respecto del tiempo.


Uno de segundo orden ser

FX ( t1 + ), X (t2 + ) ( x1 , x2 ) = FX (t1 ), X (t2 ) ( x1 , x2 ) [1.49]

aqu las propiedades estadsticas no dependen del tiempo en s sino de la distancia


entre muestras temporales.

13
- Propiedades

RXY ( ) = RYX ( )
T

i. [1.50]
RX ( ) = R X ( )
T

ii. RX ( 0 ) 0 [1.51]

iii. RXY 2 ( ) RX ( 0 ) RY ( 0 ) [1.52]

iv. RX ( ) RX ( 0 ) [1.53]

v. Procesos peridicos de perodo Ten sentido medio cuadrtico cuando se cumple

E ( X (t) X (t + T ) ) = 0 t
2
[1.54]

vi. Si RX ( 0 ) = R X (T ) se verifica que el proceso es peridico ya que

E ( X (t) X (t + T ) ) = Rx (0) 2Rx (T ) + Rx (0) = 0


2

1.4.8. Vector de Proceso Aleatorio


En las secciones anteriores se trataron las variables aleatorias escalares. En esta
parte se generalizan las relaciones presentadas para el caso de vectores n-dimensionales
compuestos por procesos aleatorios escalares, de la forma:

x (t ) = [x1 (t ) x2 (t ) L xn (t )]
T
[1.55]

Consideraremos vectores de procesos aleatorios Gaussianos con valor esperado


nulo. La funcin de densidad de probabilidad para estos vectores estar dada por:

px = () 1 1
exp x E x ( [ ])
T
( [ ])
R 1 x E x
( )
[1.56]
2
n
2 det R

donde R es la matriz de covarianza de x definida por:

R=E xE x [( [ ]) (x E[x ]) ]
T
[1.57]

Esta matriz R es simtrica perteneciente a nn y para el caso en consideracin


resulta de la forma:

14
E [x (t ) ]2
0 L 0

[ ]
1

E x 2 (t ) L
2

R=
0 0
[1.58]
M 0 O M

0 0 L E [x (t ) ]
n
2

ya que no existe correlacin entre diferentes muestras. Por otra parte, R se puede
expresar en forma alternativa como:

R x1 (0 ) 0 L 0
0 R x 2 (0 ) L 0
R= [1.59]
M 0 O M

0 0 L R xn (0 )

o bien


x1 (t ) L
2
0 0
x2 (t )
2
L 0
R= 0 [1.60]
M 0 O M
2
0 0 L xn (t )

Esta ltima forma de expresar la matriz de covarianza R del vector de proceso


aleatorio Gaussiano x (t ) , muestra que la misma es una matriz diagonal en la cual la
diagonal principal est conformada por los valores cuadrticos medios (rms) de las
componentes del vector aleatorio x (t ) .

1.4.9. Secuencias Estocsticas

Una secuencia estocstica { xk ( )} es una variable aleatoria con un nmero finito k


de muestras en el tiempo para cada realizacin y que converger a la variable aleatoria
x ( ) cuando el nmero de muestras tienda a infinito. La convergencia de la secuencia a la
variable aleatoria se puede expresar de diferentes maneras:

i. { xk } converge a x con probabilidad 1 si lim


k
xk =x

ii. { xk } converge a x en probabilidad si lim P ( xk x ) = 0 y se representa como


k

p lim xk = x
k

iii. { xk } converge a x en sentido medio cuadrtico si

E xk k
2
-

15
lim E xk x = 0 y se expresa l.i.m. xk = x
2
-
k
La i implica la iii y la iii implica la ii. Se usa ms la iii .

- Propiedades de la convergencia SMC


Sean los siguientes elementos:

- { xk } { yk } {vk } tres secuencias aleatorias


- z una variable aleatoria

- {ck } una secuencia determinstica y


- a y b dos constantes

- l.i.m. xk = x , l.i.m. y k = y , l.i.m.vk = v , limck = c


k

se verifica,

i. l.i.m.ck = lim ck = c
k

ii. l.i.m. z = z

iii. l.i.m. zck = zc

iv. l.i.m. ( axk + byk ) = ax + by es lineal

v. E [ x ] = E [l.i.m. xk ] = E [ xk ] , el operador E y el lmite son conmutables

vi. E [ xy ] = lim E [x k y k ] y E x 2 = lim E xk 2

vii. si E [ x k yk ] = E [vk ] entonces E [ xy ] = E [v ]

1.4.10. Continuidad
La definicin de continuidad en una funcin determinstica es la siguiente:

lim x (t + ) = x (t )
0

Pero esta definicin es muy restrictiva para variables aleatorias. Se utiliza la


continuidad en sentido medio cuadrtico:

l.i.m. x (t + h ) = x(t ) [1.61]


h0

o su equivalente

16
lim E x(t + h ) x (t ) = 0
2
[1.62]
h 0
esto ltimo implica

lim [ R (t + h , t + h ) R(t + h, t) R (t , t + h ) + R (t ,t )] = 0 [1.63]


h 0

si R (t, ) es continua para (t ,t ) o sea = t decimos que el proceso es continuo

Un proceso estacionario es continuo si y slo si R(0) es continua

1.4.11. Diferenciacin
x (t) es derivable en sentido medio cuadrtico en t si existe el

x( t + h ) x ( t ) &
lim
h 0
h = x (t ) [1.64]

x ( t + h ) x( t ) &
lim E x ( t ) = 0 [1.65]
h 0
h

otra forma de expresarlo es decir que x (t) es derivable en sentido medio cuadrtico
2 R (t , )
en t si existe en (t,t).
t
Si para (t,t) significa que (t, )

2 R (t , ) 2C (t, )
existe en (t,t) sii m& (t ) y en (t,t)
t t

2 R (t )
sii en t=0
t 2

- Propiedades

dE [x (t ) ]
i. mx& (t ) = E [x& (t )] = = m& x (t )
dt
R (t, )
ii. Rxx& (t, ) = E [ x& ( t )x ( )] E [x (t )x ( )] = x
t t

d 2 Rx (t , )
iii. Rxx&& (t, ) = E [ x& ( t )x& ( )] E [x (t )x ( )] =
t d t

m +n Rx (t , )
iv. Rx ( m x( n (t , ) =
t m n
Para procesos estacionarios

17
Rx (t )
i. Rxx& (t ) =
t
Rx ( t)
ii. Rxx& (t ) =
t

2 R x (t , )
iii. Rxx&& (t ) =
t 2

m + n R x (t )
Rx ( m x( n (t , ) = ( 1)
m
iv.
t m + n

1.4.12. Integracin

se toma un intervalo de tiempo [a , b] y se lo particiona en n subintervalos tales que

a = t0 < t1 L < tn = b

sea = max(ti +1 ti )
i

sea ti' T / ti ti' t i +1

Se dice que x es integrable en sentido medio cuadrtico en [a , b] si lo siguiente

n1 b
l.i.m. x(ti' ) ( ti +1 ti ) = S = x (t )dt [1.66]
0
i=0 a

Teorema:

El proceso x es integrable sii Rx (t , ) es integrable en [a , b ] [ a, b ]

Teorema:

Rx (t , ) es integrable sii mx (t ) es integrable en [a , b] y C x (t, ) es integrable en


[a , b ] [ a, b ]
Teorema:

El proceso x es integrable si mx (t ) es continua t [ a, b ]

Los operadores esperanza e integral son conmutables,

b b
E x( t )dt = mx (t )dt [1.67]
a a
y

18
b d
b d

E x( t )dt x ( )d = R (t, )dtd


x [1.68]
a c a c

1.5. Procesos Especiales

1.5.1. Proceso Estocstico Discreto


Son procesos en donde la aleatoriedad interviene en algunos instantes de tiempo
1.5 1

0.9
1
0.8

0.7
0.5
0.6

0 0.5

0.4
-0.5
0.3

0.2
-1
0.1

-1.5 0
0 5 10 15 20 0 5 10 15 20

1.5.2. Procesos Independientes


Se debe cumplir que para todo instante de tiempo,
n
P [ X (t1 ) x1, X (t 2 ) x 2 L X (tn ) xn ] = Pi [ X (ti ) xi ] [1.69]
i =1

se podra expresar en funcin de la densidad o distribucin.


Si se trata de dos procesos X e Y se dice que son independientes si

P [ X (t1 ) x1 ,L, X (tn ) xn , Y ( t1 ) y1 ,L , Y ( tn ) yn ] =


[1.70]
= P [ X (t1 ) x1 ,L, X (tn ) xn ] P [Y (t1 ) y1 ,L ,Y ( tn ) yn ]

1.5.3. Procesos Incorrelados


Un proceso es incorrelado consigo mismo cuando

RX (t, ) = E [ X (t )] E [ X (t )] t,
T
[1.71]

Un proceso independiente es incorrelado. No siempre ocurre al revs.


Dos procesos son incorrelados si

RXY (t, ) = E [ X (t) ] E [ Y (t )] t ,


T
[1.72]

1.5.4. Proceso Blanco


Si un proceso tiene una distribucin Gaussiana, es estacionario e independiente se
denomina proceso blanco

19
xk es totalmente independiente de xj k j
x(k,) = secuencia de elementos independientes
covarianza

2 =0
r( ) =
0 0 [1.73]
( ) =
2

2
La mayora de los procesos estacionarios pueden generarse a partir del filtrado del
ruido blanco. Es como el impulso de los sistemas deterministas.

1.5.5. Procesos Estocsticos Ergdicos


Para un proceso estocstico es posible calcular la media temporal de cada
realizacin como sigue:
1
m X (T ) = x ( t ) dt
T

2T
T
[1.74]

Esta media es obviamente una variable aleatoria que depende del intervalo de
observacin T t T .
Si se calcula la correlacin promediada temporalmente, para cada realizacin,
T
1
R ( ) = lim
T 2T x (t + ) x (t )dt
T
[1.75]

que constituye un proceso estocstico.


Sera de mucha utilidad que la media temporal coincida con la media del proceso
estudiado as como su correlacin. De este modo bastara con conocer una sola realizacin
para conocer todo el proceso.
Un proceso aleatorio se dice ergdico si se verifican las siguientes condiciones:

i. lm mX (T ) = mX
T

ii. lim var m X (T ) = 0


T

iii. lm R X ( , T ) = R X ( )
T

iv. lm var RX ( , T ) = 0
T

20
En este caso se puede substituir el clculo de la esperanza por la integral
T
1
lim
T 2T x (t)dt
T

1.5.6. Proceso de Wiener


Se dice que un proceso x es un proceso de Wiener si el proceso z = x (t ) x ( ) es en
realidad una variable aleatoria independiente. Adems se debe cumplir que

i. E[ x( t )] = 0

ii. x (0) = 0
iii. la varianza de z es proporcional a la diferencia de triempos:
R( z ) = R ( x(t ) x( )) = 2 (t )

1.5.7. Proceso de Markov


Un proceso estocstico se dice de Markov de primer orden si la probabilidad
condicionada de un elemento solo depende de su valor anterior es decir

p[ xk | xk 1 , xk 2 ........] = p[ xk | xk 1 ] [1.76]

o sea

xk +1 = axk + fvk [1.77]

el valor futuro de x solo depende de su valor actual y de v.


Si v es ruido blanco genera una proceso de Markov.
Si x depende de valores anteriores se puede hacer lo siguiente

x1k +1 0 1 x1 k 0
x = a a x + f vk [1.78]
2 k +1 1 2 2k
lo que matricialmente resulta

xk +1 = Axk + Fvk [1.79]

21
vk xk-1 xk
F Iz-1
+
+

vk
F

nk
uk xk-1 xk
B Iz -1 C
+ +
+ yk

1.6. Modelos Estocsticos


En un proceso determinstico se deben dar las condiciones iniciales. En lo sucesivo
se utilizarn sistemas diferenciables en el sentido medio cuadrtico en los cuales se cumple

dx (t ) dE [x (t ) ]
m x& (t ) = E = = m& x (t ) [1.80]
dt dt

1.6.1. Modelos Continuos en Ecuaciones Diferenciales


El modelo de la planta se expresar igual que en control clsico pero tendr una
entrada y una salida estocstica. A fin de simplificar se toma el siguiente ejemplo:

an y n ) (t ) + L + a0 y (t ) = x (t ) [1.81]

con condiciones iniciales,


x (t < 0) = 0
[1.82]
y (0) = y& (0) = L = y n 1) (0) = 0

Para obtener la esperanza en un tiempo dado se hace,

22
E a n y n ) (t ) + L + a0 y ( t) = E [x (t )] =
= a n E y n ) ( t ) + L + a 0 E [ y (t )] = [1.83]
d n E [y ( t ) ]
= an + L + a 0 E [ y ( t ) ] = E [x ( t ) ]
dt n
o lo que es lo mismo haciendo my (t ) = E [y (t )] y mx (t ) = E [x (t )]

an m y (t ) + L + a0m y (t ) = mx ( t)
n)
[1.84]

es como trabajar con variables determinsticas.


Se puede obtener las siguientes relaciones para la correlacin y autocorrelacin:

d n RXY (t1, t2 )
an + L + a0 RXY (t1, t2 ) = R X (t1 ,t2 )
dt2 n
[1.85]
d i RXY (t1 ,0)
=0
dt2 i

d n RYY ( t1 ,t2 )
an + L + a 0 RYY (t1 ,t2 ) = RXY (t1, t2 )
dt1n
[1.86]
d i RYY (0, t2 )
=0
dt1i

Es simple ver esto ya que si se multiplica ambos miembros por x (t1 ) ,

x (t1 ) a n y n ) (t2 ) + L + a 0 y ( t2 ) = x (t1 ) x (t2 ) [1.87]

tomando esperanza,

an E x( t1 ) y n ) (t2 ) + L + a0 E [x (t1 ) y (t2 ) ] = E [x (t1 ) x (t2 )] [1.88]

se puede intercambiar la esperanza con la derivada,

n E [x (t1 ) y (t2 )]
an + L + a0 E [x (t1 ) y (t2 )] = E [x ( t1 ) x (t2 )] [1.89]
t2
n

y reemplazando la esperanza del producto por la correlacin, se llega a la ec[1.85]


De forma similar se puede deducir la ec[1.86]

y (t2 ) an y n ) (t1 ) + L + a0 y (t1 ) = y (t2 ) x( t1 ) [1.90]

23
1.6.2. Modelo de Procesos Discretos
Se utilizan ecuaciones en diferencias,

an y k n + L + a0 yk = xk [1.91]

en donde se utiliza mk n = E [ yk n ]

El tratamiento de estos modelos es igual a los anteriores excepto la utilizacin de


ecuaciones en diferencias.

1.6.3. Modelos Discretos en Variables de Estado


En el caso determinstico se representa al vector de estados como

xk +1 = g ( x k , k ) [1.92]

xk +1 = g ( xk , k ) + ( xk , k ) [1.93]

en adelante se exigirn las siguientes condiciones


i. que sea un proceso de Markov y por lo tanto x tambin lo ser.
ii. que tenga una distribucin normal es decir que se pueda expresar como
( xk , k ) = ( x k , k) ek donde e es un proceso normal, independiente, de media
nula, varianza unitaria y es la matriz de correlacin.

iii. que g sea lineal en x o sea que se pueda expresar g ( xk , k ) = k +1,k xk

iv. que sea independiente de x es decir ( xk , k ) = k

Contemplando estas condiciones se puede reescribir la ecuacin de estados como:

xk +1 = k +1,k xk + k ek [1.94]

con la condicin inicial

Rxx (0) = Rxx 0 [1.95]

- Resolucin

Se sabe que ( xk , k ) y ( x j , j) son independientes para todo k y j. El ruido que


afecta a cada variable de estado es independiente en cada instante y a su vez independiente
de los estados y se cumple que su media es

0
E [ k ] = M [1.96]

0

24
y su autocovarianza

r11k L r1nk
E k kT = M O M = Rk [1.97]

rn1k L rnnk
Cmo se calcula la media del estado?

E [ xk +1 ] = mxk +1 = k +1, k m xk + 0
[1.98]
mk =0 = m0

Para calcular la autocovarianza, por simplicidad, se supone que m = 0 . Esto se


puede hacer definiendo otra variable z que cumpla zk = x k m k . Por comodidad
utilizaremos x en lugar de z.

x j = j , k xk + j ,k +1 k + L + j , j 1 j 2 + j 1 [1.99]

j ,k = j , j 1 j 1, j 2 L k +1,k [1.100]

E x j xk = j ,k Pk
T
[1.101]

como el vector de estados y el ruido son independientes se cumple que E [ ] = 0


por lo que P es directamente la covarianza de xk . Pero se ha obtenido la funcin de
autocorrelacin en funcin de la covarianza que no se conoce.
T
xk +1 xkT+1 = k +1,k xk + k k +1, k xk + k [1.102]

tomando esperanza,

E xk +1 xkT+1 = k+ 1,k Pk kT+1, k + Rxk 1 = Pk +1


[1.103]
Rx 01 = Pk 0

as se calcula la evolucin de la covarianza P.

Un caso particular es cuando k +1,k = = cte en donde la covarianza resulta


k 1
Pk = Rx 01 T + j Rxk 1 ( T )
j
[1.104]
j =0

sumatoria que converger si tiene valores propios menores a 1.

25
1.6.4. Modelo Continuo en Variables de Estado

- Modelo Errneo
Si se define el modelo de la forma

dx( t )
= f ( x, t ) + ( x, t) [1.105]
dt
con cumpliendo las siguientes condiciones,

i. ( x, t ) es independiente de ( x , s ) , t s

ii. ( x, t ) tiene varianza finita

iii. ( x, t ) es continuo de segundo orden en el sentido medio cuadrtico

iv. ( x, t ) tiene media nula

En este contexto se verifica que la varianza

E ( x, t ) T ( x, t ) = 0 [1.106]

Una seal que no tiene ni varianza ni media es idnticamente nula por lo tanto el
modelo no es adecuado.

- Reformulacin del Modelo en Ecuaciones Diferenciales

dx (t )
La ecuacin = f ( x, t) se puede plantear como
dt
x (t + h ) x (t ) = f ( x, t )h + O( t) [1.107]

con h 0
Introduciendo el ruido,

x (t + h ) x( t ) = f ( x, t )h + ( t + h ) ( t ) + O(t ) [1.108]

suponiendo que es un proceso de Wiener,

( t + h ) ( t ) = ( x, t ) (W ( t + h ) W (t ) ) [1.109]

tomando esperanza

E [x (t + h ) x (t )] = f ( x, t)h + O (h ) [1.110]

ya que E [W ] = 0

y la covarianza es

26
Var [ x ( t + h ) x (t )] = (2x, t ) E (W (t + h) W ( t) ) + O 2 (h )
2

[1.111]
= ( x, t ) h + O (h )
2 2

no se podemos llevarlo al lmite de h ya que (t + ) ( t) . Se debe dejar en


forma diferencial. Esto es una ecuacin diferencial estocstica:

dx (t ) = f ( x, t) dt + ( x, t ) dW [1.112]

su versin lineal es

dx (t ) = A( t) x( t )dt + ( x, t) dW [1.113]

en esta ecuacin se cumple que E dW 2 = dt

Hay que tener en cuenta que el signo de h puede llevar a resultados diferentes.

- Modelo en Ecuaciones Integrales


t t
x (t ) = x (t0 ) + f ( x( s ), s )ds + ( x( s ), s )dW ( s) [1.114]
t0 t0

- Proceso Estocstico ARMA.


MA
y k = e k + b 1 e k-1 + L + b n e k-n [1.115]

AR

y k + a 1 y k-1 + L + a n y k-n = e k [1.116]

ARMA

y k + a1 y k-1 + L + an y k-n = ek + b1ek 1 + L + bnek n [1.117]

Agregar
Secuencias Pseudoaleatorias (PRBS)
( )
x ( ) = rx [1.118]
r x (0)
se cumple que

r x ( ) r x (0) [1.119]

27
puede ser negativa
si es 1 son valores fuertemente relacionados

= 0 son elementos no relacionados


< 0 relacionados negativamente
Ruido Blanco
Proceso estacionario

xk es totalmente independiente de xj k j

x(k,) = secuencia de elementos independientes

covarianza

2 =0
r( ) =
0 0 [1.120]
( ) =
2

2
La mayora de los procesos estacionarios pueden generarse a partir del filtrado del
ruido blanco. Es como el impulso de los sistemas deterministas.

expresado en funcin de la respuesta impulsional

(u no es ruido blanco)
k
yk =
n= -
g k -n un = g n uk -n
n= 0
[1.121]

28

m y k = Ey k = E g n uk -n = g n mu k -n [1.122]
n =0 n= 0

es como tener un sistema determinista excitado por mu



y k - m y k = g n u k-n - m u k-n [1.123]
n=0

para calcular la covarianza podemos simplificar el clculo haciendo mu = 0 o sea


my = 0

r y( ) = E y k+ y k


= E g n u k+ -n g u l k-l
n=0 l= 0
[1.124]
= g n g l E [ u k+ -n u k-l ]
n=0 l= 0

= g n g l r u +l-n
n=0 l= 0


ryu ( ) = E y k+ u k = g n r u -n [1.125]
n=0


1
y( ) = yy( ) =
2
e
n=-
-jn
r y(n) =

1
=
2 e g
n= -
-jn

k=0 l= 0
k g l r u n+l-k =

[1.126]
1
=
2
e
k=0 n=- l= 0
-jk
gk e -jl
gl e -j(n+l-k)
r un+l-k =

1
=
2
e
k=0
-jk
gk e
l= 0
-jl
gl e
n=-
-j(n+l-k)
run

la respuesta impulsional es

G(z)= g n z -n
n=0

z=e jT
T=1 [1.127]

y( ) = G ( e ) G ( e ) u( )
j -j

igualmente

29

1 1
yu( ) =
2
e
n=-
-jn
r yu n =
2
e g
n=-
-jn

k= 0
k r u n-k

1
=
2e e
k= 0
-jk

n=-
-j(n-k)
r u n-k [1.128]

= G (e ) ( )
-jk
u

Secuencias Pseudoaleatorias (PRBS)

x y s

0 0 0
0 1 1
1 0 1

1 1 0

0 1 0 0 0

0 1 0 0

0 0 1 0
1 0 0 1
1 1 0 0

m=4
N = 2 m-1 = 8

1.7. Referencias
[1] Haykin, Simon (1994). Communication Systems, John Wiley & Sons, Inc., New York.
Astrom
Papoulis
Kwakernaak
Athans

30

Вам также может понравиться