Вы находитесь на странице: 1из 30

1

1. Sistemas Estocsticos
1. Sistemas Estocsticos _____________________________________________ 1
1.1. Introduccin ________________________________________________________ 2
1.2. Perturbaciones ______________________________________________________ 2
1.3. Conceptos de Probabilidad ____________________________________________ 3
1.3.1. Variable aleatoria ___________________________________________________ 5
1.3.2. Funcin de Distribucin. ______________________________________________ 5
1.3.3. Funcin Densidad. __________________________________________________ 6
1.3.4. Probabilidad Condicional _____________________________________________ 7
1.3.5. Esperanza. ________________________________________________________ 7
1.3.6. Momentos ________________________________________________________ 8
1.3.7. Varianza__________________________________________________________ 8
1.3.8. Tipos de Distribucin ________________________________________________ 9
1.3.9. Correlacin________________________________________________________ 9
1.3.10. Covarianza _______________________________________________________ 9
1.4. Proceso Aleatorio ___________________________________________________ 10
1.4.1. Funciones de Distribucin____________________________________________ 11
1.4.2. Esperanza de un Proceso Estocstico ____________________________________ 11
1.4.3. Autocorrelacin ___________________________________________________ 11
1.4.4. Autocovarianza____________________________________________________ 11
1.4.5. Correlacin Cruzada ________________________________________________ 12
1.4.6. Covarianza Cruzada ________________________________________________ 12
1.4.7. Proceso Estacionario________________________________________________ 12
1.4.8. Vector de Proceso Aleatorio __________________________________________ 14
1.4.9. Secuencias Estocsticas______________________________________________ 15
1.4.10. Continuidad _____________________________________________________ 16
1.4.11. Diferenciacin ___________________________________________________ 17
1.4.12. Integracin______________________________________________________ 18
1.5. Procesos Especiales__________________________________________________ 19
1.5.1. Proceso Estocstico Discreto __________________________________________ 19
1.5.2. Procesos Independientes _____________________________________________ 19
1.5.3. Procesos Incorrelados _______________________________________________ 19
1.5.4. Proceso Blanco____________________________________________________ 19
1.5.5. Procesos Estocsticos Ergdicos _______________________________________ 20
1.5.6. Proceso de Wiener _________________________________________________ 21
1.5.7. Proceso de Markov_________________________________________________ 21
1.6. Modelos Estocsticos ________________________________________________ 22
1.6.1. Modelos Continuos en Ecuaciones Diferenciales ___________________________ 22
1.6.2. Procesos Discretos _________________________________________________ 24
1.6.3. Modelos Discretos en Variables de Estado ________________________________ 24
1.6.4. Modelo Continuo en Variables de Estado_________________________________ 26
1.7. Referencias_________________________________________________________ 30
2
1.1. Introduccin
Los sistemas estadsticos estn relacionados, en control con la imposibilidad de
modelizar alguna parte del proceso a estudiar.
Citar ejemplos industriales.
Sensor de nivel
1.2. Perturbaciones
Un caso tpico de modelizacin son las perturbaciones que puede tener una planta,
ya sea por una imprecisin en la medicin, la aparicin de una carga o variacin propia de
la planta.
- Perturbacin de carga: carga mecnica de un motor, olas en un barco, etc. Son
generalmente lentas o de bajas frecuencias.
- Error de medicin: puede ser un error esttico de calibracin o con componentes
de alta frecuencia muy importantes. Una solucin habitual es filtrar esta seal
con el consiguiente retardo de la misma.
- Variacin de Parmetros: debidas a una variacin del punto de trabajo o a
derivas del propio sistema.
El ltimo tipo de perturbacin se estudia como un cambio en el modelo de la planta
en cambio los dos primeros se pueden modelizar como una dinmica adicional al sistema
original.
0 5 10 15 20 25 30
-0.5
0
0.5
1
1.5
0 5 10 15 20 25 30
-0.5
0
0.5
1
1.5
0 5 10 15 20 25 30
0
5
10
15
20
25
0 20 40 60 80 100
-1.5
- 1
-0.5
0
0.5
1
1.5
Figura 1-1. Cuatro tipos diferentes de perturbaciones: de corta duracin, carga
constante, deriva y peridica
Estas perturbaciones se podran pensar como la respuesta impulsional de un sistema
G
n
3
Figura 1-2. Diagrama de bloques de una perturbacin y su efecto sobre la planta
Las perturbaciones que sern materia de estudio en este trabajo no se podrn
representar
0 5 10 15 20 25 30
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
0 5 10 15 20 25 30
-1.5
-1
-0.5
0
0.5
1
1.5
Figura 1-3. Perturbaciones de tipo estadstico
1.3. Conceptos de Probabilidad
La Teora de Probabilidad trata fenmenos que pueden ser modelados por
experimentos cuyos resultados estn gobernados por el azar (se denominan experimentos
aleatorios). Estos experimentos aleatorios estn caracterizados por
Los experimentos son repetibles bajo idnticas condiciones
El resultado de un experimento es impredecible
Si el experimento se realiza un gran nmero de veces, el resultado exhibe un
cierta regularidad estadstica (se observa un comportamiento promedio).
Se define un conjunto S que engloba todos los sucesos posibles de una variable. Es
decir, el conjunto total corresponde al suceso cierto y el conjunto vaco es el suceso
imposible. Se definen sobre este conjunto de operaciones, a saber:
A B + significa que ocurre el suceso A o el suceso B
A B significa que ocurre el suceso A y el suceso B
4
Si 0 A B implica que los sucesos A y B son excluyentes, que no pueden ocurrir
simultneamente.
A B significa que si ocurre el suceso A , ocurre B
A es el complemento de A. Si ocurre A no puede ocurrir su complemento.
Denominamos evento o suceso a uno de los posibles resultados de un experimento
aleatorio. Cada suceso ocurrir con una probabilidad determinada y la probabilidad de que
ocurra alguno de los suceso es total. Por comodidad se asigna el valor 1 a la certeza total, es
decir que la probabilidad de que ocurra cualquier suceso individualmente ser menor que la
unidad y tambin no negativa.
Otra forma de verse es la siguiente: Sea A un evento y se supone que en n
realizaciones del experimento, el evento A ocurre ( ) A N
n
veces. La frecuencia relativa
asociada al evento A es el cociente
( )
n
A N
n
[1.1]
que verifica
( )
1 0
n
A N
n
Si el evento A no ocurre nunca, entonces ( ) 0 n A N
n
, en tanto que si ocurre las
n veces que se realiza el experimento ( ) 1 n A N
n
.
A medida que aumenta n, la frecuencia relativa converge a un valor y este se
definirse como probabilidad de ocurrencia del evento A:
( )
( )
n
lim
n
N A
P A
n


,
[1.2]
Puede pensarse que un experimento aleatorio y sus resultados definen un espacio
con sus puntos. Este espacio se denomina espacio muestral (el conjunto de todos los
posibles resultados del experimento) y sus puntos se denominan muestras. Denotaremos al
espacio muestral con S. El espacio muestral completo S se denomina evento seguro, en
tanto que el conjunto vaco se denomina evento nulo o imposible.
Se puede ahora definir axiomticamente la probabilidad diciendo que un sistema de
probabilidad consiste de la tripla:
i. Un espacio muestral S de eventos elementales (resultados de experimento)
ii. Una clase

de eventos que son un subconjunto de S.


iii. Una medida de probabilidad ( ) P asignada a cada evento A en la clase

, que tiene
las siguientes propiedades
5
(i) ( ) 1 S P
(ii) ( ) 1 0 A P
(iii) Si B A+ es la unin de dos eventos mutuamente excluyentes en la clase

, entonces
( ) ( ) ( ) B P A P B A P + +
(iv) Si 0 ( ) ( ) ( ) A B P A B P A P B + +
(v) Si A y B no son mutuamente excluyentes entonces
( ) ( ) ( ) ( ) P A B P A P B P A B + +
(vi) Si
1
,
n
A A L son excluyentes
1 1
( ) ( ) ( )
n n
P A A P A P A + + + + L L
(vii) ( ) 1 ( ) P A P A
(viii) La Probabilidad del suceso imposible es 0.
1.3.1. Variable aleatoria
En la teora de probabilidad, una variable aleatoria escalar X es considerada como el
resultado de un experimento en un espacio muestral que representa la coleccin de las
posibles salidas. Cuando la variable aleatoria X puede asumir slo un nmero finito de
valores en cualquier intervalo finito de observacin, se dice que X es una variable aleatoria
discreta. Si en cambio, la variable aleatoria X puede tomar cualquier valor en el intervalo de
observacin, se dice que la misma es una variable aleatoria continua.
Para describir las propiedades de las variables aleatorias se necesita dar una
descripcin probabilstica de las mismas.
Para una variable aleatoria X se puede definir su probabilidad en funcin de un valor
x, es decir la probabilidad del evento X x . Esta probabilidad se denota:
( )
P X x [1.3]
1.3.2. Funcin de Distribucin.
Es claro que esta probabilidad es funcin de la variable muda x. Se define entonces
a sta como la funcin de densidad de probabilidad acumulada ( ) x F
X
:
( ) ( ) x X P x F
X
[1.4]
o simplemente funcin de distribucin de la variable aleatoria X.
Esta funcin es no decreciente
)
X
X
(- = 0
F
( ) = 1
F

[1.5]
6
0 20 40 60 80 100
0
0.2
0.4
0.6
0.8
1
De igual modo se define la funcin de distribucin conjunta de dos variables
aleatorias como:
( ) ( ) y Y x X P y x F
Y X
, ,
,
[1.6]
1.3.3. Funcin Densidad.
Una descripcin alternativa de la probabilidad de una variable aleatoria X se logra
usando la derivada de ( ) x F
X
para obtener la funcin de densidad de probabilidad de la
variable aleatoria X.
( )
( )
X
X
dF x
f x
dx
[1.7]
0 20 40 60 80 100
0
0.2
0.4
0.6
0.8
1
El nombre densidad de probabilidad se debe a que la probabilidad de que
2 1
x X x se obtiene como:
( ) ( )
2
1
1 2
x
X
x
P x X x f x dx

[1.8]
Es decir que la probabilidad de que [ ]
2 1
, x x X es igual al rea bajo la curva de
densidad de probabilidad en ese intervalo.
Es fcil de ver que para X asumiendo valores en el intervalo (a,b) la funcin de
distribucin est dada por:
( ) ( )
x
X X
a
F x f d

[1.9]
y haciendo el extremo inferior resulta
( )
x
X X
-
F x (x)dx f

[1.10]
7
Como la probabilidad del evento cierto b X < es ( ) 1 b F
X
y la probabilidad del
evento imposible a X < es ( ) 0 a F
X
, se concluye que
( ) 1
b
X
a
f x dx

[1.11]
donde podra resultar que a y + b .
Tambin se define la funcin de densidad de probabilidad conjunta de las variables
aleatorias X e Y del siguiente modo:
( )
( )
2
,
,
,
,
X Y
X Y
F x y
f x y
x y


[1.12]
1.3.4. Probabilidad Condicional
Consideremos un experimento que involucra un par de eventos A y B. Denotamos
con ( ) A B P | a la probabilidad del evento B dado que el evento A ocurri. La probabilidad
( ) A B P | se denomina probabilidad condicional de B dado A. Asumiendo que A tiene
probabilidad no nula, la probabilidad condicional resulta
( )
( )
( )
|
P AB
P B A
P A
[1.13]
donde
( )
P AB es la probabilidad conjunta de A y B.
Es fcil ver que
( ) ( ) ( )
| P AB P B A P A [1.14]
( ) ( ) ( )
| P AB P A B P B [1.15]
Teorema de Bayes
( )
( ) ( )
( )
|
|
P A B P B
P B A
P A
[1.16]
Si se verifica que
( ) ( )
| P A B P A , entonces
( ) ( ) ( )
P AB P A P B , y se dice que
los eventos A y B son estadsticamente independientes.
1.3.5. Esperanza.
Para analizar el comportamiento promedio de los resultados de un experimento
aleatorio se define la media o valor esperado de la variable aleatoria X como:
)
k
m( = d ) ,
k
( f = )
k
, x ( E
1 1
x
-
1

[1.17]
8
la esperanza es una funcin de k pero ya es una variable determinstica.
es lineal
) E ( = ) ( E
[1.18]
1.3.6. Momentos
Se define tambin el momento de orden n de la funcin de distribucin de
probabilidad de la variable aleatoria X , como:
( )
b
n n
X
a
E X x f x dx 1
]
[1.19]
El momento de primer orden (n=1) es el valor medio o valor esperado de la variable
aleatoria X. El momento de segundo orden (n=2) es el valor medio cuadrtico de X.
De forma similar, se definen los momentos centrados de orden n que no son ms
que los momentos de la diferencia entre la variable aleatoria X y su valor medio
X
m , es
decir:
( ) ( ) ( )
b
n n
X X X
a
E X m x m f x dx
1

]

[1.20]
Cuando se considera un par de variables aleatorias X e Y , un conjunto de
parmetros estadsticos importantes en este caso son los momentos conjuntos definidos
como:
( )
,
,
b b
i k i k
X Y
a a
E X Y x y f x y dx dy 1
]
[1.21]
donde
( )
,
,
X Y
f x y es la funcin de densidad de probabilidad conjunta de las
variables aleatorias X e Y.
1.3.7. Varianza
Para n=1 el momento central resulta nulo, en tanto que para n=2 resulta el momento
central de 2do orden y se denomina varianza de la variable aleatoria X, y se denota:
[ ] ( ) ( ) ( )
2 2
2
var
b
X X X X
a
X E X m x m f x dx
1

]

[1.22]
Las raz cuadrada de la varianza, o sea
X
, se denomina desviacin estndar de la
variable aleatoria X.
La varianza de una variable aleatoria es en cierta forma una medida del grado de
aleatoriedad de la variable, ya que da una indicacin de cunto se desva la variable con
respecto a su valor medio. Ms precisamente, se verifica la siguiente desigualdad de
Chebyshev:
9
( )
2
2
X
X
P X m

[1.23]
para cualquier nmero positivo .
1.3.8. Tipos de Distribucin
Una variable aleatoria (escalar) se dice que tiene una distribucin Gaussiana o
Normal si su funcin de densidad de probabilidad est dada por:
( )
( )
2
2
1
exp
2 2
X
X
X X
x m
p x



' ;


[1.24]
Es fcil de probar que los momentos de orden n, con 3 n , quedan unvocamente
determinados por los momentos de primer y segundo orden, o sea el valor medio
X
m y la
varianza
2
X
.
Cuando una variable aleatoria tiene distribucin Gaussiana, se denota:
( )
2
,
X X
N X
Las variables Gaussianas juegan una papel muy importante ya que se encuentran
frecuentemente cuando se hacen anlisis estadsticos de numerosos sistemas fsicos.
1.3.9. Correlacin
Un momento conjunto de gran importancia es la correlacin definida por [ ] Y X E
que corresponde a 1 k i en [1.21].
[ ] ( )
,
,
b b
X Y
a a
E XY xyf x y dxdy

[1.25]
Se dice que las variables son ortogonales si y slo si su correlacin es cero, i.e.
[ ] 0 E XY [1.26]
1.3.10. Covarianza
Las correlaciones entre las variables centradas [ ] [ ] X E X E e [ ] [ ] Y E Y E se
denomina covarianza de X e Y, y se denota:
( ) ( )
( ) ( )
XY Xj Yk
j k j k
Xj Yk
(j,k)=cov X Y = E X - Y -
m m r
= x - y - f(X,Y,j,k) dx,dy
m m
1 1
]
]

[1.27]
llamando [ ]
X
m E X y [ ]
Y
m E Y resulta:
XY
j k j k Xj Yk
(j,k)=cov X Y = E X Y m m
r
1 1
] ]
[1.28]
10
Se dice que dos variables aleatorias X e Y estn no correlacionadas si y slo si su
covarianza es cero, es decir
0
XY
(j,k)=
r
[1.29]
Se define de igual manera la Autocorrelacin para una nica variable.
( )
( )
2
2
2
Xj
X j j
Xj
r (j,k)= cov X =E X -
m
= x - f(X,j,k) dx
m
1
1
]
]

[1.30]
y si X fuese un vector
( ) ( )
x j Xj k Xk
11
12 22
13 23 33
r (j,k)=E X m X m
r
r r
=
r r r
1

]
1
1
1
1
1
]
L L L
L L
L
L L L L
[1.31]
1.4. Proceso Aleatorio
Se consideran ahora seales que son funcin del tiempo y que son aleatorias en el
sentido que antes de llevar a cabo un experimento no es posible describir exactamente la
forma de onda que presentarn las seales observadas. En este caso, cada elemento del
espacio muestral es una funcin del tiempo
( )
j
x t . El conjunto de funciones del tiempo
(espacio muestral) se denomina proceso aleatorio o proceso estocstico que se denotar
( )
X t .
0 5 10 15 20 25 30
0
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
1.8
2
Figura 1-4. Diferentes realizaciones de un proceso estocstico
Para cada instante de tiempo se tiene una variable aleatoria. Se asume entonces la
existencia una distribucin de probabilidad definida sobre una apropiada clase de conjuntos
del espacio muestral.
11
1.4.1. Funciones de Distribucin
Para conocer un proceso estocstico se necesitara saber la funcin de distribucin
de probabilidades en todo instante condicionada a los tiempos anteriores y posteriores. Es
decir:
( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )
1 2 1 2 1 1 2 2
, , , , , , , ,
X n n t t n tn
F X t X t X t t t t P X t x X t x X t x L L L [1.32]
para todo tiempo t y todo n
Esto en la prctica es imposible obtener por lo que se definen las funciones de
distribucin de primer y segundo orden. La funcin de distribucin de primer orden
corresponde a la distribucin de la variable en un tiempo dado
( ) ( ) ( ) ( )
0 0 0 0
,
X t
F X t t P X t x [1.33]
Si se quieren relacionar dos tiempos se utiliza la distribucin de segundo orden
( ) ( ) ( ) ( ) ( ) ( )
1 2 1 2 1 1 2 2
, , , ,
X t t
F X t X t t t P X t x X t x [1.34]
1.4.2. Esperanza de un Proceso Estocstico
Para un proceso aleatorio ( ) t X se define la media de ( ) t X como el valor esperado
de la variable aleatoria obtenida observando el proceso en algn tiempo t, o sea:
( ) ( )
( )
( )
X X t
m t E x t xf x dx
+

1
]
[1.35]
donde
( )
( )
X t
f x es la funcin de densidad de probabilidad de primer orden del
proceso. Debe notarse que la media es una funcin determinstica.
1.4.3. Autocorrelacin
La funcin de autocorrelacin del proceso ( ) t X se define como el valor esperado
del producto de las variables aleatorias ( )
1
t X y ( )
2
t X en los instantes
1
t y
2
t
respectivamente, es decir:
( ) ( ) ( )
( ) ( )
( )
1 2
1 2 1 2 1 2 1 2 1 2
, ,
X X t X t
R t t E X t X t x x f x x dx dx
+ +

1
]
[1.36]
donde
( ) ( )
( )
1 2
1 2
,
X t X t
f x x es la funcin de densidad de probabilidad de segundo
orden.
1.4.4. Autocovarianza
La funcin de autocovarianza del proceso estocstico ( ) t X se define como:
( ) ( ) ( ) ( )
1 2 1 1 2 2 1 2 1 2
, ( ) ( ) ( ) ( ) , ( ) ( )
X X X X X X
C t t E X t m t X t m t R t t m t m t 1
]
[1.37]
12
1.4.5. Correlacin Cruzada
Para el caso ms general de tener dos procesos aleatorios ( ) t X e ( ) t Y con
funciones de auto correlacin
( )
1 2
,
X
R t t y
( )
1 2
,
Y
R t t respectivamente, se definen las dos
funciones de correlacin cruzada:
( ) ( ) ( )
( ) ( ) ( )
1 2 1 2
1 2 1 2
,
,
XY
YX
R t t E X t Y t
R t t E Y t X t
1
]
1
]
[1.38]
Las propiedades de correlacin de los dos procesos se pueden representar entonces
en forma matricial, definiendo la matriz de correlacin de los procesos aleatorios ( ) t X e
( ) t Y como:
( )
( ) ( )
( ) ( )
1 2 1 2
1 2
1 2 1 2
, ,
,
, ,
X XY
YX Y
R t t R t t
R t t
R t t R t t
1

1
]
[1.39]
1.4.6. Covarianza Cruzada
De igual modo, para dos procesos estocsticos se define la funcin de covarianza
cruzada como:
( ) ( ) ( ) ( )
1 2 1 1 2 2 1 2 1 2
, ( ) ( ) ( ) ( ) , ( ) ( )
XY X Y XY X Y
C t t E X t m t Y t m t R t t m t m t 1
]
[1.40]
Se dice que dos procesos son incorrelados si su covarianza cruzada es nula para
todo t o sea:
( )
( )
1 2
1 2 1 2
, 0
, ( ) ( )
XY
XY X Y
C t t
R t t m t m t

[1.41]
Se dice que dos procesos son ortogonales si su correlacin cruzada es nula para
todo t o sea:
( )
1 2
, 0
XY
R t t [1.42]
1.4.7. Proceso Estacionario
Un proceso aleatorio
( )
X t se dice estrictamente estacionario si la distribucin
conjunta de cualquier conjunto de variables aleatorias obtenidas observando el proceso
aleatorio
( )
X t es invariante con respecto a la ubicacin del origen 0 t . Si se denota
( ) ( ) ( )
1 2
, ,
k
X t X t X t L las variables aleatorias obtenidas observando el proceso
( )
X t en
los instantes
1 2
, ,
k
t t t L , entonces el proceso es estacionario en sentido estricto si:
( ) ( ) ( )
( )
( ) ( ) ( )
( )
k t X t X t X k t X t X t X
x x x F x x x F
k k
, , , , , ,
2 1 , , 2 1 , ,
2 1 2 1
L L
L L

+ + +
[1.43]
13
para todo intervalo de tiempo , todo k, y todas las posibles elecciones de los
tiempos
1 2
, ,
k
t t t L , donde
( ) ( ) ( )
( )
1 2
1 2 , ,
, , ,
k
k X t X t X t
F x x x
L
L es la funcin de distribucin
conjunta de las variables aleatorias
( ) ( ) ( )
1 2
, ,
k
X t X t X t L .
Se deduce que para un proceso estacionario,
( )
( )
X t
f x es independiente de t y por lo
tanto:
( )
X X
m t m t [1.44]
Para un proceso estacionario, la funcin de autocorrelacin depende slo de la
diferencia
1
t -
2
t , es decir:
( ) ( )
2 1 2 1 2 1
, , t t t t R t t R
X X
[1.45]
Un proceso aleatorio ( ) t X cuya funcin de auto correlacin est dada por:
( ) ( ) [ ] ( ) ( ) r R t X t X E
X
[1.46]
con 0 r se denomina ruido blanco. Resulta fcil de verificar que el espectro de
densidad de potencia es constante para todas las frecuencias.
Un proceso aleatorio para el cual se verifican las dos condiciones anteriores se
denomina estacionario en sentido amplio. Un proceso aleatorio que es estrictamente
estacionario es estacionario en sentido amplio, pero lo opuesto no se verifica.
Si los procesos aleatorios ( ) t X e ( ) t Y son cada uno estacionarios y adems son
conjuntamente estacionarios, entonces la matriz de correlacin puede escribirse como:
( )
( ) ( )
( ) ( )
1
]
1

Y YX
XY X
R R
R R
R [1.47]
donde
1 2
t t
Una restriccin menor es definir un proceso estrictamente estacionario de orden n
donde la condicin [1.43] se cumple para todo k n . Por ejemplo un proceso estrictamente
estacionario de primer orden es
( )
( )
( )
( )
1 1
1 1 X t X t
F x F x
+
[1.48]
en este caso sigue valiendo la independencia de la media respecto del tiempo.
Uno de segundo orden ser
( ) ( )
( )
( ) ( )
( )
1 2 1 2
1 2 1 2 , ,
, ,
X t X t X t X t
F x x F x x
+ +
[1.49]
aqu las propiedades estadsticas no dependen del tiempo en s sino de la distancia
entre muestras temporales.
14
- Propiedades
i.
( ) ( )
( ) ( )
T
XY YX
T
X X
R R
R R




[1.50]
ii.
( )
0 0
X
R [1.51]
iii.
( ) ( ) ( )
2
0 0
XY X Y
R R R [1.52]
iv. ( ) ( ) 0
X X
R R [1.53]
v. Procesos peridicos de perodo Ten sentido medio cuadrtico cuando se cumple
( )
2
( ) ( ) 0 E X t X t T t
1
+
]
[1.54]
vi. Si
( ) ( )
0
X X
R R T se verifica que el proceso es peridico ya que
( )
2
( ) ( ) (0) 2 ( ) (0) 0
x x x
E X t X t T R R T R
1
+ +
]
1.4.8. Vector de Proceso Aleatorio
En las secciones anteriores se trataron las variables aleatorias escalares. En esta
parte se generalizan las relaciones presentadas para el caso de vectores n-dimensionales
compuestos por procesos aleatorios escalares, de la forma:
( ) ( ) ( ) ( ) [ ]
T
n
t x t x t x t x L
2 1
[1.55]
Consideraremos vectores de procesos aleatorios Gaussianos con valor esperado
nulo. La funcin de densidad de probabilidad para estos vectores estar dada por:
( )
( )
[ ] ( ) [ ] ( )

'



x E x R x E x
R
x p
T
n
1
2
1
exp
det 2
1

[1.56]
donde R es la matriz de covarianza de x definida por:
[ ] ( ) [ ] ( ) [ ]
T
x E x x E x E R [1.57]
Esta matriz R es simtrica perteneciente a
n n
y para el caso en consideracin
resulta de la forma:
15
( ) [ ]
( ) [ ]
( ) [ ]
1
1
1
1
1
]
1

2
2
2
2
1
0 0
0
0 0
0 0
t x E
t x E
t x E
R
n
L
M O M
L
L
[1.58]
ya que no existe correlacin entre diferentes muestras. Por otra parte, R se puede
expresar en forma alternativa como:
( )
( )
( )
1
1
1
1
]
1

0 0 0
0
0 0 0
0 0 0
2
1
n
x
x
x
R
R
R
R
L
M O M
L
L
[1.59]
o bien
( )
( )
( )
1
1
1
1
1
]
1

2
2
2
2
1
0 0
0
0 0
0 0
t x
t x
t x
R
n
L
M O M
L
L
[1.60]
Esta ltima forma de expresar la matriz de covarianza R del vector de proceso
aleatorio Gaussiano ( ) t x , muestra que la misma es una matriz diagonal en la cual la
diagonal principal est conformada por los valores cuadrticos medios (rms) de las
componentes del vector aleatorio ( ) t x .
1.4.9. Secuencias Estocsticas
Una secuencia estocstica
{ }
( )
k
x es una variable aleatoria con un nmero finito k
de muestras en el tiempo para cada realizacin y que converger a la variable aleatoria
( ) x cuando el nmero de muestras tienda a infinito. La convergencia de la secuencia a la
variable aleatoria se puede expresar de diferentes maneras:
i.
{ }
k
x converge a x con probabilidad 1 si lim
k
k
x x

ii.
{ }
k
x converge a x en probabilidad si
( )
lim 0
k
k
P x x

y se representa como
lim
k
k
p x x

iii.
{ }
k
x converge a x en sentido medio cuadrtico si
-
2
k
E x k
1

]
16
-
2
lim 0
k
k
E x x

1

]
y se expresa . . .
k
l i m x x
La i implica la iii y la iii implica la ii. Se usa ms la iii .
- Propiedades de la convergencia SMC
Sean los siguientes elementos:
-
{ }
k
x
{ }
k
y
{ }
k
v tres secuencias aleatorias
- z una variable aleatoria
- { }
k
c una secuencia determinstica y
- a y b dos constantes
- . . .
k
l i m x x , . . .
k
l i m y y , . . .
k
l i m v v ,
k
k
limc c

se verifica,
i. . . . lim
k k
k
l i m c c c


ii. . . . l i m z z
iii. . . .
k
l i m zc zc
iv.
( )
. . .
k k
l i m ax by ax by + + es lineal
v. [ ] [ ] [ ] . . .
k k
E x E l i m x E x , el operador E y el lmite son conmutables
vi. [ ] [ ] lim
k k
E xy E x y y
2 2
lim
k
E x E x
1 1
] ]
vii. si [ ] [ ]
k k k
E x y E v entonces [ ] [ ] E xy E v
1.4.10. Continuidad
La definicin de continuidad en una funcin determinstica es la siguiente:
0
lim ( ) ( ) x t x t

+
Pero esta definicin es muy restrictiva para variables aleatorias. Se utiliza la
continuidad en sentido medio cuadrtico:
0
. . . ( ) ( )
h
l i m x t h x t

+ [1.61]
o su equivalente
17
2
0
lim ( ) ( ) 0
h
E x t h x t

1
+
]
[1.62]
esto ltimo implica
[ ]
0
lim ( , ) ( , ) ( , ) ( , ) 0
h
R t h t h R t h t R t t h R t t

+ + + + + [1.63]
si ( , ) R t es continua para ( , ) t t o sea t decimos que el proceso es continuo
Un proceso estacionario es continuo si y slo si (0) R es continua
1.4.11. Diferenciacin
( ) x t es derivable en sentido medio cuadrtico en t si existe el

0
( ) ( )
lim ( )
h
x t h x t
x t
h

+
1

1
]
& [1.64]

0
( ) ( )
lim ( ) 0
h
x t h x t
E x t
h

+
1

1
]
& [1.65]
otra forma de expresarlo es decir que ( ) x t es derivable en sentido medio cuadrtico
en t si existe
2
( , ) R t
t


en (t,t).
Si para (t,t) significa que ( , ) t
existe
2
( , ) R t
t


en (t,t) sii ( ) m t & y
2
( , ) C t
t


en (t,t)
sii
2
2
( ) R t
t

en t=0
- Propiedades
i. [ ]
[ ]
( )
( ) ( ) ( )
x x
dE x t
m t E x t m t
dt

&
& &
ii. [ ] [ ]
( , )
( , ) ( ) ( ) ( ) ( )
x
xx
R t
R t E x t x E x t x
t t





&
&
iii. [ ] [ ]
2
( , )
( , ) ( ) ( ) ( ) ( )
x
xx
d R t
R t E x t x E x t x
t d t






&&
& &
iv.
( (
( , )
( , )
m n
m n
x
m n x x
R t
R t
t


Para procesos estacionarios
18
i.
( )
( )
x
xx
R t
R t
t

&
ii.
( )
( )
x
xx
R t
R t
t

&
iii.
2
2
( , )
( )
x
xx
R t
R t
t

&&
iv. ( )
( (
( )
( , ) 1
m n
m n
m
x
m n x x
R t
R t
t

+
+

1.4.12. Integracin
se toma un intervalo de tiempo [ ] , a b y se lo particiona en n subintervalos tales que
0 1 n
a t t t b < < L
sea
1
max( )
i i
i
t t
+

sea
' '
1
/
i i i i
t T t t t
+

Se dice que x es integrable en sentido medio cuadrtico en [ ] , a b si lo siguiente

( )
1
'
1
0
0
l . i . m. ( ) ( )
b
n
i i i
i
a
x t t t S x t dt


[1.66]
Teorema:
El proceso x es integrable sii ( , )
x
R t es integrable en [ ] [ ] , , a b a b
Teorema:
( , )
x
R t es integrable sii ( )
x
m t es integrable en [ ] , a b y ( , )
x
C t es integrable en
[ ] [ ] , , a b a b
Teorema:
El proceso x es integrable si ( )
x
m t es continua [ ] , t a b
Los operadores esperanza e integral son conmutables,
( ) ( )
b b
x
a a
E x t dt m t dt
1

1
]

[1.67]
y
19
( ) ( ) ( , )
b d b d
x
a c a c
E x t dt x d R t dtd
1

1
]

[1.68]
1.5. Procesos Especiales
1.5.1. Proceso Estocstico Discreto
Son procesos en donde la aleatoriedad interviene en algunos instantes de tiempo
0 5 10 15 20
-1.5
-1
-0.5
0
0.5
1
1.5
0 5 10 15 20
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
1.5.2. Procesos Independientes
Se debe cumplir que para todo instante de tiempo,
[ ] [ ]
1 1 2 2
1
( ) , ( ) ( ) ( )
n
n n i i i
i
P X t x X t x X t x P X t x

L [1.69]
se podra expresar en funcin de la densidad o distribucin.
Si se trata de dos procesos X e Y se dice que son independientes si

[ ]
[ ] [ ]
1 1 1 1
1 1 1 1
( ) , , ( ) , ( ) , , ( )
( ) , , ( ) ( ) , , ( )
n n n n
n n n n
P X t x X t x Y t y Y t y
P X t x X t x P Y t y Y t y


L L
L L
[1.70]
1.5.3. Procesos Incorrelados
Un proceso es incorrelado consigo mismo cuando
[ ] [ ] ( , ) ( ) ( ) ,
T
X
R t E X t E X t t [1.71]
Un proceso independiente es incorrelado. No siempre ocurre al revs.
Dos procesos son incorrelados si
[ ] [ ] ( , ) ( ) ( ) ,
T
XY
R t E X t E Y t t [1.72]
1.5.4. Proceso Blanco
Si un proceso tiene una distribucin Gaussiana, es estacionario e independiente se
denomina proceso blanco
20
xk es totalmente independiente de xj k j
x(k,) = secuencia de elementos independientes
covarianza


2
= ) (
0 0
0 =
= ) r(
2
2

'


[1.73]
La mayora de los procesos estacionarios pueden generarse a partir del filtrado del
ruido blanco. Es como el impulso de los sistemas deterministas.
1.5.5. Procesos Estocsticos Ergdicos
Para un proceso estocstico es posible calcular la media temporal de cada
realizacin como sigue:
( ) ( )
1
2
T
X
T
m T x t dt
T

[1.74]
Esta media es obviamente una variable aleatoria que depende del intervalo de
observacin T t T .
Si se calcula la correlacin promediada temporalmente, para cada realizacin,

1
( ) lim ( ) ( )
2
T
T
T
R x t x t dt
T

[1.75]
que constituye un proceso estocstico.
Sera de mucha utilidad que la media temporal coincida con la media del proceso
estudiado as como su correlacin. De este modo bastara con conocer una sola realizacin
para conocer todo el proceso.
Un proceso aleatorio se dice ergdico si se verifican las siguientes condiciones:
i. ( ) lm
X X
T
m T m

ii. ( ) lim var 0


X
T
m T

1
]
iii. ( ) ( ) lm ,
X X
T
R T R

iv. ( ) lm var , 0
X
T
R T

1
]
21
En este caso se puede substituir el clculo de la esperanza por la integral
1
lim ( )
2
T
T
T
x t dt
T

1.5.6. Proceso de Wiener


Se dice que un proceso x es un proceso de Wiener si el proceso ( ) ( ) z x t x es en
realidad una variable aleatoria independiente. Adems se debe cumplir que
i. [ ( )] 0 E x t
ii. (0) 0 x
iii. la varianza de z es proporcional a la diferencia de triempos:
( )
2
( ) ( ) ( ) ( ) R z R x t x t
1.5.7. Proceso de Markov
Un proceso estocstico se dice de Markov de primer orden si la probabilidad
condicionada de un elemento solo depende de su valor anterior es decir
] | [ ........] , | [
1 2 1

k k k k k
x x p x x x p [1.76]
o sea
1 k k k
x ax fv
+
+ [1.77]
el valor futuro de x solo depende de su valor actual y de v.
Si v es ruido blanco genera una proceso de Markov.
Si x depende de valores anteriores se puede hacer lo siguiente
k
k
k
k
k
v
f x
x
a a x
x
1
]
1

+
1
]
1

1
]
1

1
]
1

+
+
0 1 0
2
1
2 1 1 2
1 1
[1.78]
lo que matricialmente resulta
1 k k k
x Ax Fv
+
+ [1.79]
22
Iz
-1
+
A
F
+
x
k
x
k-1
v
k
Iz
-1
+
A
B
+
x
k
x
k-1
u
k
F
v
k
C
+
n
k
y
k
1.6. Modelos Estocsticos
En un proceso determinstico se deben dar las condiciones iniciales. En lo sucesivo
se utilizarn sistemas diferenciables en el sentido medio cuadrtico en los cuales se cumple
[ ]
( ) ( )
( ) ( )
x x
dE x t dx t
m t E m t
dt dt
1

1
]
&
& [1.80]
1.6.1. Modelos Continuos en Ecuaciones Diferenciales
El modelo de la planta se expresar igual que en control clsico pero tendr una
entrada y una salida estocstica. A fin de simplificar se toma el siguiente ejemplo:
)
0
( ) ( ) ( )
n
n
a y t a y t x t + + L [1.81]
con condiciones iniciales,
1)
( 0) 0
(0) (0) (0) 0
n
x t
y y y

<
& L
[1.82]
Para obtener la esperanza en un tiempo dado se hace,
23
[ ]
[ ]
[ ]
[ ] [ ]
)
0
)
0
0
( ) ( ) ( )
( ) ( )
( )
( ) ( )
n
n
n
n
n
n n
E a y t a y t E x t
a E y t a E y t
d E y t
a a E y t E x t
dt
1 + +
]
1 + +
]
+ +
L
L
L
[1.83]
o lo que es lo mismo haciendo
[ ]
( ) ( )
y
m t E y t y [ ] ( ) ( )
x
m t E x t
)
0
( ) ( ) ( )
n
n y y x
a m t a m t m t + + L [1.84]
es como trabajar con variables determinsticas.
Se puede obtener las siguientes relaciones para la correlacin y autocorrelacin:
1 2
0 1 2 1 2
2
1
2
( , )
( , ) ( , )
( ,0)
0
n
XY
n XY X n
i
XY
i
d R t t
a a R t t R t t
dt
d R t
dt
+ +

L
[1.85]
1 2
0 1 2 1 2
1
2
1
( , )
( , ) ( , )
(0, )
0
n
YY
n YY XY n
i
YY
i
d R t t
a a R t t R t t
dt
d R t
dt
+ +

L
[1.86]
Es simple ver esto ya que si se multiplica ambos miembros por
1
( ) x t ,
)
1 2 0 2 1 2
( ) ( ) ( ) ( ) ( )
n
n
x t a y t a y t x t x t 1 + +
]
L [1.87]
tomando esperanza,
[ ] [ ]
)
1 2 0 1 2 1 2
( ) ( ) ( ) ( ) ( ) ( )
n
n
a E x t y t a E x t y t E x t x t 1 + +
]
L [1.88]
se puede intercambiar la esperanza con la derivada,
[ ]
[ ] [ ]
1 2
0 1 2 1 2
2
( ) ( )
( ) ( ) ( ) ( )
n
n n
E x t y t
a a E x t y t E x t x t
t

+ +

L [1.89]
y reemplazando la esperanza del producto por la correlacin, se llega a la ec[1.85]
De forma similar se puede deducir la ec[1.86]
)
2 1 0 1 2 1
( ) ( ) ( ) ( ) ( )
n
n
y t a y t a y t y t x t 1 + +
]
L [1.90]
24
1.6.2. Modelo de Procesos Discretos
Se utilizan ecuaciones en diferencias,
0 n k n k k
a y a y x

+ + L [1.91]
en donde se utiliza [ ]
k n k n
m E y

El tratamiento de estos modelos es igual a los anteriores excepto la utilizacin de


ecuaciones en diferencias.
1.6.3. Modelos Discretos en Variables de Estado
En el caso determinstico se representa al vector de estados como
1
( , )
k k
x g x k
+
[1.92]
1
( , ) ( , )
k k k
x g x k x k
+
+ [1.93]
en adelante se exigirn las siguientes condiciones
i. que sea un proceso de Markov y por lo tanto x tambin lo ser.
ii. que tenga una distribucin normal es decir que se pueda expresar como
( , ) ( , )
k k k
x k x k e donde e es un proceso normal, independiente, de media
nula, varianza unitaria y es la matriz de correlacin.
iii. que g sea lineal en x o sea que se pueda expresar
1,
( , )
k k k k
g x k x
+

iv. que sea independiente de x es decir ( , )
k k
x k
Contemplando estas condiciones se puede reescribir la ecuacin de estados como:
1 1, k k k k k k
x x e
+ +
+ [1.94]
con la condicin inicial
0
(0)
xx xx
R R [1.95]
- Resolucin
Se sabe que ( , )
k
x k y ( , )
j
x j son independientes para todo k y j. El ruido que
afecta a cada variable de estado es independiente en cada instante y a su vez independiente
de los estados y se cumple que su media es
[ ]
0
0
k
E
1
1

1
1
]
M [1.96]
25
y su autocovarianza
11 1
1
k nk
T
k k k
n k nnk
r r
E R
r r

1
1
1
]
1
1
]
L
M O M
L
[1.97]
Cmo se calcula la media del estado?
[ ]
1 1 1,
0 0
0
k xk k k xk
k
E x m m
m m
+ + +

[1.98]
Para calcular la autocovarianza, por simplicidad, se supone que 0 m . Esto se
puede hacer definiendo otra variable z que cumpla
k k k
z x m . Por comodidad
utilizaremos x en lugar de z.
, , 1 , 1 2 1 j j k k j k k j j j j
x x
+
+ + + + L [1.99]
, , 1 1, 2 1, j k j j j j k k +
L [1.100]
,
T
j k j k k
E x x P
1

]
[1.101]
como el vector de estados y el ruido son independientes se cumple que [ ] 0 E
por lo que P es directamente la covarianza de
k
x . Pero se ha obtenido la funcin de
autocorrelacin en funcin de la covarianza que no se conoce.
1 1 1, 1,
T
T
k k k k k k k k k k
x x x x
+ + + +
+ + 1 1
] ]
[1.102]
tomando esperanza,
1 1 1, 1, 1 1
01 0
T T
k k k k k k k xk k
x k
E x x P R P
R P
+ + + + +
1 +
]

[1.103]
as se calcula la evolucin de la covarianza P.
Un caso particular es cuando
1, k k
cte
+
en donde la covarianza resulta
( )
1
01 1
0
k
j
T j T
k x xk
j
P R R

[1.104]
sumatoria que converger si tiene valores propios menores a 1.
26
1.6.4. Modelo Continuo en Variables de Estado
- Modelo Errneo
Si se define el modelo de la forma
( )
( , ) ( , )
dx t
f x t x t
dt
+ [1.105]
con cumpliendo las siguientes condiciones,
i. ( , ) x t es independiente de ( , ) x s , t s
ii. ( , ) x t tiene varianza finita
iii. ( , ) x t es continuo de segundo orden en el sentido medio cuadrtico
iv. ( , ) x t tiene media nula
En este contexto se verifica que la varianza
( , ) ( , ) 0
T
E x t x t 1
]
[1.106]
Una seal que no tiene ni varianza ni media es idnticamente nula por lo tanto el
modelo no es adecuado.
- Reformulacin del Modelo en Ecuaciones Diferenciales
La ecuacin
( )
( , )
dx t
f x t
dt
se puede plantear como
( ) ( ) ( , ) ( ) x t h x t f x t h O t + + [1.107]
con 0 h
Introduciendo el ruido,
( ) ( ) ( , ) ( ) ( ) ( ) x t h x t f x t h t h t O t + + + + [1.108]
suponiendo que es un proceso de Wiener,
( ) ( ) ( ) ( , ) ( ) ( ) t h t x t W t h W t + + [1.109]
tomando esperanza
[ ] ( ) ( ) ( , ) ( ) E x t h x t f x t h O h + + [1.110]
ya que [ ] 0 E W
y la covarianza es
27
[ ] ( )
2
2 2
( , )
2 2
( , )
( ) ( ) ( ) ( ) ( )
( )
x t
x t
Var x t h x t E W t h W t O h
h O h

1
+ + +
]
+
[1.111]
no se podemos llevarlo al lmite de h ya que ( ) ( ) t t
+
. Se debe dejar en
forma diferencial. Esto es una ecuacin diferencial estocstica:
( ) ( , ) ( , ) dx t f x t dt x t dW + [1.112]
su versin lineal es
( ) ( ) ( ) ( , ) dx t A t x t dt x t dW + [1.113]
en esta ecuacin se cumple que
2
E dW dt 1
]
Hay que tener en cuenta que el signo de h puede llevar a resultados diferentes.
- Modelo en Ecuaciones Integrales
0 0
0
( ) ( ) ( ( ), ) ( ( ), ) ( )
t t
t t
x t x t f x s s ds x s s dW s + +

[1.114]
- Proceso Estocstico ARMA.
MA
k 1 k-1 n k-n
k
= + + + y
e b e b e
L [1.115]
AR
1 n k
k k-1 k-n
+ + + = y y y
a a e
L
[1.116]
ARMA
1 1 1 n k k n k n k k-1 k-n
a a e b e b e y y y

+ + + + + + L L [1.117]
Agregar
Secuencias Pseudoaleatorias (PRBS)
(0)
r
) (
r
= ) (
x
x
x

[1.118]
se cumple que
(0)
r
) (
r x x
[1.119]
28
puede ser negativa
si es 1 son valores fuertemente relacionados
= 0 son elementos no relacionados
< 0 relacionados negativamente
Ruido Blanco
Proceso estacionario
xk es totalmente independiente de xj k j
x(k,) = secuencia de elementos independientes
covarianza


2
= ) (
0 0
0 =
= ) r(
2
2

'


[1.120]
La mayora de los procesos estacionarios pueden generarse a partir del filtrado del
ruido blanco. Es como el impulso de los sistemas deterministas.
expresado en funcin de la respuesta impulsional
(u no es ruido blanco)
u
g =
u
g = y
n - k
n
0 = n
n
n - k
k
- = n
k

[1.121]
29
m
g =
u
g E = Ey =
m
u n
0 = n
n - k
n
0 = n
k y
n - k k


[1.122]
es como tener un sistema determinista excitado por
u
m
k-n k
k-n y u k n
n=0
- = - y g
m u m

1
]
[1.123]
para calcular la covarianza podemos simplificar el clculo haciendo 0
u
m o sea
0
y
m
[ ]
+l-n
y
k+ k
k+ -n k-l
n l
n=0 l= 0
k+ -n k-l
n l
n=0 l= 0
u n l
n=0 l= 0
( ) E y y
r
E g g
u u
E g g
u u
g g
r

' ;
1
]

[1.124]
-n
k
yu u k+ n
n=0
r ( ) E = y g
u r


[1.125]
n+l-k
n+l-k
-jn
y yy y
n=-
-jn
u k l
n= - k=0 l= 0
-jk -jl -j(n+l-k)
u k l
k=0 n=- l= 0
-jk -jl
l k
k=0 l= 0
1
( ) = ( ) = (n) =
e r
2
1
= = g g
e r
2
1
= = g g
e e e r
2
1
= g g
e e
2






n
-j(n+l-k)
u
n=-

e r

[1.126]
la respuesta impulsional es
( ) ( )
-n
n
n=0
j T
j -j
y u
G(z)= g
z
z T = 1
e
( ) = G G ( )
e e

[1.127]
igualmente
30
( )
n-k
n
n-k
-jn -jn
yu yu u k
n=- n=- k= 0
-jk -j(n-k)
u
k= 0 n=-
-jk
u
1 1
( ) = = g
e e r r
2 2
1
=
e e r
2
= G ( )
e



[1.128]
Secuencias Pseudoaleatorias (PRBS)
x y s
0 0 0
0 1 1
1 0 1
1 1 0
0 1 0 0 0
0 1 0 0
0 0 1 0
1 0 0 1
1 1 0 0
m-1
m = 4
N = 2 8
1.7. Referencias
[1] Haykin, Simon (1994). Communication Systems, John Wiley & Sons, Inc., New York.
Astrom
Papoulis
Kwakernaak
Athans

Вам также может понравиться