Академический Документы
Профессиональный Документы
Культура Документы
Sistemas Estocsticos
1
1.1. Introduccin
Los sistemas estadsticos estn relacionados, en control con la imposibilidad de
modelizar alguna parte del proceso a estudiar.
Citar ejemplos industriales.
Sensor de nivel
1.2. Perturbaciones
Un caso tpico de modelizacin son las perturbaciones que puede tener una planta,
ya sea por una imprecisin en la medicin, la aparicin de una carga o variacin propia de
la planta.
- Perturbacin de carga: carga mecnica de un motor, olas en un barco, etc. Son
generalmente lentas o de bajas frecuencias.
- Error de medicin: puede ser un error esttico de calibracin o con componentes
de alta frecuencia muy importantes. Una solucin habitual es filtrar esta seal
con el consiguiente retardo de la misma.
- Variacin de Parmetros: debidas a una variacin del punto de trabajo o a
derivas del propio sistema.
El ltimo tipo de perturbacin se estudia como un cambio en el modelo de la planta
en cambio los dos primeros se pueden modelizar como una dinmica adicional al sistema
original.
1.5 1.5 25 1.5
1
20
1 1
0.5
15
0.5 0.5 0
10
-0.5
0 0
5
-1
2
Figura 1-2. Diagrama de bloques de una perturbacin y su efecto sobre la planta
Las perturbaciones que sern materia de estudio en este trabajo no se podrn
representar
1 1.5
0.9
1
0.8
0.7
0.5
0.6
0.5 0
0.4
-0.5
0.3
0.2
-1
0.1
0 -1.5
0 5 10 15 20 25 30 0 5 10 15 20 25 30
3
Si A B = 0 implica que los sucesos A y B son excluyentes, que no pueden ocurrir
simultneamente.
A B significa que si ocurre el suceso A , ocurre B
N n ( A)
[1.1]
n
que verifica
N n ( A)
0 1
n
Si el evento A no ocurre nunca, entonces N n ( A) n = 0 , en tanto que si ocurre las
n veces que se realiza el experimento N n ( A) n = 1.
N ( A)
P ( A ) = lim n [1.2]
n
n
Puede pensarse que un experimento aleatorio y sus resultados definen un espacio
con sus puntos. Este espacio se denomina espacio muestral (el conjunto de todos los
posibles resultados del experimento) y sus puntos se denominan muestras. Denotaremos al
espacio muestral con S. El espacio muestral completo S se denomina evento seguro, en
tanto que el conjunto vaco se denomina evento nulo o imposible.
Se puede ahora definir axiomticamente la probabilidad diciendo que un sistema de
probabilidad consiste de la tripla:
i. Un espacio muestral S de eventos elementales (resultados de experimento)
ii. Una clase de eventos que son un subconjunto de S.
iii. Una medida de probabilidad P ( ) asignada a cada evento A en la clase
, que tiene
las siguientes propiedades
4
(i) P (S ) = 1
(ii) 0 P ( A) 1
(iii) Si A + B es la unin de dos eventos mutuamente excluyentes en la clase
, entonces
P ( A + B ) = P ( A ) + P (B )
(iv) Si A B = 0 P ( A + B ) = P ( A) + P ( B )
(v) Si A y B no son mutuamente excluyentes entonces
P( A + B ) = P ( A) + P ( B ) P ( A B )
(vi) Si A1 ,L An son excluyentes P( A1 + L + An ) = P ( A1 ) + L + P ( An )
(vii) P ( A) = 1 P ( A)
(viii) La Probabilidad del suceso imposible es 0.
1.3.1. Variable aleatoria
En la teora de probabilidad, una variable aleatoria escalar X es considerada como el
resultado de un experimento en un espacio muestral que representa la coleccin de las
posibles salidas. Cuando la variable aleatoria X puede asumir slo un nmero finito de
valores en cualquier intervalo finito de observacin, se dice que X es una variable aleatoria
discreta. Si en cambio, la variable aleatoria X puede tomar cualquier valor en el intervalo de
observacin, se dice que la misma es una variable aleatoria continua.
Para describir las propiedades de las variables aleatorias se necesita dar una
descripcin probabilstica de las mismas.
Para una variable aleatoria X se puede definir su probabilidad en funcin de un valor
x, es decir la probabilidad del evento X x . Esta probabilidad se denota:
P (X x) [1.3]
FX (x ) = P( X x ) [1.4]
F X (- ) = 0
[1.5]
F X ( )=1
5
1
0.8
0.6
0.4
0.2
0 20 40 60 80 100
FX ,Y (x, y ) = P ( X x, Y y ) [1.6]
dFX ( x )
fX ( x) = [1.7]
dx
1
0.8
0.6
0.4
0.2
0 20 40 60 80 100
P ( x1 X x2 ) = f X ( x ) dx
x2
[1.8]
x1
FX ( x ) = f X ( ) d
x
[1.9]
a
6
Como la probabilidad del evento cierto X < b es FX (b ) = 1 y la probabilidad del
evento imposible X < a es FX (a ) = 0 , se concluye que
f X ( x ) dx = 1
b
[1.11]
a
2 FX ,Y ( x, y )
f X ,Y ( x, y ) = [1.12]
x y
P ( AB )
P ( B | A) = [1.13]
P ( A)
P ( AB ) = P ( B | A ) P ( A ) [1.14]
P ( AB ) = P ( A | B ) P ( B ) [1.15]
Teorema de Bayes
P ( A | B) P ( B )
P ( B | A) = [1.16]
P ( A)
1.3.5. Esperanza.
Para analizar el comportamiento promedio de los resultados de un experimento
aleatorio se define la media o valor esperado de la variable aleatoria X como:
E ( x , k 1 ) = f x ( k 1 , ) d = m( k 1 ) [1.17]
-
7
la esperanza es una funcin de k pero ya es una variable determinstica.
es lineal
E ( )= ( E ) [1.18]
1.3.6. Momentos
Se define tambin el momento de orden n de la funcin de distribucin de
probabilidad de la variable aleatoria X , como:
E X n = x n f X ( x ) dx
b
[1.19]
a
E ( X m X ) = (x m ) f X ( x ) dx
n b n
[1.20]
a
X
E X iY k = xi y k f X ,Y ( x, y ) dx dy
b b
[1.21]
a a
1.3.7. Varianza
Para n=1 el momento central resulta nulo, en tanto que para n=2 resulta el momento
central de 2do orden y se denomina varianza de la variable aleatoria X, y se denota:
2X = var [ X ] = E ( X mX ) = ( x m X ) f X ( x ) dx
2 2 b
[1.22]
a
8
2X
P ( X mX ) 2 [1.23]
para cualquier nmero positivo .
1 ( x mX )2
pX ( x ) = exp [1.24]
X 2 2 2X
X N X , 2X ( )
Las variables Gaussianas juegan una papel muy importante ya que se encuentran
frecuentemente cuando se hacen anlisis estadsticos de numerosos sistemas fsicos.
1.3.9. Correlacin
E [ XY ] = xyf X ,Y ( x, y ) dxdy
b b
[1.25]
a a
Se dice que las variables son ortogonales si y slo si su correlacin es cero, i.e.
E [ XY ] = 0 [1.26]
1.3.10. Covarianza
llamando mX = E [ X ] y mY = E [Y ] resulta:
9
Se dice que dos variables aleatorias X e Y estn no correlacionadas si y slo si su
covarianza es cero, es decir
r XY (j,k)= 0 [1.29]
rX (j,k)= cov X j = E ( X j - m Xj )
2
[1.30]
= ( x - m Xj ) f(X,j,k) dx 2
2
y si X fuese un vector
rx (j,k)=E ( X j m Xj ) ( X k m Xk )
r 11 L L L
r12 r 22 L L [1.31]
=
r 13 r 23 r 33 L
L L L L
1.4. Proceso Aleatorio
Se consideran ahora seales que son funcin del tiempo y que son aleatorias en el
sentido que antes de llevar a cabo un experimento no es posible describir exactamente la
forma de onda que presentarn las seales observadas. En este caso, cada elemento del
espacio muestral es una funcin del tiempo x j ( t ) . El conjunto de funciones del tiempo
(espacio muestral) se denomina proceso aleatorio o proceso estocstico que se denotar
X (t ) .
1.8
1.6
1.4
1.2
0.8
0.6
0.4
0.2
0
0 5 10 15 20 25 30
10
1.4.1. Funciones de Distribucin
Para conocer un proceso estocstico se necesitara saber la funcin de distribucin
de probabilidades en todo instante condicionada a los tiempos anteriores y posteriores. Es
decir:
FX ( X (t0 ) , t0 ) = P ( X ( t0 ) xt 0 ) [1.33]
1.4.3. Autocorrelacin
1.4.4. Autocovarianza
11
1.4.5. Correlacin Cruzada
RXY (t1 , t2 ) = E X ( t1 ) Y ( t 2 )
[1.38]
RYX ( t1, t2 ) = E Y (t1 ) X (t 2 )
R (t , t ) R XY ( t1, t2 )
R ( t1, t2 ) = X 1 2 [1.39]
RYX ( t1 , t2 ) RY ( t1 , t2 )
Se dice que dos procesos son incorrelados si su covarianza cruzada es nula para
todo t o sea:
C XY ( t1, t2 ) = 0
[1.41]
RXY (t1 , t2 ) = mX (t1 ) mY ( t2 )
Se dice que dos procesos son ortogonales si su correlacin cruzada es nula para
todo t o sea:
RXY ( t1 , t2 ) = 0 [1.42]
FX (t1 + ), X (t2 + ),LX (tk + ) (x1, x2 , L, xk ) = FX (t1 ), X (t2 ),L X (tk ) (x1 , x2 ,L, xk ) [1.43]
12
para todo intervalo de tiempo , todo k, y todas las posibles elecciones de los
tiempos t1 , t2 ,L tk , donde FX ( t1 ), X ( t2 ),LX (t k ) ( x1, x2 ,L , xk ) es la funcin de distribucin
conjunta de las variables aleatorias X ( t1 ) , X ( t2 ) , L X ( t k ) .
mX ( t ) = mX t [1.44]
E [X (t ) X (t )] = R X ( ) = r ( ) [1.46]
R X ( ) R XY ( )
R ( ) = [1.47]
RYX ( ) RY ( )
donde = t1 t2
FX ( t1 + ) ( x1 ) = FX ( t1 ) ( x1 ) [1.48]
13
- Propiedades
RXY ( ) = RYX ( )
T
i. [1.50]
RX ( ) = R X ( )
T
ii. RX ( 0 ) 0 [1.51]
iv. RX ( ) RX ( 0 ) [1.53]
E ( X (t) X (t + T ) ) = 0 t
2
[1.54]
x (t ) = [x1 (t ) x2 (t ) L xn (t )]
T
[1.55]
px = () 1 1
exp x E x ( [ ])
T
( [ ])
R 1 x E x
( )
[1.56]
2
n
2 det R
R=E xE x [( [ ]) (x E[x ]) ]
T
[1.57]
14
E [x (t ) ]2
0 L 0
[ ]
1
E x 2 (t ) L
2
R=
0 0
[1.58]
M 0 O M
0 0 L E [x (t ) ]
n
2
ya que no existe correlacin entre diferentes muestras. Por otra parte, R se puede
expresar en forma alternativa como:
R x1 (0 ) 0 L 0
0 R x 2 (0 ) L 0
R= [1.59]
M 0 O M
0 0 L R xn (0 )
o bien
x1 (t ) L
2
0 0
x2 (t )
2
L 0
R= 0 [1.60]
M 0 O M
2
0 0 L xn (t )
p lim xk = x
k
E xk k
2
-
15
lim E xk x = 0 y se expresa l.i.m. xk = x
2
-
k
La i implica la iii y la iii implica la ii. Se usa ms la iii .
se verifica,
i. l.i.m.ck = lim ck = c
k
ii. l.i.m. z = z
1.4.10. Continuidad
La definicin de continuidad en una funcin determinstica es la siguiente:
lim x (t + ) = x (t )
0
o su equivalente
16
lim E x(t + h ) x (t ) = 0
2
[1.62]
h 0
esto ltimo implica
1.4.11. Diferenciacin
x (t) es derivable en sentido medio cuadrtico en t si existe el
x( t + h ) x ( t ) &
lim
h 0
h = x (t ) [1.64]
x ( t + h ) x( t ) &
lim E x ( t ) = 0 [1.65]
h 0
h
otra forma de expresarlo es decir que x (t) es derivable en sentido medio cuadrtico
2 R (t , )
en t si existe en (t,t).
t
Si para (t,t) significa que (t, )
2 R (t , ) 2C (t, )
existe en (t,t) sii m& (t ) y en (t,t)
t t
2 R (t )
sii en t=0
t 2
- Propiedades
dE [x (t ) ]
i. mx& (t ) = E [x& (t )] = = m& x (t )
dt
R (t, )
ii. Rxx& (t, ) = E [ x& ( t )x ( )] E [x (t )x ( )] = x
t t
d 2 Rx (t , )
iii. Rxx&& (t, ) = E [ x& ( t )x& ( )] E [x (t )x ( )] =
t d t
m +n Rx (t , )
iv. Rx ( m x( n (t , ) =
t m n
Para procesos estacionarios
17
Rx (t )
i. Rxx& (t ) =
t
Rx ( t)
ii. Rxx& (t ) =
t
2 R x (t , )
iii. Rxx&& (t ) =
t 2
m + n R x (t )
Rx ( m x( n (t , ) = ( 1)
m
iv.
t m + n
1.4.12. Integracin
a = t0 < t1 L < tn = b
sea = max(ti +1 ti )
i
n1 b
l.i.m. x(ti' ) ( ti +1 ti ) = S = x (t )dt [1.66]
0
i=0 a
Teorema:
Teorema:
b b
E x( t )dt = mx (t )dt [1.67]
a a
y
18
b d
b d
0.9
1
0.8
0.7
0.5
0.6
0 0.5
0.4
-0.5
0.3
0.2
-1
0.1
-1.5 0
0 5 10 15 20 0 5 10 15 20
RX (t, ) = E [ X (t )] E [ X (t )] t,
T
[1.71]
19
xk es totalmente independiente de xj k j
x(k,) = secuencia de elementos independientes
covarianza
2 =0
r( ) =
0 0 [1.73]
( ) =
2
2
La mayora de los procesos estacionarios pueden generarse a partir del filtrado del
ruido blanco. Es como el impulso de los sistemas deterministas.
2T
T
[1.74]
Esta media es obviamente una variable aleatoria que depende del intervalo de
observacin T t T .
Si se calcula la correlacin promediada temporalmente, para cada realizacin,
T
1
R ( ) = lim
T 2T x (t + ) x (t )dt
T
[1.75]
i. lm mX (T ) = mX
T
iii. lm R X ( , T ) = R X ( )
T
iv. lm var RX ( , T ) = 0
T
20
En este caso se puede substituir el clculo de la esperanza por la integral
T
1
lim
T 2T x (t)dt
T
i. E[ x( t )] = 0
ii. x (0) = 0
iii. la varianza de z es proporcional a la diferencia de triempos:
R( z ) = R ( x(t ) x( )) = 2 (t )
p[ xk | xk 1 , xk 2 ........] = p[ xk | xk 1 ] [1.76]
o sea
x1k +1 0 1 x1 k 0
x = a a x + f vk [1.78]
2 k +1 1 2 2k
lo que matricialmente resulta
21
vk xk-1 xk
F Iz-1
+
+
vk
F
nk
uk xk-1 xk
B Iz -1 C
+ +
+ yk
dx (t ) dE [x (t ) ]
m x& (t ) = E = = m& x (t ) [1.80]
dt dt
an y n ) (t ) + L + a0 y (t ) = x (t ) [1.81]
22
E a n y n ) (t ) + L + a0 y ( t) = E [x (t )] =
= a n E y n ) ( t ) + L + a 0 E [ y (t )] = [1.83]
d n E [y ( t ) ]
= an + L + a 0 E [ y ( t ) ] = E [x ( t ) ]
dt n
o lo que es lo mismo haciendo my (t ) = E [y (t )] y mx (t ) = E [x (t )]
an m y (t ) + L + a0m y (t ) = mx ( t)
n)
[1.84]
d n RXY (t1, t2 )
an + L + a0 RXY (t1, t2 ) = R X (t1 ,t2 )
dt2 n
[1.85]
d i RXY (t1 ,0)
=0
dt2 i
d n RYY ( t1 ,t2 )
an + L + a 0 RYY (t1 ,t2 ) = RXY (t1, t2 )
dt1n
[1.86]
d i RYY (0, t2 )
=0
dt1i
tomando esperanza,
n E [x (t1 ) y (t2 )]
an + L + a0 E [x (t1 ) y (t2 )] = E [x ( t1 ) x (t2 )] [1.89]
t2
n
23
1.6.2. Modelo de Procesos Discretos
Se utilizan ecuaciones en diferencias,
an y k n + L + a0 yk = xk [1.91]
en donde se utiliza mk n = E [ yk n ]
xk +1 = g ( x k , k ) [1.92]
xk +1 = g ( xk , k ) + ( xk , k ) [1.93]
xk +1 = k +1,k xk + k ek [1.94]
- Resolucin
0
E [ k ] = M [1.96]
0
24
y su autocovarianza
r11k L r1nk
E k kT = M O M = Rk [1.97]
rn1k L rnnk
Cmo se calcula la media del estado?
E [ xk +1 ] = mxk +1 = k +1, k m xk + 0
[1.98]
mk =0 = m0
x j = j , k xk + j ,k +1 k + L + j , j 1 j 2 + j 1 [1.99]
j ,k = j , j 1 j 1, j 2 L k +1,k [1.100]
E x j xk = j ,k Pk
T
[1.101]
tomando esperanza,
25
1.6.4. Modelo Continuo en Variables de Estado
- Modelo Errneo
Si se define el modelo de la forma
dx( t )
= f ( x, t ) + ( x, t) [1.105]
dt
con cumpliendo las siguientes condiciones,
i. ( x, t ) es independiente de ( x , s ) , t s
E ( x, t ) T ( x, t ) = 0 [1.106]
Una seal que no tiene ni varianza ni media es idnticamente nula por lo tanto el
modelo no es adecuado.
dx (t )
La ecuacin = f ( x, t) se puede plantear como
dt
x (t + h ) x (t ) = f ( x, t )h + O( t) [1.107]
con h 0
Introduciendo el ruido,
x (t + h ) x( t ) = f ( x, t )h + ( t + h ) ( t ) + O(t ) [1.108]
( t + h ) ( t ) = ( x, t ) (W ( t + h ) W (t ) ) [1.109]
tomando esperanza
E [x (t + h ) x (t )] = f ( x, t)h + O (h ) [1.110]
ya que E [W ] = 0
y la covarianza es
26
Var [ x ( t + h ) x (t )] = (2x, t ) E (W (t + h) W ( t) ) + O 2 (h )
2
[1.111]
= ( x, t ) h + O (h )
2 2
dx (t ) = f ( x, t) dt + ( x, t ) dW [1.112]
su versin lineal es
dx (t ) = A( t) x( t )dt + ( x, t) dW [1.113]
Hay que tener en cuenta que el signo de h puede llevar a resultados diferentes.
AR
ARMA
Agregar
Secuencias Pseudoaleatorias (PRBS)
( )
x ( ) = rx [1.118]
r x (0)
se cumple que
r x ( ) r x (0) [1.119]
27
puede ser negativa
si es 1 son valores fuertemente relacionados
xk es totalmente independiente de xj k j
covarianza
2 =0
r( ) =
0 0 [1.120]
( ) =
2
2
La mayora de los procesos estacionarios pueden generarse a partir del filtrado del
ruido blanco. Es como el impulso de los sistemas deterministas.
(u no es ruido blanco)
k
yk =
n= -
g k -n un = g n uk -n
n= 0
[1.121]
28
m y k = Ey k = E g n uk -n = g n mu k -n [1.122]
n =0 n= 0
r y( ) = E y k+ y k
= E g n u k+ -n g u l k-l
n=0 l= 0
[1.124]
= g n g l E [ u k+ -n u k-l ]
n=0 l= 0
= g n g l r u +l-n
n=0 l= 0
ryu ( ) = E y k+ u k = g n r u -n [1.125]
n=0
1
y( ) = yy( ) =
2
e
n=-
-jn
r y(n) =
1
=
2 e g
n= -
-jn
k=0 l= 0
k g l r u n+l-k =
[1.126]
1
=
2
e
k=0 n=- l= 0
-jk
gk e -jl
gl e -j(n+l-k)
r un+l-k =
1
=
2
e
k=0
-jk
gk e
l= 0
-jl
gl e
n=-
-j(n+l-k)
run
la respuesta impulsional es
G(z)= g n z -n
n=0
z=e jT
T=1 [1.127]
y( ) = G ( e ) G ( e ) u( )
j -j
igualmente
29
1 1
yu( ) =
2
e
n=-
-jn
r yu n =
2
e g
n=-
-jn
k= 0
k r u n-k
1
=
2e e
k= 0
-jk
n=-
-j(n-k)
r u n-k [1.128]
= G (e ) ( )
-jk
u
x y s
0 0 0
0 1 1
1 0 1
1 1 0
0 1 0 0 0
0 1 0 0
0 0 1 0
1 0 0 1
1 1 0 0
m=4
N = 2 m-1 = 8
1.7. Referencias
[1] Haykin, Simon (1994). Communication Systems, John Wiley & Sons, Inc., New York.
Astrom
Papoulis
Kwakernaak
Athans
30