Академический Документы
Профессиональный Документы
Культура Документы
FILTRO DE WIENER
w0 w1 wM − 2 wM −1
d(n)
-
+ + + +
y(n) e(n)
J ( w ) = E[e 2 (n)]
Rx (0) Rx (1) … Rx ( M − 1)
R (1) R ( 0) R ( M − 2 )
Rx = x x x MATRIZ TOEPLITZ
R
x ( M − 1) R x ( M − 2) … R x ( 0 ) M ×M
M es la longitud del filtro FIR
( )
J (w) = σ d2 + w02 + w12 Rx (0) + 2w0 w1Rx (1) − 2w0 p(0) − 2w1 p(−1)
Filtro de Wiener
• La función de coste es cuadrática en los coeficientes del filtro
– 3.- El canal h.
Ejemplo 1
• Para el modelo considerado:
p (−k ) = E [s (n − d ) x(n − k )] =
= E s (n − d ) ∑ h(r )s (n − k − r ) + r (n − k ) = h(d − k )
r
• Ecuaciones normales:
Rhh (0) + σ r2 Rhh (1) Rhh ( M − 1) w0
… h( d )
Rhh (1) Rhh (0) + σ r2 Rx ( M − 2) w1 h(d − 1)
=
Rhh ( M − 1) Rhh ( M − 2) … Rhh (0) + σ r2 wM −1 h(d − M + 1)
Ejemplo 1
• Fichero: Wiener_eq.m
1.5
Wiener filter (blue), original BPSK (red)
SNR = 20 dB
0
M = 15
d =7 -0.5
-1
-1.5
0 10 20 30 40 50 60 70 80 90 100
Ejemplo 1
• Fichero: Wiener_eq.m
Wiener filter (blue), original BPSK (red)
0.8
0.6
SNR = 20 dB
0.2
M = 15 -0.2
d =0 -0.4
-0.6
-0.8
-1
0 10 20 30 40 50 60 70 80 90 100
¿Por qué es necesario un retardo?
• Suponemos una situación sin ruido y un canal causal y estable.
• Si el canal es de fase no mínima (alguno de sus ceros fuera del
círculo unidad) el inverso estable es no causal.
hi [n]
n=0
• Si no incluimos un retardo, la w[n]
d=0
aproximación del filtro de Wiener
al inverso del canal será muy n=0
mala: w[n]
d≠0
• Si permitimos un cierto retardo:
n=d
Estima del filtro de Wiener I
• En un caso práctico no se conoce el canal ni la varianza de ruido,
tan sólo se conoce la señal deseada s(n), en un intervalo n=1,…N.
(Secuencia de entrenamiento).
• Por ejemplo, en GSM
0.577 mseg.
Rb = 270.833 kb / s
Hay 26 símbolos conocidos por el receptor
Estima del filtro de Wiener II
N
1
• La matriz de autocorrelación se estima como Rˆ x =
N
∑x
n =1
x
n n
T
N
1
• La correlación cruzada pˆ =
N
∑ s ( n) x
n =1
n
N n =1 n =1
• Fichero: Wiener_eq_est.m
h = [1 − 0.3 0.6] SNR = 25 dB
M =5 d =0 N = 50
1.4546 - 0.4800 0.6000 0 0
- 0.4800 1.4546 - 0.4800 1 0.9452
0.60 0 0 0.2623
Rx = 0.6000 - 0.4800 1.4546 - 0.48 0.6
p = 0 wopt = - 0.4150
0 0.6000 - 0.4800 1.4546 - 0.4800
0 - 0.2117
0 0 0.6000 - 0.4800 1.4546 0 0.1013
0.5
-0.5
-1
-1.5
0 5 10 15 20 25 30 35 40 45 50
Principio de ortogonalidad I
E[e(n) x n ] = E[ x n (d (n) − x nT w )] = 0
E[ x n d (n)] = E[ x n x nT ]w
w opt = Rx−1 p
p Rx
Principio de ortogonalidad II
• Interpretación geométrica
d (n) e(n)
x−∞ xn
w T xn
xn−2 x n −1
E[e(n) w T x n ] = w T E[e(n) x n ] = 0
Superficie de error I
• La función de coste es un paraboloide con un único mínimo
J ( w ) = σ d2 + w T Rx w − 2w T p
1 r w0 p (0)
J ( w ) = σ d2 + (w0 w1 ) − 2(w0 w1 )
r 1 w1 p (−1)
6
2
w opt
0
-2
-4
-6
-6 -4 -2 0 2 4 6
Superficie de error II
• El eje del paraboloide es perdendicular al plano J(w)=cte.
~T R w
J = J min + w ~ ~ = w−w
x siendo w opt
Superficie canónica I
~
• w = w − w opt define una traslación: el mínimo de la función de
~ =0
coste está ahora en w opt
J (w ) ~)
J (w
6
6
w opt(1)=-0.7858
~
4
w opt w
wopt(1)=0
2
2
opt
0
0
-2
-2
-4
-4
-6
-6 -4 -2 0 2 4 6 -6
wopt
Superficie canónica II
λ1 0 … 0 T
0 λ q1 M
Rx = QΛQ T = [q1 … qM ] 2 = ∑ λ q qT
0 T i =1
i i i
qM
0 … 0 λM
~ TQΛQ T w
J = J min + w ~
~
v = QT w
Superficie canónica III
~
w 1
~ v1
v =Q wT
~
w 0
v0
2 1 w ~ 1 0 v0
~ ) = J + (w
J (w ~ w1 )
~ ~0 = J (v ) = J min + (v0 v1 ) = v02 + 3v12
min 0
1 2 w1 0 3 v1
~ 2 + 2w
= 2w ~w~ ~2
0 0 1 + 2 w1 ~
v1
w1
σ2 rσ 2 (1 + r )σ 2 0
• Matriz de autocorrelación Rx = 2 2
⇒ Λ=
2
rσ σ 0 (1 − r )σ
Rx (1)
siendo r = el coeficiente de correlación.
R x ( 0)
r=0 r=0.3 r=0.7
v1 v1 v1
v0 v0 v0
λmax 1 + r
• Dispersión de autovalores: =
λmin 1 − r
• Un valor alto indica mal condicionamiento de la matriz de
autocorrelación.
Estimación lineal vs. no lineal
• Hemos visto hasta ahora que el filtro de Wiener es el estimador
LINEAL que minimiza el MSE
Es necesario conocer: f d | x n ( d ( n) | x n )
Estimación lineal vs. no lineal: ejemplo
Est. lineal
sˆ(n) = woptx(n)
h
wopt = 2 0 2
ho + σ r
equiprobables AWGN
r(n)
s(n) ∈{+1,−1}
h0 x(n)
⊕
d(n)
y(n)
x(n) wn - +
e(n)
wn ≠ 0 −∞ < n < ∞
∞
• La salida del filtro IIR es y ( n) = ∑ w x(n − k )
k = −∞
k
[ ]
min E e 2 (n) ⇒ E [e(n) x(n-l )] = 0 -∞ < l < ∞
∞
Ec’s Normales: ∑w R
k = −∞
k xx (l − k ) = p (l ) −∞ < l < ∞
Filtro de Wiener IIR
r(n) S xd (ω ) H (ω )*
s(n) x(n) y(n) W (ω ) = =
h ⊕ w S xx (ω ) H (ω ) 2 + σ r2
S xd (ω ) H (ω )* 1
• Si no hay ruido: W (ω ) = = =
S xx (ω ) H (ω ) 2 H (ω )
∑ w R (l − k ) = p(l )
k =0
k x l≥0
• Entonces:
S ( z) 1
W ( z ) = xd −1 2
Q( z ) + σ x Q( z )
Parte causal
Filtro de Wiener complejo
w opt = Rx−1 p
N
1
pero ahora Rx = E[ x n x nH ] Rˆ x = ∑ x n x nH
N n =1
1 N
p = E[ x n d * (n)] pˆ = ∑ x n d * ( n)
N n =1
Filtrado lineal óptimo con restricciones
x1 ( n ) *
Señal deseada
θ0 d x2 ( n ) *
y(n)
θi
Señal interferente xM (n ) *
M
(θ)
en
ds
θ d
s1 (t ) = s0 (t − τ (θ )) s0 (t )
d sen(θ )
El retado entre dos elementos del array es τ (θ ) =
c
• PROBLEMA:
minimizar E[| y (n) |2 ] = w H Rx w s.t. w H s (θ 0 ) = g
(
siendo s (θ 0 ) = 1 e − jθ 0 … e − j ( M −1)θ 0 )
T
J ( w ) = w H Rx w + Re(λ* (w H s (θ 0 ) − g ))
“Linearly constrained minimum variance” (LCMV)
λ* λ*
∇J = 2 Rx w + s (θ 0 ) = 0 wopt = − Rx−1 s (θ 0 )
2 2
λ 2g
H
wopt s (θ 0 ) = g = − s H (θ 0 ) Rx−1 s (θ 0 ) λ=−
2 s H (θ 0 ) Rx−1 s (θ 0 )
1 “MVDR spectrum” o
S (ω ) =
s H (ω ) Rx−1 s (ω ) “Capon spectrum”
Ejemplo LCMV
• Programa: Lcmv.m
N=25 “snapshots”
10 0
-10
0
-20
-10
-30
-20
-40
-30 -50
-60
-40
-80 -60 -40 -20 0 20 40 60 80 -80 -60 -40 -20 0 20 40 60 80
I2 D I1 I2 D I1
Ejemplo LCMV
N=250 “snapshots”
0 0
-10 -10
-20
-20
-30
-30
-40
-40
-50
-50
-60
-80 -60 -40 -20 0 20 40 60 80 -80 -60 -40 -20 0 20 40 60 80
I2 D I1 I2 D I1
Filtro adaptado estocástico I
v(n)
¿Cúal es el filtro que
s (n) x(n) y (n)
⊕ w maximiza
la SNR a la salida?
w H Rs w
SNR máxima maximizar SNR = H
w Rv w
Filtro adaptado estocástico II