Вы находитесь на странице: 1из 53

IDENTIFICACIÓN DE

SISTEMAS

Ing. Fredy Ruiz Ph.D.


ruizf@javeriana.edu.co

Maestría en Ingeniería Electrónica


Pontificia Universidad Javeriana
2013
Información general
• Horario: Jueves 14:00 – 17: 00
– Inicio 2:10
– Pausa 3:30-3:40
– Fin 5:00
• Contacto
– Via correo electrónico: ruizf@javeriana.edu.co
– Página web: http://www.javeriana.edu.co/ruizf
– Tarea 1. Enviar correo para formar la lista de clase
PREREQUISITOS
• Señales y Sistemas
– Teoría de señales: espectro, filtraje.
– Sistemas lineales: rta. impulso, función de
transferencia, rta. en frecuencia, estabilidad,
variables de estado.
• Probabilidad
– Variables aleatorias
– Valor medio, varianza
– Dist. Gausiana
– Ruido blanco
PROGRAMA
PARTE I. TEORÍA DE ESTIMACIÓN
1. Repaso:
– teoría de señales
– sistemas lineales
– procesos estocásticos
2. Estima paramétrica en contexto estocástico
– Propiedades de un estimador
– Limite de Cramer-Rao
– Estima de mínima varianza
– Mínimos cuadrados
– Máxima verosimilitud
PROGRAMA
PARTE II. FILTRAJE ÓPTIMO
3. Estimación de señales
– Filtro de Wiener
– Estimación espectral
4. Estima óptima del estado
– Filtro de Kalman
– Filtros no lineales
• Extended Kalman
• Unscented Kalman
• Particle Filter
PROGRAMA
PARTE III. IDENTIFICACIÓN DE
SISTEMAS
4. Estimación paramétrica estocástica
– Prediction error methods
– Instrumental variables methods
– Subspace methods
5. Estimación determinística
6. Identificación de sistemas no lineales
– Modelos de base fija
– Modelos de base variable
BIBLIOGRAFÍA
• Optimal and Robust Estimation: With an Introduction to
Stochastic Control Theory
Frank L. Lewis, Lihua Xie, Dan Popa
• Bayesian signal processing classical, modern, and particle
filtering methods
Candy, James
• Optimal state estimation Kalman, Hoo and nonlinear
approaches
Simon, Dan
• System Identification - Theory For the User
Lennart Ljung
• Multivariable system identification for process control
Zhu, Yucai
EVALUACION
• Proyecto filtraje 25%
• Proyecto identificación 25%
• Tareas 25%
• Presentaciones 25%

Las fechas de entregas de trabajos son fijas. En caso de


entrega tardía se sancionará el retardo con reducción de la
nota.
METODOLOGÍA
• Preparación: lecturas previas como secciones
indicadas del texto guía o artículos técnicos.
• Encuentro semanal: sesiones teóricas,
ejemplos de aplicación, sesiones prácticas
(Matlab).
• Refuerzo: verificación de demostraciones,
ejercicios simulados,…
OJO: El objetivo del curso es estudiar la teoría
de identificación de sistemas, NO es un
tutorial de herramientas informáticas
EL PROBLEMA DE LA
ESTIMACIÓN
Teoria de la estima
• El problema de la estima consiste en la valoración
empírica de una magnitud incierta, como:
– un parámetro desconocido
– una señal no medida
con base en medidas experimentales obtenidas del
fenómeno.
• La incertidumbre se puede modelar de varias
formas
– Variables aleatorias (probabilidad)
– Señales desconocidas pero limitadas (UBB)
Estimación paramétrica
Estimación paramétrica
Teoria de la estima
• Filtraje: Dado un modelo dinámico de un proceso
con entradas desconocidas,se estudia la estimación
de una señal no medida o medida con ruido.
Identificación de sistemas
• “Inferring models from observations and studying their
properties is really what science is about”
Lenart Ljung
• SYSID es una materia transversal a muchas áreas de la
ciencia que se ocupa de la construcción de modelos
matemáticos de sistemas (estáticos o dinámicos) con
base en datos obtenidos del sistema.
– Ingeniería
– Economía
– Biología
– ...
EL PROBLEMA DE LA
ESTIMACIÓN
• La ciencia moderna usa un lenguaje
matemático para describir los fenómenos
• En un primer tiempo, se usan “leyes
fundamentales” para construir los modelos
– Newton
– Kirchoff
– Laplace - Determinismo
– ....
EL PROBLEMA DE LA
ESTIMACIÓN
• Cuando los sistemas en estudio aumentan de
complejidad, no es posible seguir esta
aproximación
– Comportamientos desconocidos
– Modelos altamente complejos -> inútiles
• SYSID Procedimiento inverso:
– Partiendo de los datos, inferir las propiedades del
sistema que los produjo.
CONSTRUCCIÓN DE
MODELOS
• Se quiere estudiar un sistema real con un
objetivo definido:
– Interpretación
– Diseño
– Predicción
– Control
– Detección de fallas
– ...
CONSTRUCCION DE
MODELOS
• Existen dos aproximaciones al problema de
identificación:
Aprox. Física: el objetivo es la reproducción de
la estructura interna del sistema.
• Estructura fija
• Estima de parámetros físicos

El problema de estimación resultante es complejo,


óptimización no-convexa
CONSTRUCCION DE
MODELOS
Aprox. Caja-negra: reproducción de la relación
entrada-salida del sistema
• La estructura es parte del diseño
• Estima de parámetros “no interpretables”
• Para algunas estructuras es convexo y
computacionalmente eficiente.
CONSTRUCCION DE
MODELOS
La información sobre el sistema es de dos tipos
• “A priori”: Información disponible sobre el
sistema, hipótesis, leyes, ...
– define la estructura del modelo matemático
M (p)
– Lineal - no lineal
– Orden
– Características del ruido
– ...
CONSTRUCCION DE
MODELOS
• “A posteriori”: Información experimental.
– Permite la estima del parámetro p
– Valoración de la congruencia entre información
“a priori” y “a posteriori”
Medición del error
Un modelo es inútil si no viene medida
la incertidumbre y el error cometido
debido a ella.
Ejemplos
• Identificación de la dinámica vertical de un
vehículo:
– Objetivo: Construir un modelo que permita
simular la aceleración de chasis y ejes de un
vehículo en función del perfil de la vía y la
fuerza del amortiguador
– Uso: Diseñar y sintonizar estrategias de control
para vehículos con suspensión activa
• Experimentos realizados por FIAT-Elasis
Research Center
Modelo “a priori” basado en las leyes físicas
Con los datos experimentales “a posteriori” se
identifica un modelo back-box no lineal de
orden 2 para cada aceleración, usando
técnicas Set Membership.
Ejemplo 2. Predicción de la concentración de
ozono en la troposfera
Objetivo: Predecir el valor máximo
de O3 al día t+1
Datos disponibles
• datos de identificación 1995-1998, estos
datos se usan para estimar modelos con
diversas estructuras usando varios métodos
• datos de validación 1999, estos datos se
usan para seleccionar los mejores modelos y
hacer un ajuste fino.
• datos de prueba 2000-2001, estos datos
permiten evaluar la calidad de los modelos
seleccionados.
Resultados

Los datos disponibles no contienen suficiente


información!!!
Material adicional
• DaISy (Database for the Identification of
Systems)
http://homes.esat.kuleuven.be/~smc/daisy/

• MATLAB System Identification Toolbox


User's Guide
IDENTIFICACION DE SISTEMAS

CAPÍTULO 1. REPASO
PROBABILIDAD Y SISTEMAS DINÁMICOS

Maestría en Ingeniería Electrónica


Pontificia Universidad Javeriana
2013
Variable aleatoria
• Descripción matemática de los posibles resultados de
un experimento que no se puede predecir
exactamente.
• Variable continua e∈ℜ
La probabilidad de que e tome un valor en el intervalo
[a, b), es:
b
P (a⩽e<b)=∫a f e ( x) dx

donde fe(x) es la función de densidad de probabilidad PDF


de la variable aleatoria e.
• La probabilidad de un punto es cero!!!!
Variables aleatorias
Distribución gausiana o normal, N(μ,σ2)

Imagen tomada de Wikimedia commons.


Variables aleatorias
Variables aleatorias vectoriales

[]
e1
n
e= e 2 ∈ℜ
e3
La PDF es una función vectorial:
n
f e ( x): ℜ → ℜ

Y la probabilidad de que e caiga en un volumen de Rn es:

n
P (e∈B)=∫B f e ( x)dx ; B⊂ℜ
Variables aleatorias
Momentos
• Valor esperado
– E[e]=∫R x fe(x)dx = m
Resultado promedio del experimento luego de muchas
repeticiones.
• Varianza
– Cov[e] = P[e]=E[(e-E[X])∙(e-E[X])T]
Medida de la dispersión delos resultados del
experimento.
Cov[e] es una matriz simétrica con diagonal positiva.
Variables aleatorias
• Dadas X, Y, Z: variables aleatorias (posiblemente
vectoriales)
• x, y, z son realizaciones de V.A.
– Funciones de densidad de probabilidad:

• fX (x), FDP de X

• fXZ (x,z), FDP conjunta de X y Z

• fXZ (x,z)=fX (x) * fZ (z), Variables independientes

• fX/Z(x/z) = fXZ (x,z) / fZ(z), Probabilidad condicional


Problema de la estima
• θ(t): magnitud real a estimar, escalar o vectorial,
constante o variable con el tiempo.
• d(t): datos disponibles, capturados en el instante
de tiempo t.

• d = {d(t1), d(t2), . . ., d(tN)}: conjunto de medidas.

Los instantes de observación {t1, t2 , ...,tN} pueden ser


periódicos o no periódicos.
Problema de la estima
• Un ESTIMADOR o Algoritmo de Estima es una
función f(∙) que asocia a los datos un valor de la
magnitud a estimar:
̂ f (d )
θ=
• Por Estima se entiende el valor específico que entrega
el estimador ante un conjunto de medidas
particular.
Clasificación de los problemas de estima
• θ(t) es constante en el tiempo => problema de estimación
paramétrica
– El estimador se indica con 
– El valor verdadero de la magnitud se indica con o
• θ(t) es función del tiempo
̂
– El estimador se indica con θ(t∣t N)
– El tipo de problema depende de la relación entre t y tN:
• Si t > tN: problema de predicción
• Si t = tN: problema de filtraje
• Si t < tN: problema de interpolación o smoothing
Descripción probabilística de los datos
Los datos son generados por una fuente aleatoria S,
dependiente de:
– El resultado de un experimento casual s
– El valor verdadero de la magnitud a estimar.
o
d=d(s, )

Los datos son variables aleatorias, dado que son


una función de s
Propiedades de un estimador
• Los datos son una variable aleatoria
d=d(s,o)
• La estima es una función de los datos
 =f(d)
Por lo tanto, también el estimador y la
estima son variables aleatorias.
• La calidad de f(*) dependen de sus
características estocásticas.
Características estocásticas de un
estimador
No polarización

El valor medio o valor esperado de la estima debe ser


el valor verdadero de la variable estimada, de otro
modo el estimador introduce un error sistemático
en la estima
Características estocásticas de un
estimador
Eficiencia

Un estimador es de mínima varianza si su dispersión


entorno al valor esperado es la menor posible.
Menor dispersión => mayor probabilidad de obtener
una estima cercana al valor verdadero
Características estocásticas de un
estimador
Consistencia

A medida que el numero de datos aumenta, la


varianza de la estima se reduce y tiende
asintóticamente a 0.
Ejemplo
Consideremos N datos escalares di con el mismo valor
medio:
E[di]= o
Con varianzas eventualmente diferentes pero
limitadas:

los datos son descorrelacionados entre ellos, es decir:

o
Objetivo: estimar el valor medio de los datos 
Ejemplo
Estimador 1: Media de las muestras

Estimador 2: Dato arbitrario

Estimador 3: Media pesada de las muestras


Estimador 1: media de las muestras

Es un estimador no polarizado:

Consistente:
Estimador 2:

Es un estimador no polarizado:

No consistente:

La varianza no varía con el número de datos.


Estimador 3: Media pesada

Es un estimador no polarizado si:

Dado que:

Se demuestra que el estimador a mínima varianza


(eficiente) se construye con los pesos:

Intuitivamente, los datos mas inciertos son menos


relevantes => tienen un peso menor.
Tarea 1
Dado un conjunto de medidas, descritas por la ecuación:
Vk = R Ik +ηk
donde:
– R: resistencia (valor a estimar)
– Ik y Vk: medidas de voltaje y corriente en los
terminales de la resistencia.
– ηk : ruido blanco gausiano de valor medio cero y
varianza σ2k.
– N = 20 medidas
Los datos se encuentran en el archivo datos_R.mat.
En estos datos σ2k=16.
Problema:
Estimar el valor de R usando los tres estimadores
vistos en clase
• En el caso de media de las muestras pesadas, suponga
σ2k=16/Ik

Comparar los resultados obtenidos confrontando:


• valor de R
• varianza de la estima.

Вам также может понравиться