Академический Документы
Профессиональный Документы
Культура Документы
Caso Determinı́stico
COPPE-UFRJ
esboçado em 1985
refeito e impresso no 2.o semestre de 1988
revisto, ampliado e ilustrado em fevereiro-março de 1989
revisto e enriquecido em fins de 1991
aperfeiçoado ainda uma vez em outubro de 1996
análise no IRn e otimização em outubro-novembro de 1997
revisto, reformatado e enriquecido em 10,11/1999
Sumário
i
SUMÁRIO ii
4 Outros caminhos. . . 46
4.1 Referências . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
A Formas Quadráticas 80
A.1 Formas Lineares e Quadráticas . . . . . . . . . . . . . . . . . . 80
A.2 Sinal da Forma . . . . . . . . . . . . . . . . . . . . . . . . . . 84
A.3 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
A.4 Critérios de definição . . . . . . . . . . . . . . . . . . . . . . . 86
A.5 Normas, Métricas e “Tamanho” . . . . . . . . . . . . . . . . . 87
A.6 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
A.7 Visão Geométrica das Formas Quadráticas . . . . . . . . . . . 89
A.8 Miscelânea de Fórmulas . . . . . . . . . . . . . . . . . . . . . 90
A.9 Matrizes Hamiltonianas . . . . . . . . . . . . . . . . . . . . . 92
A.10 Referências . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
x(t0 ) = x0
ẋ(t) = A(t)x(t) + B(t)u(t);
S z(t) = D(t)x(t)
y(t) = C(t)x(t)
u - z
- SISTEMA S
y
?
CONTROLADOR
1
CAPı́TULO 1. PROBLEMAS Tı́PICOS DE CONTROLE 2
O sı́mbolo ∋ deve ser entendido como “tal que”. Se há mais interesse em
algumas componentes do que em outras podemos ponderar o vetor e(tf ) por
meio de uma forma quadrática:
De = [ D −I ] Ce = [ C 0 ]
Vemos assim que o problema de aproximar a saı́da de um dado valor
sempre pode ser substituı́do pelo problema de aproximá-la de zero, desde
que façamos as necessárias substituições. Então, ao invés de estudar este
problema das condições terminais na forma descrita acima, passaremos a
estudar um problema mais geral:
-
t0 tf t
A área sob uma curva dá uma boa idéia da “proximidade” de 0 da função
durante o intervalo, e assim podemos escrever
Rt
Encontrar u(·) ∋ J = tf z T (t)Q(t)z(t) dt seja mı́nimo.
0
? - -
t0 tf t
Ou seja, entre t−
0 e t+
0realizamos uma transferência instantânea até a
origem e depois lá mantemos o estado. Havendo controlabilidade até isto é
possı́vel! Precisarı́amos entretanto de impulsos unitários e suas derivadas na
entrada, e infelizmente isto é inviável na prática.
1.4 Exercı́cios
.
1. Para o Sistema Linear Invariante no Tempo x (t) = Ax(t) + Bu(t)
com rank(B) = m = número de colunas de B, seja x(0− ) = x0 . En-
contrar a entrada u que deve ser aplicada para que o estado seja ins-
tantaneamente transferido para a origem e lá permaneça: x(0+ ) = 0 e
x(t) = 0 ∀t > 0
CAPı́TULO 1. PROBLEMAS Tı́PICOS DE CONTROLE 7
-
t0 tf t
O ı́ndice J mede duas coisas: o comportamento da saı́da z em termos de
amplitudes e a rapidez com que este sinal se aproxima de zero:
(
amplitudes pequenas ∀t
J pequeno =⇒
aproximação rápida de zero
Desta maneira, minimizar J é uma tarefa duplamente benvinda. Há no
entanto alguns perigos pois, como já deve ter dado para perceber, quando
J diminui as amplitudes de u aumentam. Isto mostra que este problema,
como formulado até agora, não tem grande sentido prático, e deve ser refor-
mulado. Além de minimizar J gostarı́amos também que u(·) fosse pequeno.
Ao trabalho pois, com vontade. A nova idéia pode ser resumida:
Vemos assim que esta formulação ainda admite aperfeiçoamento: ela deve
ser ampliada para levar em conta as condições terminais.
Este problema tem sido um dos mais estudados pela comunidade cien-
tı́fica de Controle. A análise de sua solução é bem conhecida e, detalhe
CAPı́TULO 1. PROBLEMAS Tı́PICOS DE CONTROLE 9
Lembrando que z(t) = Dx(t) temos z T (t)Qz(t) = xT (t)R1 x(t), onde (vide
seção A.6) R1 = D T QD ≥ 0, e também z T (tf )T z(tf ) = xT (tf )Pf x(tf ), onde
Pf = D T T D ≥ 0. Fazendo R = R2 chegamos a outra formulação equivalente
para o PRLO, agora em termos do estado e não das saı́das:
onde R1 ≥ 0; Pf ≥ 0; R2 > 0
CAPı́TULO 1. PROBLEMAS Tı́PICOS DE CONTROLE 10
Exemplo 1.7.1 Para um motor DC, seja θ(t) a posição angular da carga,
e ω(t) a sua velocidade angular. A equação do modelo matemático para este
sistema é dada por:
(
a = −0.5 s−1
ω̇(t) = aω(t) + bu(t); onde
b = 150 rd/(V s2 )
" # " #
0 1 0
ẋ = x+ u; z = [ 1 0 ]x
0 a b
Vemos
Rt
que θ → θ0 se e somente se z → 0. O ı́ndice seria como acima:
J = tf [z 2 (t) + ru2(t)] dt + πz 2 (tf )
0
1 1 −1 1 0 0 1
6. idem 5 para
1 1 1
Q= 1 1 1
1 1 1
9. idem 8 para r = n.
0 1 0 0 0 π/36
56.56 −0.09 −42.42 0 5.12 0
ẋ = x + u; x0 =
0 0 0 1 0 π/180
−28.28 0.045 71.21 0 −2.56 0
'$
&%
z=[ 0 0 1 0 ]
Pede-se:
Solução do Problema do
Regulador
Seja o sistema linear e invariante no tempo ao qual temos nos dedicado com
exclusividade quase total:
x(t0 ) = x0
ẋ(t) = Ax(t) + Bu(t);
S
z(t) = Dx(t)
15
CAPı́TULO 2. SOLUÇÃO DO PROBLEMA DO REGULADOR 16
x = x∗ (·)
u(·) = u∗ (·) −→
J = J(u∗ ) = J ∗ = mı́nimo
Pela primeira vez encontramos uma expressão para u∗ , mas a sua apli-
cabilidade é problemática, pois ela está condicionada ao conhecimento da
variável p, dada pela equação (2.6), e, convenhamos, o aspecto desta relação
é um tanto quanto intimidador. Um expediente muito usado para contornar
CAPı́TULO 2. SOLUÇÃO DO PROBLEMA DO REGULADOR 19
d d tf T
Z
ṗ(t) = [φT (tf , t)]Pf x∗ (tf ) + φ (τ, t)R1 x∗ (τ ) dτ
dt dt t0
Após um desenvolvimento, que pouco acrescentaria às nossas argucidades,
chegarı́amos finalmente a uma forma elegante e compacta:
p(tf ) = Pf x∗ (tf )
A −BR2−1 B T
" # " #" #
ẋ∗ (t) x∗ (t)
= (2.10)
ṗ(t) −R1 −AT p(t)
Temos assim um sistema linear, fixo, autônomo, com dimensão 2n, que
pode ser escrito em uma forma mais compacta:
(
ẋe (t) = Ae xe (t)
x∗ (t0 ) = x0 ; p(tf ) = Pf x∗ (tf )
CAPı́TULO 2. SOLUÇÃO DO PROBLEMA DO REGULADOR 20
A −BR2−1 B T
" # " #
x∗ (t)
xe (t) = ; Ae =
p(t) −R1 −AT
p(t) = [θ21 (t, tf ) + θ22 (t, tf )Pf ][θ11 (t0 , tf ) + θ12 (t0 , tf )Pf ]−1 x0
x∗ (t)
F ∗ (t)
Este fato é importante; a solução ótima pode ser implementada por meio
de realimentação de estados. A existência ou não de soluções está associada
à invertibilidade do bloco [θ11 (t, tf ) + θ12 (t, tf )Pf ] e a propriedades da matriz
Hamiltoniana Ae . Alguns detalhes serão vistos posteriormente.
CAPı́TULO 2. SOLUÇÃO DO PROBLEMA DO REGULADOR 22
2.2.1 Em resumo:
Dado o sistema costumeiro
(
ẋ(t) = Ax(t) + Bu(t); x(t0 ) = x0
S
z(t) = Dx(t)
e o ı́ndice quadrático
Z tf
J = J(u) = [xT (t)R1 x(t) + uT (t)R2 u(t)] dt + xT (tf )Pf x(tf )
t0
com R1 ≥ 0, R2 > 0, Pf ≥ 0, o procedimento básico para minimizar J está
exposto a seguir:
A −BR2−1 B T
" #
Ae = (2.17)
−R1 −AT
P ∗ (t) = [θ21 (t, tf ) + θ22 (t, tf )Pf ][θ11 (t, tf ) + θ12 (t, tf )Pf ]−1
z(t) = x(t)
CAPı́TULO 2. SOLUÇÃO DO PROBLEMA DO REGULADOR 23
q
onde γ = a2 + b2 /r. As expressões para a solução em malha aberta podem
ser obtidas por substituição destes valores nas equações(2.13) e (2.14):
v ∗ (t) = −(b/r) [θ21 (t, 1) + pθ22 (t, 1)] [θ11 (0, 1) + pθ12 (0, 1)]−1 x0
(
x∗ (t) = [θ11 (t, 1) + pθ12 (t, 1)] [θ11 (0, 1) + pθ12 (0, 1)]−1 x0
x∗ (t)
100 6
50 r=10000
r=1000
r=100
-
t
r=10000 0.5 1.0
r=1000
r=100
10
?v ∗ (t)
rր vց x∗ é fraco
rց vր x∗ é bom
F ∗ (t) = −r −1 bP ∗ (t)
= −r −1 b[θ21 (t, 1) + pθ22 (t, 1)][θ11 (t, 1) + pθ12 (t, 1)]−1
F ∗ (t) ≈ F ∗ = cte. = 0, 03
A −bR2−1 bT
" #
0 0 0 −2
ẋe (t) = xe (t) = x (t)
0 −AT 0 0 0 0 e
0 0 −1 0
para o qual:
1 t−τ (t−τ )3 /3 −(t−τ )2
0 1 (t−τ )2 −2(t−τ )
θ(t, τ ) = θ(t−τ ) =
0 0 1 0
0 0 −(t−τ ) 1
donde tiramos
" #
1 0
θ21 (t, tf ) = 0; θ22 (t, tf ) =
tf −t 1
e, como podemos assumir t0 =0,
" # " #
1 −tf −tf3 /3 −tf2
θ11 (t0 , tf ) = ; θ12 (t0 , tf ) =
0 1 tf2 2tf
A expressão para o controle em malha aberta será
" # (" # " #)−1
1 0 1 −tf −tf3 /3 −tf2
u∗ (t) = −[0 2]p +p x0
tf −t 1 0 1 tf2 2tf
( " # " #)−1
1 −tf −tf3 /3 −tf2
= 2[t−tf −1] p−1 + x0
0 1 tf2 2tf
CAPı́TULO 2. SOLUÇÃO DO PROBLEMA DO REGULADOR 27
" #" #
∗ 2 2/3 1 ξ1
u (t) = [t−3 −1]
3 −1 −1 ξ2
( ! )
2 2ξ1
u∗ (t) = + ξ2 t − ξ1 − 2ξ2
3 3
A análise dos últimos exemplos sugere que este caminho pode ser traba-
lhoso e demorado, e que seria interessante evitar o cálculo de P ∗ (t) a partir
de Θe (t, τ ). Ou seja, procura-se uma maneira alternativa de se obter P ∗ (t).
Recordemos ainda uma vez a expressão (2.7), que fornece a solução ótima:
u∗ (t) = −R2−1 B T p(t). O coestado pode ser obtido com o auxı́lio da expressão
(2.15), resultando em
p(t) = P ∗ (t)x∗ (t) (2.20)
Derivando em relação ao tempo, e abandonando temporariamente a no-
tação P ∗(t) em favor de P (t), mais simples e geral, vem
Estes teoremas não serão provados aqui. Mas deve ficar clara a sua enorme
importância. Eles garantem a existência de solução para o PRLO, e ensinam
como calculá-la. O processo todo pode ser sintetizado no seguinte algoritmo:
3. u∗ (t) = F ∗ (t)x(t)
Isto significa que se P (t) é solução da ERM, P T (t) também o será. Mas
a solução é única, logo
A solução P ∗ (t) pode ser usada para calcular este ı́ndice de desempenho
truncado:
AT X + XA − XBR2−1 B T X + R1 = 0 (2.26)
Como esta equação pode ser obtida a partir da ERM ela recebe o nome
de Equação de Riccati Matricial Algébrica ou simplesmente ERMA. É
fácil notar que se a matriz de ponderação Pf for uma solução para a ERMA
então a ERM admitirá uma solução constante P ∗ (t) = cte = Pf . Como a
recı́proca também é verdadeira temos
Pronto, eis aqui resultados com bastante utilidade, e que justificam algo já
visto nos exercı́cios: para determinadas escolhas das matrizes de ponderação
a solução pode se tornar mais simples.
Já vimos (aquele de nós, sábios, que começaram a ler estas notas pelo
apêndice A) na seção A.9 como discutir a existência de soluções para uma
ERMA—analisando a matriz Hamiltoniana associada— e também como efe-
tivamente obter uma solução X através do subespaço espectral dos modos
estáveis. Se a ERMA admite uma solução P ∗ ≥ 0 e se Pf pode ser escolhida
igual a este valor então a solução do PRLO será invariante no tempo. E
a volta também é válida: se existe uma solução invariante no tempo então
etc. . .
b2 2
Ṗ (t) = −2aP (t) + P (t) − q; P (tf ) = p
r
Isto admite solução analı́tica. Integrando por separação de variáveis che-
garı́amos a
p − r(a + β) 2β(t−tf )
β + a + (β − a) e
p − r(a − β)
P ∗ (t) = r
p − r(a + β) 2β(t−tf )
1− e
p − r(a − β)
q
onde β = a2 + q/r. Fixando tf = 1, q = 1, p = 0, a = −1, b = 1, x0 = 1,
podemos esboçar as curvas x(t), u(t), P ∗(t) parametrizadas em função do
custo de controle r. Eis uma delas:
CAPı́TULO 2. SOLUÇÃO DO PROBLEMA DO REGULADOR 32
∗
6P (t)
.40
r=1
.20
r=0.2
r=0.02
-
0.5 1.0
t
P ∗ (t) em função do parâmetro r
A existência de soluções invariantes no tempo está associada à ERMA:
b2 2
P − 2aP − q = 0
r
√
A raiz positiva deste trinômio é P = (ar + a2 r 2 + qrb2 )/b2 = P ∗ . Se
este valor é atribuı́do ao peso terminal p então a ERM admite uma solução
constante, e a lei ótima em malha fechada é invariante no tempo:
q
b a+ a2 + qb2 /r
u (t) = F x (t) = − P ∗ x∗ (t) = −
∗ ∗ ∗
r b
Usando a = −1, b = 1 e q = 1 pode-se avaliar a influência do peso r nas
soluções: q
1 − 1 + 1/r
u∗ (t) = F ∗ x∗ (t) =
b
∗
Plotando esta função e também x (t) para diversos valores de r:
CAPı́TULO 2. SOLUÇÃO DO PROBLEMA DO REGULADOR 33
∗
1.0 6x (t)
0.5 r=1
r=0.2
r=0.02
-
0.5 1.0
t
r=1
r=0.2
-2.5 r=0.02
-5.0
?
u∗ (t)
Desempenho em função do parâmetro r
A solução é v ∗ (t) = −R2−1 B T P ∗ (t)x∗ (t) = −(b/r)P ∗ (t)x∗ (t), onde P ∗ (t)
é solução da ERM
Ṗ (t) = −AT P (t) − P (t)A + P (t)Br −1 B T P (t) − 1
2
= br P 2 (t) − 2aP (t) − 1
P (1) = Pf = p
CAPı́TULO 2. SOLUÇÃO DO PROBLEMA DO REGULADOR 34
A solução geral da ERM para um caso escalar como este pode ser vista no
exemplo anterior. Para pesquisar a existência de uma solução F ∗ (t) cons-
tante basta estudar a ERMA: 0 = −aP − P a + P br −1 bP − 1 ou, arrumando
direitinho,
2ar r
P2 − 2 P − 2 = 0
b b
cujas raı́zes são facilmente encontradas. Como a solução que nos interessa
deve ser positiva definida escolheremos
q
∗
a+ a2 + b2 /r
P =r
b2
Usando r = 1000 encontrarı́amos P ∗ ≈ 0, 19. Isto significa que se fi-
zermos Pf = P ∗ = 0, 19 teremos F ∗ (t) = cte. Já havı́amos chegado a esta
mesma conclusão anteriormente, de uma maneira empı́rica.
2.5 Referências
O presente capı́tulo segue com alguma proximidade os desenvolvimentos de
[?]. Este material também poderia ser encontrado em várias outras fontes.
Capı́tulo 3
35
CAPı́TULO 3. HORIZONTE DE TEMPO INFINITO 36
minimizar o critério
Z ∞
I = I(u) = [z T (t)Qz(t) + uT (t)Ru(t)] dt
t0
onde Q > 0 e R > 0. Ou então, colocando z(t) = Dx(t), minimizar
Z ∞
I = I(u) = [xT (t)R1 x(t) + uT (t)R2 u(t)] dt
t0
onde R1 = D T QD ≥ 0 e R2 = R > 0.
A solução é conhecida:
lim P ∗ (t)
tf →∞
Alguns autores usam o nome “solução em regime da ERM” mas isto pode
levar a confusões com “valor de regime da solução da ERM” o qual é definido,
quando existe, como limt→∞ P ∗ (t) É bom deixar bem claro que quem está
tendendo a ∞ é o instante final do intervalo, tf , e não a variável independente
t. O objetivo então é o conhecimento de P∗∗ (t). Para ilustrar isso seja um
1 1 + 3 3p
3p
− 1 e4(t−tf )
+3
P ∗ (t) =
3 1− 3p − 1 4(t−tf )
3p + 3 e
Pondo p = 0 o efeito de tf poderá ser mais bem apreciado.
1 − e4(t−tf )
P ∗ (t) =
3 + e4(t−tf )
Na figura abaixo esboçamos alguns gráficos para diferentes valores de tf .
6
0.4
P ∗ (t)
0.3
0.2
tf = 1 tf = 5 tf = 9
0.1
-
5.0 10.0
t
Efeito de tf na solução da ERM
e a ERMA associada
CAPı́TULO 3. HORIZONTE DE TEMPO INFINITO 39
−AT X − XA + XBR2−1 B T X − R1 = 0
com o critério
Z tf
J = J(tf , u) = [xT (t)R1 x(t) + uT (t)R2 u(t)] dt + xT (tf )Pf x(tf )
t0
onde R1 ≥ 0, R2 > 0, Pf ≥ 0 e a Equação de Riccati matricial
Seja ainda
Este resultado é mais geral do que o anterior, embora forneça uma con-
dição apenas suficiente. Que podemos dizer da volta, do sentido inverso, ou
seja, que se pode garantir quando a solução de regime é constante?
CAPı́TULO 3. HORIZONTE DE TEMPO INFINITO 41
Este lema fornece uma condição suficiente para haver solução para a
ERMA, mas esta condição não é muito prática. Seria bom algo baseado
nas matrizes < A, B, D >.
Lema 3.3.5 Para haver uma única solução PSD da ERMA é suficiente que
o sistema seja estabilizável e detetável.
A + BF∗∗ é estável
estabilizável
com ⇐⇒ < A, B, D > é e
F∗∗ = R2−1 B T limtf →∞ P ∗(t) detetável
3. J ∗ = xT0 P∗∗x0
onde " #
2 1
R1 = ; e R2 = 1/2
1 4
Facilmente verificarı́amos que este sistema é controlável e observável; de
acordo com o algoritmo acima seja a ERMA (com o sinal trocado):
AT X + XA − XBR2−1 B T X + R1 = 0
A −BR2−1 B T
" #
0 0 0 −2
H= =
−R1 −AT −2 −1 0 0
−1 −4 −1 0
Esta matriz possui autovalores reais não nulos; seu subespaço dos modos
estáveis poderia ser descrito pelos autovetores associados aos autovalores “es-
táveis” de A:
0, 2110 0, 4968
−0, 5764 −0, 3637
−
X (H) =
−0, 0565 0, 8605
−0, 7874 −0, 1331
" #
2, 4641 1, 0000
=
1, 0000 1.7321
Deste ponto a realimentação de estados ótima sai facilmente:
Outros caminhos. . .
4.1 Referências
Este capı́tulo foi inspirado em [?]
46
Capı́tulo 5
Propriedades da Solução do
PRLOHTI
A solução desta equação homogênea dará origem às trajetórias ótimas x∗ (t)
e p∗ (t) desde que usemos as condições de contorno
47
CAPı́TULO 5. PROPRIEDADES DA SOLUÇÃO DO PRLOHTI 48
P ∗ (t) = cte. = P ∗ ∀t
AT X + XA − XBR2−1 B T X + R1 = 0
A −BR2−1 B T
" # " #
x(t)
xe (t) = ; Ae =
p(t) −R1 −AT
" #
A S
Ae = ∈H
T −AT
∆(λ) = ∆(−λ)
AT X + XA + XSX − T = 0
λ1 λn+1
λ2
λn+2
Λ⊕ = Λ⊖ =
..
..
.
.
λn λ2n
λ1
λ2
Λ⊕ = Λ; Λ⊖ = −Λ onde Λ =
..
.
λn
" #
qI
Particionando o vetor expandido x̃e como x̃e = teremos
qII
P ∗ = −V12−1 V11
Desenvolvendo:
"
e(t−t0 )Λ
" # #" #
x∗ (t) 0 V11 V12 x0
=W −(t−t0 )Λ
p∗ (t) P ∗ x0
0 e V21 V22
# "
(t−t0 )Λ
" # " #
∗
x (t) W11 W12 e 0 (V11 + V12 P ∗ )x0
=
p∗ (t) e−(t−t0 )Λ (V21 + V22 P ∗ )x0
W21 W22 0
Como V11 + V12 P ∗ = 0 temos
x∗ (t) = W12 e−(t−t0 )Λ (V21 + V22 P ∗ )x0
p∗ (t) = W e−(t−t0 )Λ (V + V P ∗ )x
22 21 22 0
Teorema 5.3.1 Suponha que < A, B > é estabilizável e que < D, A > é
detetável; suponha também que a matriz
A −BR2−1 B T
" #
Ae =
−R1 −AT
3. λ(A + BF ∗ ) ⊂ λ(Ae )
4. se Ae é diagonalizada como
" #
Λ 0
Ãe = = W −1 Ae W = V Ae V −1
0 −Λ
A −BR2−1 B T
" #
Ae =
−R1 −AT
CAPı́TULO 5. PROPRIEDADES DA SOLUÇÃO DO PRLOHTI 54
−1
4. P ∗ = W22 W12
5. u∗ = F ∗ x∗ = −R2−1 B T P ∗ x∗
−b −a −1 0
cujo polinômio caracterı́stico é dado abaixo, juntamente com suas raı́zes
√
a + a2 − 4 = k
2 1
4 2 2
∆(λ) = det(λI −Ae ) = λ − aλ + 1 =⇒ λ = √
a − a2 − 4
= k2
2
A partir daqui temos o espectro de Ae , seus autovetores e a matriz de
mudança de bases W :
q q q q
λ(Ae ) = { k1 , k2 , − k1 , − k2 } = {λ1 , λ2 , λ3 , λ4 }
1 1 1 1
λ1 λ2 λ3 λ4
W =
(λ1 3 −aλ1 −b) (λ2 3 −aλ2 −b) (λ3 3 −aλ3 −b) (λ4 3 −aλ4 −b)
−λ1 2 −λ2 2 −λ3 2 −λ4 2
−1
donde podemos extrair, lembrando a recente teoria, P ∗ = W22 W12 , resul-
tando
#−1
λ3 3 − aλ3 − b λ4 3 − aλ4 − b
" #"
1 1
P∗ =
−λ3 2 −λ4 2 λ3 λ4
−λ3 λ4 (λ3 + λ4 ) + b λ4 2 + λ4 λ3 + λ3 2 − a
" #
=
λ3 λ4 −(λ3 + λ4 )
Pronto! Ufa . . . É só efetuar os cálculos e teremos
" √ #
−b + a + 2 √ 1
X=
1 a+2
CAPı́TULO 5. PROPRIEDADES DA SOLUÇÃO DO PRLOHTI 57
como anteriormente, é lógico. Qual dos dois métodos é mais simples? Para
pegar a fera à unha, com a pura força das nossas munhecas, ambos pare-
cem desanimadoramente trabalhosos e a escolha mais razoável seria pedir
um computador, pois afinal é para isso mesmo que eles existem.
O controle ótimo propriamente dito será dado por u∗ (t) = F ∗ (t)x(t), onde
√
F ∗ (t) = −R2−1 B T X = [ −1 − a + 2 ]
Discussão da Solução
ou então
Z(s) = GF (s)U(s) + G′F (s)x0 ,
onde
SF
GF (s) = D(sI − A − BF ∗ )−1 B, e G′ (s) = D(sI − A − BF ∗ )−1
vemos que:
n(s) n(−s)
G(s) = GT (−s) =
d(s) d(−s)
1
= (−1)n d(s)d(−s) + n(−s)n(s)
r
CAPı́TULO 5. PROPRIEDADES DA SOLUÇÃO DO PRLOHTI 60
Supondo que
Qp
n(s) = k0 i=1 (s − νi )
k0 → ganho de G(s)
onde νi → zeros de G(s)
d(s) = ni=1 (s − πi ) πi → pólos de G(s)
Q
teremos
p
n(−s) = k0 (−1)p
Y
(s + νi )
i=1
n
d(−s) = (−1)n
Y
(s + πi )
i=1
e então
n p
k02
( )
∆e (s) = (−1)n n p
Y Y
(−1) (s − πi )(s + πi ) + (−1) (s − νi )(s + νi )
i=1 r i=1
n p
k02
( )
= (−1)2n p−n
Y Y
(s − πi )(s + πi ) + (−1) (s − νi )(s + νi )
i=1 r i=1
Isto pode ser escrito de outro modo, mais propı́cio às técnicas do método
do Lugar das Raı́zes:
Qp
(s − νi )(s + νi )
1 + (−1) n−p
K Qni=1 =0
i=1 (s − πi )(s + πi )
(j + 1/2)π
j = 0, 1, . . . , 2n − 2p − 1 para (n − p) par
n−p
6Im
@
@ r→∞
@
@
@
@
@
@
@ r→0
×- × e ×- e
@× ×- ×r→∞ -
@ Re
@
@
@
@
@
@
@
@
@
x(t0 ) = x0
ẋ(t) = Ax(t) + bu(t);
S
z(t) = dx(t)
ou então por Qp
(s − νi )
G(s) = d(sI − A) b = k0 Qni=1−1
i=1 (s − πi )
para o qual desejamos resolver o PRLOHTI, ou seja, para r > 0 minimizar
o critério
Z ∞
J= [z 2 (t) + ru2 (t)] dt
0
± n ℓπ
− p , ℓ = 0, 1, 2, . . . para n − p ı́mpar
(ℓ + 1/2)π
± n − p , ℓ = 0, 1, 2, . . . para n − p par
1
k02
!
2(n−p)
w0 =
r
B
S
S bb B
HH S B
H b
ordem 4 HHS ordem 5bb B
S
H bB
"
"
"
"
"
"
Configurações de Butterworth
regulador ótimo. Seja por exemplo um sistema com G(s) = n(s)/d(s). Após
a realimentação ótima u = F ∗ x + v teremos
Qp
nF (s) n(s) i=1 (s − νi )
GF (s) = = =
dF (s) dF (s) dF (s)
onde dF (s) é composta pelos autovalores de Ae .i upondo controle barato
teremos r → 0 e
p
Y n−p
Y
dF (s) ≈ (s − ν̂i ) (s − ηi w0 )
i=1 i=1
onde
νi se Re(νi ) ≤ 0
ν̂i =
−νi se Re(νi ) > 0
x(t0 ) = x0
ẋ(t) = Ax(t) + Bu(t);
S z(t) = Dx(t)
y(t) = Cx(t)
66
CAPı́TULO 6. PROJETO ÓTIMO DE OBSERVADORES 67
v(t0 ) = v 0
v̇(t) = Gv(t) + Hu(t) + Jy(t);
O
w(t) = Mv(t) + Ny(t)
-z
u -
S -
y
? ?
J N
? v̇ - R v ?
- H - +m - M - +m -w
6
H
T A − GT = JC (6.1)
TB = H (6.2)
MT + NC = In (6.3)
λ(G) ⊂ C− (6.4)
estima o estado da planta; faz também com que a escolha de H seja direta:
H = B. A equação 6.1 se reduz a
A − G = JC
e o problema todo se resume a encontrar uma matriz J de tal modo que
λ(G) = λ(A − JC) ⊂ C −
Mas este é um problema bem conhecido, e se houver observabilidade (ou
mesmo detetabilidade) do par < CA > pode ser facilmente resolvido. O
diagrama de blocos abaixo mostra essa possı́vel solução:
-z
u -
S -
y
?
J
ŷ
? v̇ - R v=w -
- B - +m
6
A − JC
-z
u -
S -
y
?
J
ŷ
? v̇ - R v=w -
- B - +m
6
+m A
−6
JC
-z
u -
S -
y
ŷ − JCv e ?
J +m
−
6
? v̇ - R v = w-
- B - +m C - ỹ = Cv
6
A
-z
u -
S -
y
û e ?
+m
−
6
? v̇ - R v = w-
- B - +m C - ỹ = Cv
6
A
O problema agora é achar û(·) tal que o sinal e(·) seja regulado de maneira
ótima. Isto signfica que e(t) → 0 de tal modo que o ı́ndice
Z ∞ h i
eT (t)Qe(t) + ûT (t)Rû(t) dt
0
onde R1 = C T QC ≥ 0 e R > 0.
Para que a teoria precedente possa ser aplicada devemos encontrar um
sistema para o qual ε(t) seja o estado e û seja a entrada. Vejamos:
ε̇ = ẇ − ẋ = Aw + Bu + û − Ax − Bu
= Aε + û
para o qual desejamos encontrar uma entrada û(·) que minimiza o ı́ndice
CAPı́TULO 6. PROJETO ÓTIMO DE OBSERVADORES 71
Z ∞ h i
εT (t)R1 ε(t) + ûT (t)R2 û(t) dt
0
onde R1 = C T QC ≥ 0 e R2 = R > 0.
A solução é conhecida:
AT X + XA − XR2−1 X + R1 = 0
ξ ν
? ?
u -
yc
-
S
ξ
ν
?
u- y ? yc
S - +j -
ξ - B′
ν
u ? x - y - ? yc
- - +j - +j -
R
B C
6
A
ξ ξ
u - +?
j - - u- ?
- +j - ...
B B
ξ - ′
B
ν
u- ? ẋ - R x - ? yc
B - +j C - +j -
6
A
e ?
J +j
−
6
? v̇ - R v = w-
- B - +j C - ỹ = Cv
6
A
ξ
ν
?
u- y ? yc ỹ
S - +j - F -
ξ
ν
?
u- y ? yc
S - +j -
?
- O -w
ξ
ν
?
u- y ? yc
S - +j -
?
J +j
6−
? v - ỹ
- - +j - -
R
B C
6
A
J = −P C T R−1
AP + P AT − P C T R−1 CP + BQB T = 0
CAPı́TULO 6. PROJETO ÓTIMO DE OBSERVADORES 79
Iniciada em out/nov/85;
tecada com poucos
detalhes a mais
em set/out/88
por
Afonso Celso Del Nero Gomes,
ajudado pela
Ângela.
Revista,
ampliada
e ilustrada
em jan/fev/mar/90.
Enriquecida em fins de 1991,
e em outubro/novembro de 1996,
e em outubro de 1999,
Finalmente pronta em . . . . . .
Logicamente
também houve muita
ajuda
dos que
seguem:
Apêndice A
Formas Quadráticas
Exemplo A.1.1
L1 = x1 + x2 − x3
L2 = 0, 5x1 − 7x2 + 0x3 − x4
x1
x2
L(x1 , x2 , . . . , xn ) = l1 x1 + l2 x2 + · · · + ln xn = [ l1 l2 · · · ln ] ..
.
xn
80
APÊNDICE A. FORMAS QUADRÁTICAS 81
l1 x1
l2
x2
L= .. x= ..
. .
ln xn
L(x1 , x2 , . . . , xn ) = L(x) = LT x
Exemplo A.1.3
Q1 = x21 + x1 x2 − 5x22
Q2 = x1 x3 − x2 x3 + 7x3 x1 − x24
Para obter uma notação alternativa compacta e elegante, como foi feito no
caso anterior, deve-se desenvolver a expressão da forma quadrática definida
acima e depois aplicar as regras do produto matricial. Ao trabalho.
Q(x1 , x2 , . . . , xn ) = Q(x) = xT Qx
onde, como já deve ter dado para perceber, o sı́mbolo M T denota a transposta
da matrix M.
Exemplo A.1.4
" #" #
1 1 x1
Q(x) = x21 + x1 x2 + x22 = [ x1 x2 ]
0 1 x2
Lembrando que o produto de reais é comutativo temos x1 x2 = x2 x1 e
também podemos exprimir a forma acima de outra maneira:
" #" #
1 0 x1
Q(x) = x21 + x2 x1 + x22 = [ x1 x2 ]
1 1 x2
Fato A.1.1 Uma forma quadrática Q(x) pode admitir várias representações
matriciais:
Q(x) = xT Q1 x = xT Q2 x = · · ·
É bom lembrar que, a partir disto:
xT Q1 x = xT Q2 x =⇒
6 Q1 = Q2
Prosseguindo, seja a forma quadrática:
A.3 Exercı́cios
1. As formas abaixo são do tipo xT Qx. Classificá-las quanto ao sinal.
Indicar, quando for o caso, as regiões IRn⊕ , IRn⊖ e IRn0 .
" #
1 −1
(a) Q =
−1 0
" #
1 −1
(b) Q =
−1 1
" #
1 −1/2
(c) Q =
−1/2 1
" #
0 −1
(d) Q =
−1 0
1 −1 0
(e) Q = −1 1 1
0 1 0
kxk = xT x = xT Ix
-
t
6
x2 ||x(t)||
6
rx0
2
- -
x1 t
APÊNDICE A. FORMAS QUADRÁTICAS 89
A.6 Exercı́cios
1. Sendo ẋ = Ax, traçar um gráfico para xT (t)Qx(t). A partir deste
gráfico é possı́vel dizer algo sobre a estabilidade do sistema? Use
0 1 0 1 1 1 0
A = 0 0 1 , x(0) = 1 , Q= 1 0 0
1 1 −1 1 0 0 1
1 1 1
2. Idem 1 para Q = 1 1 1
1 1 1
3. Seja a matriz simétrica Q > 0, com dimensão n × n. Sendo M uma
matriz inversı́vel, que se pode dizer de P = M −1 QM? será simétrica?
e o seu sinal?
6. Idem 4 para r = n
Fato A.8.6 A ≥ 0, B ≥ 0 ⇐⇒
6 AB ≥ 0
A ≥ 0 =⇒ Re(λ) ≥ 0
A > 0 =⇒ Re(λ) > 0
A simétrica =⇒ λ ∈ IR
A simétrica, A > 0 =⇒ λ ∈ IR, λ > 0
Definição A.8.1
√ A raiz quadrada
√ √ matricial
√ simétrica
√ de A ≥ 0, designada
por A1/2 ou A é tal que A A = A e A = ( A)T
√
Fato A.8.9 A = U T Λ1/2 U. Como U é não única a raiz quadrada matricial
simétrica é também não única.
A ≥ 0 e simétrica, B ≥ 0 e simétrica =⇒
6 ABsimétrica
Com isto:
A ≥ 0 e simétrica =⇒ kAk = λ(A)
A > 0 e simétrica =⇒ kA−1 k = (λ(A))−1
APÊNDICE A. FORMAS QUADRÁTICAS 92
" #" #
λI − A 0 I −(λI − A)−1 S
=
−T I 0 (λI + AT ) − T (λI − A)−1 S
∆H (λ) = det(λI − H)
n o
= δ(λ) det (λI + AT ) − T (λI − A)−1 S
n o
= δ(λ) det(λI + AT ) det I − T (λI − A)−1 S(λI + AT )−1
0 1 0 0
0 0 0 −1
H3 =
−1 0 0 0
0 −4, 25 −1 0
O cálculo dos autovalores forneceria os seguintes espectros:
MX − ⊂ X − MX + ⊂ X + X − ⊕ X + = IRk
1 2 0 −1
0 3 1 −2
m− (H1 ) = (H1 + I)2 =
−2 −1 1 0
1 −4 −2 −3
1 −2 0 −1
0 3 1 2
m+ (H1 ) = (H1 − I)2 =
2 −1 1 0
1 4 2 3
APÊNDICE A. FORMAS QUADRÁTICAS 96
1 0
0 1
X − (H1 ) = ker m− (H1 ) =
2 1
1 2
1 0
0 1
X + (H1 ) = ker m+ (H1 ) =
−2
1
1 −2
2 4
−4 −2
− −
X (H3 ) = ker m (H3 ) =
1
8
−8 −1
2 4
4 2
+ +
X (H3 ) = ker m (H3 ) =
−1 −8
−8 −1
outra matriz cujas colunas formam uma base para X − (H). Continuando
a supor complementaridade entre X − (H) e Xp temos que K1 é inversı́vel.
Mostraremos agora a relação entre K = K2 K1−1 e X = X2 X1−1 . Considere a
matriz
" #
X 1 K1
X 2 K2
AT X + XA + XSX − T = 0
X1−1 0
" # " #" #" #
−1 H11 H12 A S X1 0
Q HQ = = (A.6)
H21 H22 −X I T −AT X2 I
AT X + XA + XSX = T
A.10 Referências
O material deste capı́tulo pode ser considerado clássico, e é encontrável em
um grande número de textos e artigos, como por exemplo [?], [?], [?], [?], e
[?]. Muitos outros há, mas estes foram os mais consultados.
Apêndice B
Análise no IRn
f : IRn −→ IR
x ∈ IRn 7→ y = f (x) ∈ IR
Quando n = 1 a função pode ser visualizada por meio dos gráficos tra-
dicionais; quando n = 2 a função f se associa a superfı́cies do IR3 . Para
dimensões maiores a visualização fica prejudicada. No caso de n = 2 o uso
das curvas de nı́vel permite a análise no plano de uma superfı́cie espacial e
facilita as coisas.
n o
Curva de nı́vel = x ∈ IR2 | f (x) = c = cte.
101
APÊNDICE B. ANÁLISE NO IRN 102
f (x) = cT x + b
onde c, b ∈ IRn .
Exemplo B.4.2 A função f (x) = max{|x1 |, |x2 |} tem problemas nos can-
tos.
∇f (x) = Ax + b, e ∇2 f (x) = A
B.8 Otimização
Em uma relação de causa e efeito, estamos sempre interessados em descobrir
efeitos nobres ou especiais: quem os causa? como são caracterizados? Este
é um problema prático muito comum. Para os seres humanos, os efeitos
nobres ou especiais são, em geral, os efeitos extremos: procura-se sempre
efeitos máximos ou mı́nimos. Como em termos matemáticos as relações de
causa e efeito são descritas por funções, percebe-se a enorme importância do
problema de se otimizar funções, ou seja, de se encontrar os seus extremos.
APÊNDICE B. ANÁLISE NO IRN 106
minimizarf (x)
x ∈ IRn
s.a.
ci (x) = 0 i = 1, 2, . . . k
ci (x) ≥ 0 i = k + 1, . . . m
A busca de soluções do PGO baseada apenas nas definições acima pode ser
impraticável, a menos de casos muito especiais com Regiões Viáveis pequenas.
Precisamos de mais teoria. Esta teoria passa a ser apresentada agora, a
partir dos casos mais simples. De um modo geral ela se aplica quando as
funções objetivo e as restrições são suficientemente suaves. Entenderemos
que uma função é suficientemente suave quando for diferenciável pelo menos
duas vezes.
minimizarf (x)
x ∈ IR
1. f ′ (x∗ ) = 0
2. f ′′ (x∗ ) ≥ 0
Este teorema diz que os mı́nimos locais de uma função são pontos es-
tacionários dela, e além disso a derivada segunda é não negativa neles. Se
procuramos as soluções do PGO, este resultado restringe o universo da busca
aos pontos estacionários com segundas derivadas não negativas. Para efeti-
vamente garantir pontos deste universo solucionam o PGO precisamos de
outro resultado:
2. f ′′ (x∗ ) > 0
Então x∗ será um mı́nimo local forte de f .
2. ∇2 f (x∗ ) = G(x∗ ) ≥ 0
APÊNDICE B. ANÁLISE NO IRN 109
Mais uma vez os mı́nimos locais são pontos estacionários de uma função,
onde a derivada segunda é não negativa. Como antes, as CNO restringem o
universo da busca de soluções, mas para garantir que pontos deste universo
reduzido realmente solucionam o PGO precisamos das CSO:
∇q(x) = Ax + b
APÊNDICE B. ANÁLISE NO IRN 110
∇2 q(x) = A
∇q(x) = 0 ⇐⇒ Ax = −b
Cada um dos pontos desta reta no IR2 é um mı́nimo local fraco. Esta
reta é também a direção dos autovetores associados ao autovalor λ1 = 0. Ao
outro autovalor, λ2 = 5, associa-se a direção [2 1]T . A superfı́cie de q é do
tipo calha.
APÊNDICE B. ANÁLISE NO IRN 112
minimizarf (x)
x ∈ IRn
s.a.
ci (x) = 0 i = 1, 2, . . . k
ci (x) ≥ 0 i = k + 1, . . . m
Quando as restrições ci (x) são funções lineares temos ci (x) = aTi (x) + βi ,
onde ai ∈ IRn e βi ∈ IR. As restrições de igualdade ficam
e as de desiguldade:
v + p ∈ RV ⇐⇒ Âp = 0
1
f (x∗ + ǫp) = f (x∗ ) + ǫpT ∇f (x∗ ) + ǫ2 pT ∇2 f (x∗ )p + · · ·
2
1
= f (x ) + ǫpz Z g(x ) + ǫ2 pTz Z T G(x∗ )Zpz + · · ·
∗ T T ∗
2
Considerando valores pequenos de ǫ poderı́amos estabelecer
A primeira das condições acima, bastante óbvia, diz que as soluções devem
ser viáveis. A condição seguinte é a condição do gradiente, ou de primeira
ordem. A grandeza Z T g(x) é chamada de gradiente projetado de f em
x. Pontos nos quais o gradiente projetado se anula são chamados de pontos
estacionários com restrições. Também neste caso com restrições há um
gradiente que deve se anular. Raciocinemos. A matriz Z, por definição, é tal
que ÂZ = 0 ou, equivalentemente, Z T ÂT = 0. Como o gradiente projetado
se anula na solução, devemos ter Z T g(x∗ ) = 0 o que garante que o gradiente
“simples” g(x∗ ) é uma combinação linear das colunas de ÂT :
λ∗1
T ∗ T
λ∗2
Z g(x ) = 0 =⇒ Â ..
.
λ∗m
Os coeficientes λ∗i são os multiplicadores de Lagrange. Estes multi-
plicadores permitem a formulação do resultado acima de maneira diferente:
APÊNDICE B. ANÁLISE NO IRN 115
1. Âx∗ = b̂
3. Z T G(x∗ )Z ≥ 0
1. Âx∗ = b̂
3. Z T G(x∗ )Z > 0
( " # " #
(1 1)x = 1 1 1 1
ou x=
(2 1)x = −2 2 1 −2
cuja única solução é [−3 4]T . Aplicando as CSO neste candidato (basta apli-
car a terceira delas, porque as outras automaticamente se verificam) temos
" #" #
T ∗ 5 3 1
Z G(x )Z = [1 − 1] =1>0
3 2 −1
cuja única solução é [2/3 2/3]T . Aplicando as CSO neste candidato (basta
aplicar a terceira delas, porque as outras automaticamente se verificam) te-
mos
" #" #
T ∗ 4 2 1
Z G(x )Z = [1 1] =9>0
2 1 1
" #
3 −1
1 T
f (x) = x x + 21 [−1 17]x
2 −1 −8
s.a. : âx = [1 − 1]x = −1/2
cuja única solução é [1/2 1]T , exatamente o ponto de sela anterior. Apli-
cando as CSO neste candidato (basta aplicar a terceira delas, porque as outras
automaticamente se verificam) temos
" #" #
T ∗ 3 −1 1
Z G(x )Z = [1 1] = −7 < 0
−1 −8 1
Não se pode concluir que este ponto seja uma solução do problema. Na
realidade ele soluciona o problema de se encontrar o máximo de f com as
restrições dadas. Os leitores são convidados a repetir estes cálculos (desta
última f ) para as seguintes restrições:
1. [1 2]x = 3/2
2. [1 − 2]x = −3/2
3. [1 2]x = 0
minimizarf (x)
x ∈ IRn
s.a.
Ax ≥ b
onde A é uma matriz m × n cujas linhas são as restrições aTi e b ∈ IRm tem
como elementos os bi .
..
.
1. Ax∗ ≥ b; Âx∗ = b̂
3. λ∗i ≥ 0, ∀i = 1, 2, . . . m
4. Z T G(x∗ )Z ≥ 0
1. Ax∗ ≥ b; Âx∗ = b̂
3. λ∗i ≥ 0, ∀i = 1, 2, . . . m
4. Z T G(x∗ )Z > 0
..
.
1. Ĉ(x) = 0
1. Ĉ(x) = 0
..
.
1. C(x∗ ) ≥ 0; Ĉ(x) = 0
3. λ∗i ≥ 0; i = 1, 2, . . . t
1. C(x∗ ) ≥ 0; Ĉ(x) = 0
3. λ∗i > 0; i = 1, 2, . . . t
B.25 Referências
O material deste capı́tulo pode ser considerado clássico, e é encontrável em
um grande número de textos e artigos, como por exemplo [?], [?], [?], [?], [?]
e [?]. Muitos outros há, mas estes foram os mais consultados.