Вы находитесь на странице: 1из 128

Controle Linear Quadrático

Caso Determinı́stico

Notas de aula para


um curso de
Otimização e Controle Ótimo

COPPE-UFRJ

esboçado em 1985
refeito e impresso no 2.o semestre de 1988
revisto, ampliado e ilustrado em fevereiro-março de 1989
revisto e enriquecido em fins de 1991
aperfeiçoado ainda uma vez em outubro de 1996
análise no IRn e otimização em outubro-novembro de 1997
revisto, reformatado e enriquecido em 10,11/1999
Sumário

1 Problemas Tı́picos de Controle 1


1.1 Problema das condições terminais . . . . . . . . . . . . . . . . 2
1.2 Anulando z(tf ): Problema do Regulador Terminal . . . . . . . 3
1.3 Comportamento Funcional em um Intervalo . . . . . . . . . . 4
1.4 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.5 Problema do Regulador Funcional . . . . . . . . . . . . . . . . 7
1.6 Regulador Linear Ótimo Determinı́stico . . . . . . . . . . . . . 8
1.7 Regulador Linear Ótimo Determinı́stico Fixo . . . . . . . . . . 9
1.8 Exercı́cios, ainda . . . . . . . . . . . . . . . . . . . . . . . . . 12

2 Solução do Problema do Regulador 15


2.1 Solução pelo Cálculo das Variações . . . . . . . . . . . . . . . 16
2.2 Equações Variacionais . . . . . . . . . . . . . . . . . . . . . . 19
2.2.1 Em resumo: . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3 Busca de Caminhos Mais Simples . . . . . . . . . . . . . . . . 27
2.4 Equação de Riccati Matricial . . . . . . . . . . . . . . . . . . . 29
2.5 Referências . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

3 Horizonte de Tempo Infinito 35


3.1 Discussão do Problema . . . . . . . . . . . . . . . . . . . . . . 35
3.2 Solução Para o PRLOHTI . . . . . . . . . . . . . . . . . . . . 36
3.2.1 Solução da ERM quando tf → ∞ . . . . . . . . . . . . 37
3.2.2 Pequena Generalização . . . . . . . . . . . . . . . . . . 38
3.3 Um Pouco de Teoria . . . . . . . . . . . . . . . . . . . . . . . 39
3.4 Solução para o PRLOHTI . . . . . . . . . . . . . . . . . . . . 42
3.5 Algoritmo para Solução do PRLOHTI . . . . . . . . . . . . . 42
3.6 Que Acontece se a Condição Falha? . . . . . . . . . . . . . . . 44
3.7 Controlabilidade e Observabilidade . . . . . . . . . . . . . . . 44
3.8 Comentários e Referências . . . . . . . . . . . . . . . . . . . . 44

i
SUMÁRIO ii

4 Outros caminhos. . . 46
4.1 Referências . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

5 Propriedades da Solução do PRLOHTI 47


5.1 Retomando o pé . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.2 Encontrando a solução da ERMA . . . . . . . . . . . . . . . . 48
5.3 Um caminho alternativo . . . . . . . . . . . . . . . . . . . . . 50
5.4 Que Acontece aos Pólos? . . . . . . . . . . . . . . . . . . . . . 58
5.5 Resumo Teórico . . . . . . . . . . . . . . . . . . . . . . . . . . 62
5.6 Discussão dos Resultados . . . . . . . . . . . . . . . . . . . . . 63
5.6.1 Caso do Controle Barato, r pequeno. . . . . . . . . . . 63
5.6.2 Caso do Controle Caro, r → ∞. . . . . . . . . . . . . . 65

6 Projeto Ótimo de Observadores 66


6.1 Observadores Assintóticos de Estados . . . . . . . . . . . . . . 66
6.2 Problema do estimador aberto . . . . . . . . . . . . . . . . . . 69
6.3 O verdadeiro problema . . . . . . . . . . . . . . . . . . . . . . 71
6.4 Estimadores e Filtros . . . . . . . . . . . . . . . . . . . . . . . 75
6.5 Médias e correlações de sinais . . . . . . . . . . . . . . . . . . 77
6.5.1 Valor médio de um sinal . . . . . . . . . . . . . . . . . 77
6.5.2 Valor médio quadrático de um sinal . . . . . . . . . . . 77
6.5.3 Variância de um sinal . . . . . . . . . . . . . . . . . . . 77
6.5.4 Autocorrelação de um sinal . . . . . . . . . . . . . . . 77
6.5.5 Correlação cruzada entre dois sinais . . . . . . . . . . . 77
6.5.6 Densidade espectral de um sinal . . . . . . . . . . . . . 77
6.6 Variáveis aleatórias . . . . . . . . . . . . . . . . . . . . . . . . 77
6.6.1 Probabilidades . . . . . . . . . . . . . . . . . . . . . . 77
6.6.2 Valor médio . . . . . . . . . . . . . . . . . . . . . . . . 77
6.6.3 Variância . . . . . . . . . . . . . . . . . . . . . . . . . 77
6.6.4 Covariância entre x e y . . . . . . . . . . . . . . . . . . 77
6.6.5 Função distribuição de probabilidade . . . . . . . . . . 77
6.6.6 Função densidade de probabilidade . . . . . . . . . . . 77
6.6.7 Média . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
6.6.8 Valor médio quadrático . . . . . . . . . . . . . . . . . . 77
6.6.9 Variância e covariância . . . . . . . . . . . . . . . . . . 77
6.6.10 Distribuição uniforme . . . . . . . . . . . . . . . . . . . 77
6.6.11 Distribuição normal . . . . . . . . . . . . . . . . . . . . 77
6.7 Processos aleatórios ou estocásticos . . . . . . . . . . . . . . . 77
6.7.1 Ruı́do branco . . . . . . . . . . . . . . . . . . . . . . . 77
6.7.2 Processo gaussiano . . . . . . . . . . . . . . . . . . . . 77
6.7.3 Processo estocástico estacionário . . . . . . . . . . . . 77
SUMÁRIO iii

6.7.4 Processo estocástico ergódico . . . . . . . . . . . . . . 77


6.7.5 Sistemas Lineares . . . . . . . . . . . . . . . . . . . . . 77
6.7.6 Matriz de autocorrelação . . . . . . . . . . . . . . . . . 77
6.8 Formulação e solução . . . . . . . . . . . . . . . . . . . . . . 77

A Formas Quadráticas 80
A.1 Formas Lineares e Quadráticas . . . . . . . . . . . . . . . . . . 80
A.2 Sinal da Forma . . . . . . . . . . . . . . . . . . . . . . . . . . 84
A.3 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
A.4 Critérios de definição . . . . . . . . . . . . . . . . . . . . . . . 86
A.5 Normas, Métricas e “Tamanho” . . . . . . . . . . . . . . . . . 87
A.6 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
A.7 Visão Geométrica das Formas Quadráticas . . . . . . . . . . . 89
A.8 Miscelânea de Fórmulas . . . . . . . . . . . . . . . . . . . . . 90
A.9 Matrizes Hamiltonianas . . . . . . . . . . . . . . . . . . . . . 92
A.10 Referências . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100

B Análise no IRn 101


B.1 Função Real de variável vetorial . . . . . . . . . . . . . . . . . 101
B.2 Continuidade e Derivadas . . . . . . . . . . . . . . . . . . . . 102
B.3 Derivada: caso escalar . . . . . . . . . . . . . . . . . . . . . . 102
B.3.1 Derivadas laterais . . . . . . . . . . . . . . . . . . . . . 103
B.4 Derivada: caso vetorial . . . . . . . . . . . . . . . . . . . . . . 103
B.5 Derivadas de ordem superior . . . . . . . . . . . . . . . . . . . 104
B.6 Funções Vetoriais de Variáveis Vetoriais . . . . . . . . . . . . . 105
B.7 Pontos Estacionários e Extremos . . . . . . . . . . . . . . . . 105
B.8 Otimização . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
B.9 PGO — Problema Geral de Otimização . . . . . . . . . . . . . 106
B.10 Pontos Viáveis . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
B.11 Solução do PGO . . . . . . . . . . . . . . . . . . . . . . . . . 106
B.12 Caso Escalar sem Restrições . . . . . . . . . . . . . . . . . . . 107
B.13 Caso Vetorial sem Restrições . . . . . . . . . . . . . . . . . . . 108
B.14 Funções Quadráticas . . . . . . . . . . . . . . . . . . . . . . . 109
B.15 Restrições Lineares . . . . . . . . . . . . . . . . . . . . . . . . 112
B.16 PGO com Restrições Lineares de Igualdade . . . . . . . . . . . 113
B.17 PGO com Restrições Lineares de Desigualdade . . . . . . . . . 117
B.17.1 Estudo da Região Viável . . . . . . . . . . . . . . . . . 118
B.18 Programação Linear . . . . . . . . . . . . . . . . . . . . . . . 119
B.19 PGO com Restrições Não-Lineares de Igualdade . . . . . . . . 119
B.20 PGO com Restrições Não-Lineares de Desigualdade . . . . . . 120
B.21 Métodos Numéricos . . . . . . . . . . . . . . . . . . . . . . . . 121
SUMÁRIO iv

B.22 Caso Escalar: Obtenção de Raı́zes . . . . . . . . . . . . . . . . 121


B.22.1 Método da Bisecção . . . . . . . . . . . . . . . . . . . 121
B.22.2 Método de Newton . . . . . . . . . . . . . . . . . . . . 121
B.22.3 Método da Secante . . . . . . . . . . . . . . . . . . . . 121
B.22.4 Método da Regula Falsa . . . . . . . . . . . . . . . . . 122
B.22.5 Método de Interpolações Superiores . . . . . . . . . . . 122
B.22.6 Método Geral dos Intervalos . . . . . . . . . . . . . . . 122
B.22.7 Método Garantidos . . . . . . . . . . . . . . . . . . . . 122
B.23 Caso Escalar sem Restrições: Obtenção de mı́nimos . . . . . . 122
B.23.1 Busca de Fibonacci . . . . . . . . . . . . . . . . . . . . 122
B.23.2 Busca Áurea . . . . . . . . . . . . . . . . . . . . . . . . 122
B.23.3 Interpolação Polinomial . . . . . . . . . . . . . . . . . 122
B.23.4 Aproximações Cúbicas . . . . . . . . . . . . . . . . . . 122
B.23.5 Métodos Garantidos . . . . . . . . . . . . . . . . . . . 122
B.24 Caso Vetorial sem Restrições: Obtenção de mı́nimos . . . . . . 122
B.24.1 Métodos de Busca Direta . . . . . . . . . . . . . . . . . 122
B.24.2 Algoritmo do Politopo . . . . . . . . . . . . . . . . . . 122
B.24.3 Algoritmo U . . . . . . . . . . . . . . . . . . . . . . . . 122
B.24.4 Métodos dp Gradiente e da Derivada Segunda . . . . . 122
B.24.5 Método de Newton . . . . . . . . . . . . . . . . . . . . 122
B.24.6 Métodos da Decomposição Espectral . . . . . . . . . . 122
B.24.7 Métodos de Primeira Ordem . . . . . . . . . . . . . . . 122
B.24.8 Métodos Não Derivativos . . . . . . . . . . . . . . . . . 123
B.24.9 Problema dos Mı́nimos Quadrados . . . . . . . . . . . 123
B.25 Referências . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
Capı́tulo 1

Problemas Tı́picos de Controle

Consideremos inicialmente o sistema linear variante no tempo S descrito


pelas seguintes equações dinâmicas, válidas ∀t ∈ IR :

x(t0 ) = x0


ẋ(t) = A(t)x(t) + B(t)u(t);
S z(t) = D(t)x(t)
y(t) = C(t)x(t)

onde x(t) é um vetor de dimensão n representando o estado do sistema no


instante t; u(t) é a entrada, no instante t, com dimensão m; z(·) representa a
particular combinação das variáveis de estado que queremos controlar, com
z(t) ∈ IRp simbolizando o valor de z(·) em t. Finalmente, y(·) representa a
combinação das variáveis de estado que podemos medir efetivamente e que
deve ser usada para implementar a lei de controle; o vetor r-dimensional y(t)
tem o significado usual, exprimindo o valor em t da grandeza y(·).

u - z
- SISTEMA S
y

?
 CONTROLADOR

Esta formulação é bastante geral pois, além de condiderarmos saı́das de


duas naturezas diferentes, o modelo empregado é variante no tempo. Após
este inı́cio mais geral, logo recairemos no caso linear e invariante no tempo.

1
CAPı́TULO 1. PROBLEMAS Tı́PICOS DE CONTROLE 2

1.1 Problema das condições terminais


Este primeiro problema pode ser formulado da seguinte maneira:

Para o sistema S acima, sendo especificado um instante de tempo


tf > t0 e um vetor z ∗ ∈ IRp , gostarı́amos de fazer com que z(tf )
se aproximasse o máximo possı́vel de z ∗ .

Para uma formulação alternativa deste problema, usando sı́mbolos ma-


temáticos, devemos definir um sinal de erro e(t) que deve ser minimizado:
sendo e(t) = z(t) − z ∗ , encontrar u(·) de modo que e(tf ) seja mı́nimo. Ou
seja, queremos minimizar e(tf ), mas isto é um vetor! Podemos transformar
o problema em um problema de minimizar um escalar:

Encontrar u(·) ∋ ke(tf )k = eT (tf )e(tf ) seja mı́nimo.

O sı́mbolo ∋ deve ser entendido como “tal que”. Se há mais interesse em
algumas componentes do que em outras podemos ponderar o vetor e(tf ) por
meio de uma forma quadrática:

Encontrar u(·) ∋ eT (tf )Qe(tf ) seja mı́nimo, onde Q > 0.

E desta maneira o nosso problema está formulado, de várias maneiras


diversas. Mas é bom manter em mente que propor problemas é apenas uma
face da moeda. Muito mais importante e gratificante do que isso é, quando
possı́vel, encontrar as soluções dos problemas propostos . . . Chegaremos lá,
certamente, mas antes disso é necessário continuar acertando detalhes da
formulação. O primeiro passo no ataque de problemas como o desta seção,
por exemplo, é transformá-los em problemas de aproximar a saı́da de zero,
ao invés de um dado valor z ∗ . Para entender como, seja uma variável p(t)
definida por p(t) = z ∗ ∀t. Obviamente isto significa que ṗ(t) = 0 ∀t. Temos
assim mais uma equação dinâmica para representar o sistema, e o modelo
global seria:
ẋ(t) = A(t)x(t) + B(t)u(t) x(t0 ) = x0



ṗ(t) = 0 p(t0 ) = z ∗


S


 z(t) = D(t)x(t)
y(t) = C(t)x(t)

Para apresentar estas equações de maneira mais condensada podemos


considerar o estado expandido
" #
x(t)
xe (t) =
p(t)
CAPı́TULO 1. PROBLEMAS Tı́PICOS DE CONTROLE 3

que permitirá escrever


xe (t0 ) = x0e


 ẋe(t) = Ae (t)xe (t) + Be (t)u(t);
S e(t) = De (t)xe (t)
y(t) = Ce (t)xe (t)

onde as matrizes expandidas Ae , etc. são dadas por


" # " # " #
A 0 B x0
Ae = , Be = , x0e =
0 0 0 z∗

De = [ D −I ] Ce = [ C 0 ]
Vemos assim que o problema de aproximar a saı́da de um dado valor
sempre pode ser substituı́do pelo problema de aproximá-la de zero, desde
que façamos as necessárias substituições. Então, ao invés de estudar este
problema das condições terminais na forma descrita acima, passaremos a
estudar um problema mais geral:

1.2 Anulando z(tf ): Problema do Regulador


Terminal
Para o sistema com o qual estamos trabalhando, abaixo reescrito para a
comodidade do leitor, queremos fazer com que z(tf ) assuma o menor valor
possı́vel:
(
ẋ(t) = A(t)x(t) + B(t)u(t); x(t0 ) = x0
S
z(t) = D(t)x(t)
Evitamos o problema de minimização vetorial procedendo como anteri-
ormente: procurando u(·) ∋ kz(tf )k = z T (tf )z(tf ) seja mı́nimo. Para tornar
mais geral, podemos usar uma forma quadrática positiva definida. Deste
modo, sendo Q uma matriz (p × p) positiva definida, o problema fica
Encontrar u(·) ∋ J = z T (tf )Qz(tf ) seja mı́nimo.
Lembrando que z(t) = D(t)x(t) podemos exprimir J em termos do estado
e não da saı́da:
J = xT (tf )D T (tf )QD(tf )x(tf ) = xT (tf )P x(tf )
onde P = D T (tf )QD(tf ) é uma matriz (n × n) positiva semidefinida (por
que, leitores? talvez seja bom revisitar a seção A.6). A partir deste ponto
podemos chegar à formulação mais geral deste problema:
CAPı́TULO 1. PROBLEMAS Tı́PICOS DE CONTROLE 4

Encontrar u(·) ∋ J = xT (tf )P x(tf ) seja mı́nimo, onde P ≥ 0.

E útil notar que minimizar o estado terminal implica em minimizar a


saı́da terminal, mas a recı́proca não é verdadeira, como mostra o

Exemplo 1.2.1 Para tf → ∞, sendo x(t) = [e−t et ]T , e z(t) = [1 0]x(t),


verificamos que é impossı́vel minimizar x(tf ), pois as trajetórias x(·) crescem
indefinidamente, mas no entanto z(tf ) = 0, pois z(·) tende à origem, e menor
do que isto não dá!

É bom manter sempre em mente esta diferença. Vejamos o que se pode


dizer quanto à existência de soluções para o problema acima descrito. É
lógico que se há controlabilidade conseguiremos fazer qualquer coisa com o
estado, inclusive levá-lo até a origem em tf . Assim,

S controlável =⇒ existe solução com x(tf ) = 0, ou seja, Jmin = 0.

Para o caso S incontrolável devemos ter paciência e esperar um pouco


mais pela solução.

1.3 Comportamento Funcional em um Inter-


valo
Problemas terminais como os acima
descritos tem pouca utilidade na
prática: podemos ter z(tf ) e x(tf ) 6
aceitáveis mas comportamentos
transitórios ruins. No mundo
real, além dos valores finais
ou terminais ou pontuais, o
que acontece antes deles,
ou seja, o comportamento
- t
transitório, é de crucial
importância. Assim sendo t0 tf
podemos definir este novo problema:

Para o sistema acima, sendo especificados t0 ≥ 0 e tf > t0 , gos-


tarı́amos de fazer com que z(·) tenha um comportamento tran-
sitório adequado, isto é, z(t) satisfaça certos requisitos em todos
os pontos t tais que t0 ≤ t ≤ tf .
CAPı́TULO 1. PROBLEMAS Tı́PICOS DE CONTROLE 5

Na prática, a frase “comportamento adequado” significa que as variáveis


tem valores pequenos, estão o mais próximo possı́vel de zero. Deste modo
um enunciado alternativo para o problema seria

Encontrar u(·) ∋ z(t) está próximo de 0 ∀t ∈ [t0 tf ]

Para transformar em um problema escalar usamos a idéias de norma ou,


mais geral, uma forma quadrática :

Encontrar u(·) ∋ z T (t)Q(t)z(t) está próximo de 0 ∀t ∈ [t0 tf ]

Temos agora a função escalar z T (t)Q(t)z(t) cujo comportamento deve


“estar próximo de 0” em todos os instantes do intervalo [t0 tf ]. Esta colocação
ainda é bastante vaga e pode gerar dúvidas. Qual, por exemplo, dentre as
curvas abaixo seria considerada a melhor de acordo com este critério?
6

-
t0 tf t
A área sob uma curva dá uma boa idéia da “proximidade” de 0 da função
durante o intervalo, e assim podemos escrever
Rt
Encontrar u(·) ∋ J = tf z T (t)Q(t)z(t) dt seja mı́nimo.
0

Esta é a formulação matemática mais perfeita para este problema, res-


tando apenas um pequeno detalhe: como escolher Q?
Rt
Exemplo 1.3.1 Seja J = tf z T (t)Q(t)z(t) dt, onde
0
6z2
" #
1 −1
Q(t) = e 
−1 1
" #
et z0
z(t) = -
et z1
É fácil ver que z T (t)Q(t)z(t) = 0 ∀t, ou seja, J = 0 e é consequentemente
mı́nimo. E no entanto z(t) → ∞. Isto é algo que devemos evitar. Por
que ocorre? Porque a matriz Q escolhida é apenas semidefinida positiva, e
podemos ter z T (t)Q(t)z(t) = 0 sem que z(t) = 0. No caso especı́fico deste
exemplo, xT Qx = 0 sempre que as componentes x1 e x2 de x forem iguais.
CAPı́TULO 1. PROBLEMAS Tı́PICOS DE CONTROLE 6

Para matrizes Q ≥ 0 os movimentos em algumas direções serão repre-


sentados por 0: elas são incapazes de traduzir movimentos ocorrendo nessas
regiões. Com isto em mente já temos algo útil para a escolha da matriz Q
no problema em estudo. Ele ficaria:
Rt
Sendo Q(t) > 0 ∀t ∈ [t0 tf ], minimizar J = tf z T (t)Q(t)z(t) dt
0

Mais à frente veremos outros detalhes sobre como escolher a matriz de


ponderação Q. Por ora, lembrando que z(t) = D(t)x(t) podemos expressar
o problema de minimização acima em termos do estado e não da saı́da:
Rt
Com P (t) = D T (t)Q(t)D(t) ≥ 0 ∀t ∈ [t0 tf ], min J = tf xT (t)P (t)x(t) dt
0

Especulemos um pouco sobre a solução deste problema. Se S é con-


trolável deve haver solução, pois podemos fazer qualquer coisa com o estado
e, consequentemente, podemos impor a xT (t)P (t)x(t) o comportamento que
quisermos. E assim é. Sendo S controlável a tarefa de minimizar J parece
fácil. Podemos até pensar no seguinte:

? - -
t0 tf t
Ou seja, entre t−
0 e t+
0realizamos uma transferência instantânea até a
origem e depois lá mantemos o estado. Havendo controlabilidade até isto é
possı́vel! Precisarı́amos entretanto de impulsos unitários e suas derivadas na
entrada, e infelizmente isto é inviável na prática.

1.4 Exercı́cios
.
1. Para o Sistema Linear Invariante no Tempo x (t) = Ax(t) + Bu(t)
com rank(B) = m = número de colunas de B, seja x(0− ) = x0 . En-
contrar a entrada u que deve ser aplicada para que o estado seja ins-
tantaneamente transferido para a origem e lá permaneça: x(0+ ) = 0 e
x(t) = 0 ∀t > 0
CAPı́TULO 1. PROBLEMAS Tı́PICOS DE CONTROLE 7

1.5 Problema do Regulador Funcional


Voltando ao problema anterior para um apanhado geral, é fácil ver que po-
demos associar o valor de J às amplitudes da saı́da, e também à rapidez com
que ela se aproxima de zero.

-
t0 tf t
O ı́ndice J mede duas coisas: o comportamento da saı́da z em termos de
amplitudes e a rapidez com que este sinal se aproxima de zero:
(
amplitudes pequenas ∀t
J pequeno =⇒
aproximação rápida de zero
Desta maneira, minimizar J é uma tarefa duplamente benvinda. Há no
entanto alguns perigos pois, como já deve ter dado para perceber, quando
J diminui as amplitudes de u aumentam. Isto mostra que este problema,
como formulado até agora, não tem grande sentido prático, e deve ser refor-
mulado. Além de minimizar J gostarı́amos também que u(·) fosse pequeno.
Ao trabalho pois, com vontade. A nova idéia pode ser resumida:

encontrar u(·) ∋ J é mı́nimo e u(t) é “pequeno” ∀t ∈ [t0 tf ]


ou então, tornando o segundo quesito mais preciso:
J é mı́nimo
(
encontrar u(·) ∋ R tf T
t u (t)R(t)u(t) dt é mı́nimo
0

Minimizar duas coisas separadamente é a mesma coisa que minimizar a


sua soma, desde que estas coisas sejam positivas. Como este é precisamente o
nosso caso, podemos reformular este problema de uma maneira mais simples
e direta:

Encontrar u(·) tal que


Z tf
J= [z T (t)Q(t)z(t) + uT (t)R(t)u(t)] dt é mı́nimo
t0

onde Q(t) > 0 ∀t ∈ [t0 tf ] e R(t) > 0 ∀t ∈ [t0 tf ]


CAPı́TULO 1. PROBLEMAS Tı́PICOS DE CONTROLE 8

Esta é uma maneira cômoda e elegante de impor comportamento aceitável


e rapidez de convergência tanto para z(·) como para u(·), e formulações deste
tipo já apresentam aplicabilidade prática muito grande. Como nos outros
casos dá para perceber que também aqui a controlabilidade tem muito a ver
com a existência de solução. Mais tarde veremos isso. Por ora, um outro
aspecto precisa ser encarado:
Suponhamos que para um dado sistema
S uma entrada uI acarreta saı́da zI 6
e ı́ndice JI . Para uma outra en-
trada uII terı́amos zII e JII . I
Suponhamos ainda que
kzI (tf )k < kzII (tf )k
II
Pode perfeitamente ser -
que JII < JI e no entanto t0 tf t
as condições terminais são piores.
Como nada foi dito a esse respeito, escolherı́amos JII e pronto. Este arrazo-
ado nos leva de maneira natural a estabelecer o seguinte

Fato 1.5.1 Melhorar o comportamento funcional das variáveis z e u não


implica necessariamente em melhorar também o comportamento terminal.

Vemos assim que esta formulação ainda admite aperfeiçoamento: ela deve
ser ampliada para levar em conta as condições terminais.

1.6 Regulador Linear Ótimo Determinı́stico


Além de um bom comportamento funcional das variáveis z e u, desejamos
também boas propriedades terminais; a formulação seria:

Encontrar u(·) tal que


Z tf
J= [z T (t)Q(t)z(t) + uT (t)R(t)u(t)] dt + z T (tf )T z(tf ) é mı́nimo
t0

onde Q(t) > 0 ∀t ∈ [t0 tf ]; R(t) > 0 ∀t ∈ [t0 tf ]; T >0

Este problema tem sido um dos mais estudados pela comunidade cien-
tı́fica de Controle. A análise de sua solução é bem conhecida e, detalhe
CAPı́TULO 1. PROBLEMAS Tı́PICOS DE CONTROLE 9

importante, estas soluções podem ser expressas como realimentações, como


veremos. Talvez por esta razão este problema é o de maior aplicabilidade
prática dentre todos os problemas de Controle Ótimo. É um belo exemplo
onde o arsenal de recursos da teoria matemática é posto a trabalhar para
resolver algo do mundo prático. Embora a teoria desenvolvida nos últimos
30 anos, principalmente a partir dos trabalhos de Bellman e Kalman, seja
válida para o caso linear geral vamos nos restringir aqui ao caso linear e
invariante no tempo, ou fixo.

1.7 Regulador Linear Ótimo Determinı́stico


Fixo
Seja o sistema padrão
x(t0 ) = x0

ẋ(t) = Ax(t) + Bu(t);


S z(t) = Dx(t)
y(t) = Cx(t)

Como as matrizes representativas do sistema são constantes, é razoável


empregar matrizes também constantes nas formas quadráticas do ı́ndice a
ser minimizado, que passaria a ser
Z tf
J = J(u) = [z T (t)Qz(t) + uT (t)Ru(t)] dt + z T (tf )T z(tf )
t0

onde Q > 0, R > 0 e T > 0. O Problema do Regulador Linear Ótimo


Determinı́stico e Invariante no Tempo, abreviadamente chamado de PRLO
a partir de agora, pode ser enunciado como

Encontrar u∗ (t), com t0 ≤ t ≤ tf tal que J(u∗ ) = J ∗ é mı́nimo.

Lembrando que z(t) = Dx(t) temos z T (t)Qz(t) = xT (t)R1 x(t), onde (vide
seção A.6) R1 = D T QD ≥ 0, e também z T (tf )T z(tf ) = xT (tf )Pf x(tf ), onde
Pf = D T T D ≥ 0. Fazendo R = R2 chegamos a outra formulação equivalente
para o PRLO, agora em termos do estado e não das saı́das:

Encontrar u(·) tal que


Z tf
J = J(u) = [xT (t)R1 x(t) + uT (t)R2 u(t)] dt + xT (tf )Pf x(tf ) é mı́nimo
t0

onde R1 ≥ 0; Pf ≥ 0; R2 > 0
CAPı́TULO 1. PROBLEMAS Tı́PICOS DE CONTROLE 10

Uma vez formulado o problema, pode-se pensar em resolvê-lo: a partir


do conhecimento de A, B, C, D, Q, R, T devemos pesquisar a existência de
soluções. Intuitivamente percebe-se que controlabilidade deve desempenhar
um papel, mas veremos isso mais para a frente. Antes porém notemos que
A, B, C, D constituem o modelo matemático do sistema que se quer con-
trolar, sendo portanto dados do problema. Como encontrar as matrizes de
ponderação Q, R, T , e consequentemente as matrizes R1 , R2 e Pf que delas
derivam? As regras gerais para esta escolha são um tanto quanto vagas, e
muitas vezes o conhecimento do problema em estudo e do que se deseja fazer
com ele levará à escolha. É uma tarefa bastante dependente do sentimento
do projetista. Mesmo assim há uma linha básica geral. Ela é vaga, como
dissemos, e fica mais claro apresentá-la por meio de um

Exemplo 1.7.1 Para um motor DC, seja θ(t) a posição angular da carga,
e ω(t) a sua velocidade angular. A equação do modelo matemático para este
sistema é dada por:
(
a = −0.5 s−1
ω̇(t) = aω(t) + bu(t); onde
b = 150 rd/(V s2 )

A finalidade do problema é estabilizar a velocidade da maneira melhor


possı́vel em torno de um valor desejado ω0 . Traduzir este objetivo, principal-
mente o trecho “da melhor maneira possı́vel”, em termos mais precisos é o
que se chama formulação do problema. Vejamos em primeiro lugar que esta-
bilizar em torno de ω0 é a mesma coisa que estabilizar em torno de 0, e isto se
chama regular. Supondo provisoriamente que a situação ideal ω(t) = ω0 ∀t é
satisfeita, vejamos que entrada deveria ser aplicada ao sistema para mantê-
la. Temos ω̇(t) = aω0 + bu(t) = 0, donde u(t) = u0 = −(a/b)ω0 . Definindo
agora uma nova variável de estado como x(t) = ω(t) − ω0 teremos

ẋ(t) = ω̇(t) = aω(t) + bu(t)


= aω(t) − aω0 + aω0 + bu(t)
= ax(t) − bu0 + bu(t)

Considerando então a variável v(t) = u(t) − u0 podemos escrever as novas


equações para o sistema:
(
ẋ(t) = ax(t) + bv(t)
z(t) = x(t)

Assim verificamos, conforme o prometido, que estabilizar ω(t) em torno


de ω0 equivale a estabilizar x(t) em torno de 0, ou seja, regular x(t). Como
CAPı́TULO 1. PROBLEMAS Tı́PICOS DE CONTROLE 11

todas as variáveis são escalares podemos formular o nosso conhecido problema


de otimização usando como ı́ndice:
Z tf
J= [z T (t)qz(t) + v T (t)rv(t)] dt + z T (tf )pz(tf )
t0
Z tf
= [qz 2 (t) + rv 2 (t)] dt + pz 2 (tf )
t0
Como as matrizes de ponderação são também escalares podemos igualar
uma delas a 1 e mesmo assim ainda conseguiremos dar pesos relativos. Desta
maneira, sendo r > 0 e p > 0 o critério a ser minimizado fica
Z tf
J= [z 2 (t) + rv 2 (t)] dt + pz 2 (tf )
t0
Minimizar J garante três coisas:

• z(·) é pequeno (ω(·) próximo de w0 )


• v(·) é pequeno (u(·) próximo de u0 )
• z(tf ) é pequeno

Situações onde é importante manter pequenas amplitudes da entrada são


chamadas de situações de “controle caro”, e para que o ı́ndice reflita esta
condição devemos usar um alto valor para r. Por outro lado, situações onde
podemos concentrar as atenções na melhoria de z sem nos preocuparmos
com os “gastos” envolvidos (grandes amplitudes da entrada) caracterizam o
chamado controle barato. Estas instruções são comunicadas ao ı́ndice usando
um valor baixo para r. No caso limite terı́amos r = 0, significando que os
valores assumidos pela entrada são totalmente irrelevantes.
Para achar efetivamente bons valores numéricos para r e p precisamos do
método de tentativa e erro. Depois, depois, é preciso antes saber a solução.

Exemplo 1.7.2 Para o mesmo sistema anterior, se quisermos controlar a


posição e não a velocidade precisaremos de um modelo mais completo. Sendo
agora a = −4.6s−1 e b = 0.787rd/(V s2 ) teremos:
" # " #" # " #
θ̇ 0 1 θ 0
= + u
ω̇ 0 a ω b
O objetivo é estabilizar a posição θ do melhor modo possı́vel em torno de
um valor desejado θ0 . Definindo as variáveis de estado x1 = θ − θ0 , e x2 = ω
chegamos a
CAPı́TULO 1. PROBLEMAS Tı́PICOS DE CONTROLE 12

" # " #
0 1 0
ẋ = x+ u; z = [ 1 0 ]x
0 a b

Vemos
Rt
que θ → θ0 se e somente se z → 0. O ı́ndice seria como acima:
J = tf [z 2 (t) + ru2(t)] dt + πz 2 (tf )
0

1.8 Exercı́cios, ainda


1. Mostrar que xT Qx = xT QT x ∀x

2. Se A = −AT a matriz A será chamada de antisimétrica. Sendo M uma


matriz (n × n) qualquer mostrar que:
1
(a) 2
(M + M T ) é simétrica.
1
(b) 2
(M − M T ) é antisimétrica.

3. Mostrar que qualquer matriz quadrada Q pode ser decomposta em


Q = Q1 + Q2 onde Q1 é simétrica e Q2 é antisimétrica.

4. Mostrar que a forma quadrática Q é identicamente nula (xT Qx = 0 ∀x)


se e somente se Q é anti simétrica.
.
5. Sendo x= Ax, x(0) = x0 , traçar um gráfico para xT (t)Qx(t). A partir
deste gráfico é possı́vel dizer algo sobre a estabilidade do sistema?
     
0 1 0 1 1 1 0
A =  0 0 1  ; x0 =  1  ; Q =  1 0 0 
     

1 1 −1 1 0 0 1

6. idem 5 para  
1 1 1
Q= 1 1 1 
 

1 1 1

7. Sendo Q simétrica e positiva definida e M inversı́vel, que se pode dizer


de P = M −1 QM? será simétrica também? qual o sinal da forma
xT P x? sob que condições de M a matriz P é simétrica? anti simétrica?
positiva definida?
CAPı́TULO 1. PROBLEMAS Tı́PICOS DE CONTROLE 13

8. Sendo Q simétrica e p.d. (positiva definida) e D uma matriz (r × n),


com r < n, que se pode dizer de P = D T QD? (repetir os quesitos do
exercı́cio anterior).

9. idem 8 para r = n.

10. idem 8 para r > n

11. A figura a seguir representa um pêndulo invertido com base circular.


Ao eixo do disco é acoplado um motor que deverá ser acionado de forma
a equilibrar o pêndulo na posição vertical. Os dados numéricos são:

0 1 0 0 0 π/36
     
 56.56 −0.09 −42.42 0   5.12   0 
ẋ =  x + u; x0 = 
     
0 0 0 1 0 π/180

     
−28.28 0.045 71.21 0 −2.56 0





'$





&%

Considerando como saı́da a posição angular do pêndulo com relação à


vertical do seu ponto de apoio temos

z=[ 0 0 1 0 ]

Deseja-se equilibrar o pêndulo na posição vertical (θ2 = z = 0) da


“melhor maneira possı́vel”. As principais restrições fı́sicas do sistema
são:

• a tensão máxima admissı́vel pelo motor é |u|max = 10V


• para a linearização permanecer válida é necessário que |x3 |max =
|z|max = π/18 = 10◦

Pede-se:

(a) Encontrar λ(A), o espectro de malha aberta.


CAPı́TULO 1. PROBLEMAS Tı́PICOS DE CONTROLE 14

(b) Supondo que t0 = 0 e que temos um horizonte de tempo de 01


segundos, formular o problema como um problema de regulador
ótimo.
(c) Escolher matrizes de ponderação adequadas.
(d) Resolver o problema dando soluções em MA (malha aberta) e MF
(malha fechada).
(e) Apresentar, se possı́vel, uma solução em MF com F ∗ = cte. En-
contrar λ∗ = λ(A + BF ∗ ).
(f) Embora nada se exija das variáveis x1 , x2 e x4 , verificar o seu com-
portamento para cada uma das soluções encontradas (elas tendem
para 0? quais são seus valores máximos?).
(g) Supondo que agora o horizonte de tempo é de 02 segundos, repetir
os itens b, c, d, e, f.
(h) idem g para 05 segundos.
(i) idem g para l0 segundos.
(j) idem g para horizonte de tempo inifinito.
(k) Comparar e comentar todos os resultados obtidos até agora.
(l) Repetir todos os itens acima, de b até k, supondo que o interesse
passa a ser em todas as variáveis de estado: z = x. Supor também
que |x1 |max = |x3 |max = π/18 e que x2 e x4 permanecem irrestritas.
Capı́tulo 2

Solução do Problema do
Regulador

Seja o sistema linear e invariante no tempo ao qual temos nos dedicado com
exclusividade quase total:

x(t0 ) = x0


 ẋ(t) = Ax(t) + Bu(t);
S

z(t) = Dx(t)

O PRLO, relembremos, significa minimizar o critério quadrático dado por


Z tf
J = J(u) = [z T (t)Qz(t) + uT (t)Ru(t)] dt + z T (tf )P z(tf )
t0
onde as natrizes de ponderação são positivas definidas: Q > 0, R > 0 e
P > 0. Ou então, em termos do estado, minimizar
Z tf
J = J(u) = [xT (t)R1 x(t) + uT (t)R2 u(t)] dt + xT (tf )Pf x(tf )
t0
onde R1 = D T QD ≥ 0 R2 = R > 0 Pf = D T P D ≥ 0
Antes de estudar aspectos relativos à existência de soluções, sua unicidade
etc., vamos verificar que condições as soluções — se existirem — deverão sa-
tisfazer. Deste modo criaremos um conjunto onde as soluções (se existirem)
deverão ser buscadas. Muitas e muitas vezes este conjunto de possı́veis can-
didatos é composto de poucos ou até mesmo de um único elemento, e assim
a tarefa de checar a otimalidade dos candidatos fica bem mais suave. O co-
nhecimento a priori de que existem soluções ótimas também ajuda. Para este
caso linear pode-se provar que existe solução e ela é única. Maiores detalhes
virão depois.

15
CAPı́TULO 2. SOLUÇÃO DO PROBLEMA DO REGULADOR 16

2.1 Solução pelo Cálculo das Variações


Supondo que a solução existe, seja ela u∗ (t), t ∈ [t0 tf ], e sejam x∗ (·) e J ∗ a
trajetória acarretada por ela e o ı́ndice correspondente:

x = x∗ (·)



u(·) = u∗ (·) −→
J = J(u∗ ) = J ∗ = mı́nimo

Isto significa que x∗ (·) e u∗ (·) satisfazem a equação básica do sistema, ou


seja, ∀t ∈ [t0 tf ]:
ẋ∗ (t) = Ax∗ (t) + Bu∗ (t) (2.1)
Vamos supor que agora a entrada aplicada ao sistema sofre uma pertur-
bação, uma variação, e passa a não ser mais exatamente igual a u∗ :

u(·) = u∗ (·) + εũ(·)

onde ε é um escalar arbitrário e ũ(·) é uma função arbitrária do tempo,


definida em [t0 tf ]. Esta variação na entrada afetará o estado, e, considerando
a linearidade do sistema, a trajetória passará a ser x(·) = x∗ (·) + εx̃(·). Em
sı́mbolos:
u(·) = u∗ (·) + εũ(·) → x(·) = x∗ (·) + εx̃(·)
Mas isto significa que, ∀t ∈ [t0 tf ]:
.
ẋ∗ (t) + εx̃ (t) = Ax∗ (t) + εAx̃(t) + Bu∗ (t) + εB ũ(t) (2.2)

Aplicando (2.1) a equação dinâmica relacionando o estado x̃(t) pode ser


deduzida: .
x̃ (t) = Ax̃(t) + B ũ(t) (2.3)
Podemos supor que a condição inicial permanece inalterada quando a
entrada passa de u∗ (·) para u(·), ou seja: x(t0 ) = x0 = x∗ (t0 ). Conclui-se
que x̃(t0 ) = 0 e, usando a expressão clássica para sistemas lineares fixos:
Z t Z tf
x̃(t) = φ(t, τ )B ũ(τ ) dτ = φ(t, τ )B ũ(τ ) dτ (2.4)
t0 t0
onde a matriz de transição de estados φ(t, τ ) é dada pela exponencial ma-
tricial e(t−τ )A . Como o nosso sistema é causal temos φ(t, τ ) = 0 ∀τ > t e a
integração pode ser encerrada em t ou em tf .
CAPı́TULO 2. SOLUÇÃO DO PROBLEMA DO REGULADOR 17

Podemos agora usar esses resultados e calcular o valor assumido pelo


ı́ndice J para u = u∗ + εũ e x = x∗ + εx̃:
Z tf h
J = (x∗ T (t) + εx̃T (t))R1 (x∗ (t) + εx̃(t))+
t0
i
(u∗ T (t) + εũT (t))R2 (u∗ (t) + εũ(t)) dt +
(x∗ T (tf ) + εx̃T (tf ))Pf (x∗ (tf ) + εx̃(tf ))

Desenvolvendo e reagrupando chega-se a


Z tf h i
J = x∗ T (t)R1 x∗ (t) + u∗ T (t)R2 u∗(t) dt + x∗ T (tf )Pf x∗ (tf ) +
t0
(Z )
tf h i
T ∗ T ∗ T ∗
2ε x̃ (t)R1 x (t) + ũ (t)R2 u (t) dt + x̃ (tf )Pf x (tf ) +
t0
(Z )
tf h i
2 T T T
ε x̃ (t)R1 x̃(t) + ũ (t)R2 ũ(t) dt + x̃ (tf )Pf x̃(tf )
t0

Ufa! que trabalheira. Para colocar um pouco de simplicidade nesse


maciço formalismo basta observar que, dando nomes pequenos para ex-
pressões grandes, podemos escrever J = aε2 + bε + c. E agora a tarefa
de minimizar J em função do parâmetro ε é bem simples, pois temos um
familiar trinômio do segundo grau. Sabemos que o mı́nimo Jmin ocorre para
2aε + b = 0 ou, equivalentemente, para ε = −b/2a, quando a > 0. Mas por
outro lado sabemos que Jmin = J ∗ ocorre quando u = u∗ , ou seja, ε = 0.
Disto concluimos que
a>0 e b=0
e isto implica em
Z tf h i
x̃T (t)R1 x∗ (t) + ũT (t)R2 u∗ (t) dt + x̃T (tf )Pf x∗ (tf ) = 0
t0
Entrando com o valor encontrado anteriormente para x̃(t) na equação
(2.4) seremos levados a:
"Z #
Z tf tf Z tf
T T
ũ (τ )B φ (t, τ ) dτ R1 x∗ (t) dt +
T
ũT (t)R2 u∗ (t) dt
t0 t0 t0
"Z #
tf
+ ũT (τ )B T φT (tf , τ ) dτ Pf x∗ (tf ) = 0
t0
CAPı́TULO 2. SOLUÇÃO DO PROBLEMA DO REGULADOR 18

E tome de truques! Invertendo a ordem de integração na primeira parcela:


"Z #
Z tf tf Z tf
T T T ∗
ũ (τ )B φ (t, τ )R1 x (t) dt dτ + ũT (t)R2 u∗ (t) dt
t0 t0 t0
Z tf
+ ũT (τ )B T φT (tf , τ )Pf x∗ (tf ) dτ = 0
t0
Mais um: trocando de posição as variáveis t e τ no primeiro e no terceiro
termos:
"Z #
Z tf tf Z tf
T T T ∗
ũ (t)B φ (τ, t)R1 x (τ ) dτ dt + ũT (t)R2 u∗ (t) dt
t0 t0 t0
Z tf
+ ũT (t)B T φT (tf , t)Pf x∗ (tf ) dt = 0
t0
Agrupando os termos vem
( " #
Z tf Z tf
T T T ∗ T ∗
ũ (t) B φ (tf , t)Pf x (tf ) + φ (τ, t)R1 x (τ ) dτ +
t0 t0
R2 u∗ (t)} dt = 0

Ou, mais compactamente:


Z tf n o
ũT (t) B T p(t) + R2 u∗ (t) dt = 0 (2.5)
t0
onde novamente usamos um sı́mbolo simples para designar uma expressão
longa: Z tf
p(t) = φT (tf , t)Pf x∗ (tf ) + φT (τ, t)R1 x∗ (τ ) dτ (2.6)
t0
Para a integral (2.5) se anular é necessário que

B T p(t) + R2 u∗ (t) = 0 ∀t ∈ [t0 tf ]

Como R2 deve ser inversı́vel (ela é positiva definida), podemos, finalmente,


explicitar a entrada u∗ (t)

u∗ (t) = −R2−1 B T p(t) ∀t ∈ [t0 tf ] (2.7)

Pela primeira vez encontramos uma expressão para u∗ , mas a sua apli-
cabilidade é problemática, pois ela está condicionada ao conhecimento da
variável p, dada pela equação (2.6), e, convenhamos, o aspecto desta relação
é um tanto quanto intimidador. Um expediente muito usado para contornar
CAPı́TULO 2. SOLUÇÃO DO PROBLEMA DO REGULADOR 19

dificuldades decorrentes de expressões complicadas é derivá-las e tentar en-


contrar uma equação diferencial da qual elas sejam solução. Derivando então
(2.6) em relação ao tempo:

d d tf T
Z
ṗ(t) = [φT (tf , t)]Pf x∗ (tf ) + φ (τ, t)R1 x∗ (τ ) dτ
dt dt t0
Após um desenvolvimento, que pouco acrescentaria às nossas argucidades,
chegarı́amos finalmente a uma forma elegante e compacta:

ṗ(t) = −AT p(t) − R1 x∗ (t)




p(tf ) = Pf x∗ (tf )

Percebe-se que p é a solução de um SLIT de dimensão n, com entrada x∗


e cuja condição de contorno é uma condição terminal e não inicial. Ainda
está tudo embolado: para alcançarmos o nosso objetivo u∗ precisamos de p,
para conseguirmos este precisamos resolver a equação acima, o que faremos
apenas com o conhecimento de x∗ ; e neste ponto precisamos de u∗ . . . Como
sair desta?

2.2 Equações Variacionais


Sendo u(t) = u∗ (t) = −R2−1 B T p(t), como deduzido acima, podemos reescre-
ver a equação (2.1):

ẋ∗ (t) = Ax∗ (t)−BR2−1 B T p(t); x(t0 ) = x0 (2.8)

A variável p é normalmente conhecida como variável adjunta ou então


coestado; a equação diferencial que a origina pode ser apresentada como

ṗ(t) = −R1 x∗ (t)−AT p(t); p(tf ) = Pf x∗ (tf ) (2.9)

Podemos fundir estas últimas equações em uma única:

A −BR2−1 B T
" # " #" #
ẋ∗ (t) x∗ (t)
= (2.10)
ṗ(t) −R1 −AT p(t)

Temos assim um sistema linear, fixo, autônomo, com dimensão 2n, que
pode ser escrito em uma forma mais compacta:
(
ẋe (t) = Ae xe (t)
x∗ (t0 ) = x0 ; p(tf ) = Pf x∗ (tf )
CAPı́TULO 2. SOLUÇÃO DO PROBLEMA DO REGULADOR 20

onde o vetor xe (t) e a matriz Ae são dados por:

A −BR2−1 B T
" # " #
x∗ (t)
xe (t) = ; Ae =
p(t) −R1 −AT

A novidade é que temos agora condições de contorno hı́bridas: iniciais


e terminais. Note-se também que Ae é uma matriz Hamiltoniana (apêndice
A, seção A.9). Sendo Θe (t, τ ) a matriz de transição de estados para este
sistema expandido, podemos escrever a expressão geral

xe (t) = Θe (t, τ )xe (τ )

Considerando os casos τ = t0 e τ = tf temos expressões para o estado ex-


pandido xe em termos das condições iniciais e finais: xe (t) = Θe (t, t0 )xe (t0 ) e
xe (t) = Θe (t, tf )xe (tf ). Particionando a matriz Θe (t, tf ) podemos desenvolver
esta última equação:
" # " #" #
x∗ (t) θ11 (t, tf ) θ12 (t, tf ) x∗ (tf )
=
p(t) θ21 (t, tf ) θ22 (t, tf ) p(tf )

donde saem as equações individuais

x∗ (t) = θ11 (t, tf )x∗ (tf ) + θ12 (t, tf )p(tf )


p(t) = θ21 (t, tf )x∗ (tf ) + θ22 (t, tf )p(tf )

Mas p(tf ) = Pf x∗ (tf ), e podemos então escrever

x∗ (t) = [θ11 (t, tf ) + θ12 (t, tf )Pf ]x∗ (tf ) (2.11)


p(t) = [θ21 (t, tf ) + θ22 (t, tf )Pf ]x∗ (tf ) (2.12)

Fazendo t = t0 na equação (2.11) pode-se relacionar x∗ (tf ) e x∗ (t0 ) = x0 :

x∗ (t0 ) = [θ11 (t0 , tf ) + θ12 (t0 , tf )Pf ]x∗ (tf ) = x0

o que leva, após substituição na equação (2.12), a

p(t) = [θ21 (t, tf ) + θ22 (t, tf )Pf ][θ11 (t0 , tf ) + θ12 (t0 , tf )Pf ]−1 x0

Esta expressão depende apenas de x0 , (conhecido) e das matrizes θij ,


partições de Θe , que podem ser calculadas (Θe é a exponencial matricial
associada à matriz Ae ). Também é preciso haver invertibilidade daquele
bloquinho, e para garantir isto necessitarı́amos que a matriz Hamiltoniana
Ae apresentasse certas caracterı́sticas. Depois veremos mais detalhes sobre
CAPı́TULO 2. SOLUÇÃO DO PROBLEMA DO REGULADOR 21

estes problemas; por enquanto suporemos que o bloco é inversı́vel e podemos


exprimir p(t) como acima. E assim podemos finalmente apresentar a solução:
u∗ (t) = −R2−1 B T [θ21 (t, tf ) + θ22 (t, tf )Pf ][θ11 (t0 , tf ) + θ12 (t0 , tf )Pf ]−1 x0 (2.13)
Esta entrada ótima acarretaria uma trajetória ótima descrita por
x∗ (t) = [θ11 (t, tf ) + θ12 (t, tf )Pf ][θ11 (t0 , tf ) + θ12 (t0 , tf )Pf ]−1 x0 (2.14)
A expressão para o ı́ndice ótimo J ∗ é um pouco trabalhosa, será analisada
depois. Pronto, eis aı́ uma solução, uma função do tempo que, se calculada
previamente e depois colocada como entrada, minimizaria o nosso critério. Só
há um inconveniente: ela é uma lei em malha aberta. Qualquer modificação
em x0 ou em parâmetros do sistema e esta lei passa a ter seu funcionamento
ameaçado. Em termos práticos isto é ruim, afinal sabe-se que para controlar
eficientemente os sistemas do mundo real é necessário usar realimentação, ou
seja, controle em malha fechada. Mas é fácil consertar as coisas: manipulando
mais uma vez as equações (2.11) e (2.12) — substituindo t = tf em (2.11) e
colocando o resultado em (2.12) — serı́amos levados a
p(t) = [θ21 (t, tf ) + θ22 (t, tf )Pf ][θ11 (t, tf ) + θ12 (t, tf )Pf ]−1 x∗ (t) (2.15)
Agora p(t) foi apresentado em termos de x∗ (t) e não mais em função de
x0 . Fazendo
θ21 (t, tf ) + θ22 (t, tf )Pf ][θ11 (t, tf ) + θ12 (t, tf )Pf ]−1 = P ∗(t) (2.16)
poderemos economizar na notação e colocar p(t) = P ∗ (t)x∗ (t). Temos final-
mente uma fórmula densa:
u∗ (t) = −R2−1 B T P ∗ (t)x∗ (t)
= F ∗ (t)x∗ (t)
Feito, a solução pode ser expressa como uma realimentação de estados! O
ganho é variante no tempo, mas tudo bem, agora temos controle em malha
fechada
u∗ (t) - Planta S

x∗ (t)
F ∗ (t) 

Este fato é importante; a solução ótima pode ser implementada por meio
de realimentação de estados. A existência ou não de soluções está associada
à invertibilidade do bloco [θ11 (t, tf ) + θ12 (t, tf )Pf ] e a propriedades da matriz
Hamiltoniana Ae . Alguns detalhes serão vistos posteriormente.
CAPı́TULO 2. SOLUÇÃO DO PROBLEMA DO REGULADOR 22

2.2.1 Em resumo:
Dado o sistema costumeiro
(
ẋ(t) = Ax(t) + Bu(t); x(t0 ) = x0
S
z(t) = Dx(t)

e o ı́ndice quadrático
Z tf
J = J(u) = [xT (t)R1 x(t) + uT (t)R2 u(t)] dt + xT (tf )Pf x(tf )
t0
com R1 ≥ 0, R2 > 0, Pf ≥ 0, o procedimento básico para minimizar J está
exposto a seguir:

1. Formar o sistema expandido ẋe (t) = Ae xe (t) onde

A −BR2−1 B T
" #
Ae = (2.17)
−R1 −AT

2. Encontrar e particionar a matriz de transição de estados para o sistema


acima: " #
(t−τ )Ae θ11 (t, τ ) θ12 (t, τ )
Θe (t, τ ) = e = (2.18)
θ21 (t, τ ) θ22 (t, τ )

3. Calcular P ∗ (t) por meio da equação (2.16):

P ∗ (t) = [θ21 (t, tf ) + θ22 (t, tf )Pf ][θ11 (t, tf ) + θ12 (t, tf )Pf ]−1

4. A solução em malha fechada é:

u∗ (t) = F ∗ (t)x∗ (t) onde F ∗ (t) = −R2−1 B T P ∗ (t) (2.19)

Para fixar os conceitos, vejamos um

Exemplo 2.2.1 — Estabilização da velocidade


Podemos pensar em um motor como o dos exemplos do capı́tulo passado,
com posição da carga medida por θ e velocidade angular w. O objetivo agora
é estabilizar w em torno de w0 , partindo de t0 = 0, em tf = 1. Um modelo
matemático para este sistema já foi visto anteriormente:


 ẋ(t) = ax(t) + bv(t)

z(t) = x(t)


CAPı́TULO 2. SOLUÇÃO DO PROBLEMA DO REGULADOR 23

onde x(t) = ω(t) − ω0 , v(t) = u(t) + (a/b)ω0 , a = −0, 5 e b = 150. O


problema é minimizar
Z 1
J = J(v) = [z 2 (t) + rv 2 (t)] dt + pz 2 (1)
0

onde os reais r e p são positivos. Vejamos a solução, passo a passo. O


sistema expandido é:
" # " #" #
ẋ(t) a −(b2 /r) x(t)
=
ṗ(t) −1 −a p(t)

Calculando e particionando a matriz Θe (t, τ ) = e(t−τ )Ae chegaremos a

θ11 (t, τ ) = (1/4γ) (2γ − 1)eγ (t−τ ) + (2γ + 1)e−γ (t−τ )


 h i



θ (t, τ ) = −(b2 /2rγ) eγ (t−τ ) − e−γ (t−τ )

 h i

12

θ21 (t, τ ) = −(1/2γ) eγ (t−τ ) − e−γ (t−τ )


h i



θ22 (t, τ ) = (1/4γ) (2γ + 1)eγ (t−τ ) + (2γ − 1)e−γ (t−τ )

 h i

q
onde γ = a2 + b2 /r. As expressões para a solução em malha aberta podem
ser obtidas por substituição destes valores nas equações(2.13) e (2.14):

v ∗ (t) = −(b/r) [θ21 (t, 1) + pθ22 (t, 1)] [θ11 (0, 1) + pθ12 (0, 1)]−1 x0
(

x∗ (t) = [θ11 (t, 1) + pθ12 (t, 1)] [θ11 (0, 1) + pθ12 (0, 1)]−1 x0

As soluções ótimas dependerão dos parâmetros r e p; se eles são conhe-


cidos poderemos, (após contas brabas!) encontrar a entrada ótima em malha
aberta v ∗ e trajetória ótima x∗ . Vemos deste modo que é preciso enfrentar
o problema de escolher os parâmetros de ponderação r e p. O método de
tentativa e erro é sempre uma boa pedida, a ele então! Em primeiro lugar
devemos isolar o efeito dos parâmetros: fixamos um deles e analisamos o
outro.

1.) – Efeito do custo do controle para condições terminais


desimportantes

Isto significa usar p = 0 nas fórmulas acima, resultando em:


(
v ∗ (t) = −(b/r)θ21 (t, 1)[θ11 (0, 1)]−1 x0
x∗ (t) = θ11 (t, 1)[θ11 (0, 1)]−1 x0

Substituindo os valores e plotando para r = 100, r = 1000 e r = 10000


chega-se a
CAPı́TULO 2. SOLUÇÃO DO PROBLEMA DO REGULADOR 24

x∗ (t)
100 6

50 r=10000

r=1000
r=100

-
t
r=10000 0.5 1.0
r=1000

r=100

10
?v ∗ (t)

Alguns fatos se destacam. Para valores elevados do parâmetro r, ou seja,


nas chamadas situações de “controle caro” terı́amos

rր vց x∗ é fraco

mostrando que, quando a entrada é muito penalizada o desempenho sofre,


x∗ (·) é lento e impreciso. Já em uma situação de “controle barato”, ou seja,
valores baixos de r,

rց vր x∗ é bom

e o desempenho melhora pois podemos usar entradas u com amplitudes gran-


des. A partir deste ponto já é possı́vel concluir algo. Supondo que conhecemos
a tensão máxima suportada pelo motor, poderemos limitar o valor de r. Para
o caso deste exemplo, |V |max = 3, donde r ≥ 1000.

2.) – Efeito das condições terminais para custo fixo

Para r = cte = 1000 podemos plotar curvas de x∗ (t) e v ∗ (t) semelhantes


às precedentes, mas para diversos valores do parâmetro p. As curvas serão
praticamente coincidentes, e a influência de p apenas se faz sentir no final
do intervalo: para valores elevados de p notamos que as condições terminais
melhoram. O reverso da medalha, o preço a se pagar por esse benefı́cio, se
reflete no fato de que a amplitude de u também aumenta, mas pouca coisa,
e mesmo assim esse aumento se verifica apenas nas proximidades de t = 1.
CAPı́TULO 2. SOLUÇÃO DO PROBLEMA DO REGULADOR 25

Isto é ótimo, porque significa que podemos melhorar o comportamento


terminal aumentando p e respeitando a restrição de voltagem máxima no
motor! Dependendo de quanto tolerarı́amos de desvio em t = 1 podemos
balizar nossa escolha de p, sempre nos lembrando de verificar se tal valor
não comprometeria demasiadamente as amplitudes da entrada u. Vamos
supor que neste exemplo |x∗ (tf )| < 1 está bom. Para isto as curvas diriam
que devemos usar p > 0.10

3.) – Solução em Malha Fechada

A solução apresentada até agora é a de malha aberta. Já vimos que


se o problema envolver aplicações práticas, ela é pouco confiável e deve-se
pensar em substituı́-la por estratégias com realimentação. Podemos chegar
aos mesmos resultados ótimos acima usando uma lei de controle em malha
fechada, do tipo u∗(t) = F ∗ (t)x∗ (t), visto na equação (2.19). Para o caso
presente:

F ∗ (t) = −r −1 bP ∗ (t)
= −r −1 b[θ21 (t, 1) + pθ22 (t, 1)][θ11 (t, 1) + pθ12 (t, 1)]−1

Um dos inconvenientes do método é que a solução em malha fechada é


variante no tempo. Mas o exemplo mostraria, pela elaboração das curvas
para diversos valores dos parâmetros r e p, que esta variação é pequena e
apenas perto do fim do intervalo ela se manifesta: F ∗ (t) é quase constante.
Em particular, se fixarmos r = 1000 e p = 0.19 teremos

F ∗ (t) ≈ F ∗ = cte. = 0, 03

E isto pode ajudar na determinação de p, pois a facilidade de imple-


mentação de realimentações constantes as torna atraentes e desejáveis. É
lógico que se houver muita exigência a respeito dos valores terminais esta
escolha de p pode não servir.

Exemplo 2.2.2 — Problema com restrição terminal


" # " # " #
0 1 0 ξ1
ẋ(t) = x(t) + u; x(0) =
0 0 1 ξ2

Nosso objetivo: em um tempo finito tf conduzir o estado até a origem mi-


nimizando a energia gasta. Estes requisitos podem ser reescritos: encontrar
u(·) tal que em tf > 0, tf finito tenhamos
tf 1 2
Z
x(tf ) = 0 e E = E(u) = u (t) dt seja minimizada
0 2
CAPı́TULO 2. SOLUÇÃO DO PROBLEMA DO REGULADOR 26

A primeira restrição impede a aplicação direta da teoria já vista. Pre-


cisamos contornar este obstáculo. Este problema é chamado de problema
com restrição terminal e a teoria desenvolvida se aplica a problemas com
condições terminais livres:
Z tf
J = J(u) = [xT (t)R1 x(t) + uT (t)R2 u(t)] dt + xT (tf )Pf x(tf )
t0
onde Pf é uma medida da importância do valor de x(tf ). Vamos resolver o
PRLO para o caso R1 = 0 e considerando
" #
p 0
Pf = = pI
0 p
Se p → ∞ estamos penalizando infinitamente x(tf ) e conseguiremos mi-
nimizar J apenas quando x(tf ) = 0, como desejamos. Façamos então R1 =
0, R2 = 1/2, Pf = pI. O sistema adjunto é:
0 1 0 0
 

A −bR2−1 bT
" #
 0 0 0 −2 
ẋe (t) = xe (t) =   x (t)
 
0 −AT  0 0 0 0  e
0 0 −1 0
para o qual:
1 t−τ (t−τ )3 /3 −(t−τ )2
 
 0 1 (t−τ )2 −2(t−τ ) 
θ(t, τ ) = θ(t−τ ) =  
0 0 1 0
 
 
0 0 −(t−τ ) 1
donde tiramos
" #
1 0
θ21 (t, tf ) = 0; θ22 (t, tf ) =
tf −t 1
e, como podemos assumir t0 =0,
" # " #
1 −tf −tf3 /3 −tf2
θ11 (t0 , tf ) = ; θ12 (t0 , tf ) =
0 1 tf2 2tf
A expressão para o controle em malha aberta será
" # (" # " #)−1
1 0 1 −tf −tf3 /3 −tf2
u∗ (t) = −[0 2]p +p x0
tf −t 1 0 1 tf2 2tf
( " # " #)−1
1 −tf −tf3 /3 −tf2
= 2[t−tf −1] p−1 + x0
0 1 tf2 2tf
CAPı́TULO 2. SOLUÇÃO DO PROBLEMA DO REGULADOR 27

Mas p → ∞, como supusemos, logo p−1 → 0; considerando ainda, para


simplificar as manipulações, que tf = 3, chega-se a

" #" #
∗ 2 2/3 1 ξ1
u (t) = [t−3 −1]
3 −1 −1 ξ2
( ! )
2 2ξ1
u∗ (t) = + ξ2 t − ξ1 − 2ξ2
3 3

2.3 Busca de Caminhos Mais Simples


Esbocemos mais uma vez, em breves palavras, o caminho que temos trilhado
para chegar à solução do PRLO. A partir do sistema expandido calculamos
Θe (t, τ ), a matriz de transição de estados para Ae ; após particioná-la conve-
nientemente obtemos P ∗ (t), donde tiramos F ∗ (t):

Ae → Θe (t, τ ) → P ∗ (t) → F ∗ (t) → u∗ (t)

A análise dos últimos exemplos sugere que este caminho pode ser traba-
lhoso e demorado, e que seria interessante evitar o cálculo de P ∗ (t) a partir
de Θe (t, τ ). Ou seja, procura-se uma maneira alternativa de se obter P ∗ (t).
Recordemos ainda uma vez a expressão (2.7), que fornece a solução ótima:
u∗ (t) = −R2−1 B T p(t). O coestado pode ser obtido com o auxı́lio da expressão
(2.15), resultando em
p(t) = P ∗ (t)x∗ (t) (2.20)
Derivando em relação ao tempo, e abandonando temporariamente a no-
tação P ∗(t) em favor de P (t), mais simples e geral, vem

ṗ(t) = Ṗ (t)x∗ (t) + P (t)ẋ∗ (t) (2.21)

As equações variacionais são

ẋ∗ (t) = Ax∗ (t) − BR2−1 B T p(t) (2.22)


ṗ(t) = −R1 x∗ (t) − AT p(t) (2.23)

Entrando com (2.20) em (2.22) obteremos

ẋ∗ (t) = [A − BR2−1 B T P (t)]x∗ (t)

a qual, substituı́da em (2.21), fornece

ṗ(t) = [Ṗ (t) + P (t)A − P (t)BR2−1 B T P (t)]x∗ (t) (2.24)


CAPı́TULO 2. SOLUÇÃO DO PROBLEMA DO REGULADOR 28

Entrando agora com (2.20) em (2.23) somos levados a

ṗ(t) = [−R1 −AT P (t)]x∗ (t) (2.25)

Comparando estas duas últimas equações, as de números (2.24) e (2.25),


chegamos finalmente a
(
Ṗ (t) = −AT P (t) − P (t)A + P (t)BR2−1 B T P (t) − R1
P (tf ) = Pf

Esta é a famosı́ssima Equação de Riccati Matricial, uma equação


diferencial matricial com condições de contorno terminais, e não iniciais. Re-
solvendo-a terı́amos o método alternativo que andávamos procurando para
a obtenção de P ∗ (t). A equação de Riccati tem esse nome por se tratar de
uma generalização da equação escalar estudada pelo matemático italiano do
mesmo nome:
d
y(x) + α(x)y(x) + β(x)y 2(x) = γ(x)
dx
Deste modo, a solução do PRLO está intimamente ligada à solução da
equação de Riccati matricial, que passaremos a designar por ERM. Já an-
teriormente — para quem leu primeiro o apêndice A, seção A.9, lógico! —
associáramos matrizes Hamiltonianas ao nome Riccati. As conexões vão fi-
cando mais claras. Se existir uma solução u∗ para o PRLO então ela pode ser
expressa como u∗ (t) = −R2−1 B T p(t) = −R2−1 B T P ∗(t)x∗ (t) onde P ∗ (t) é uma
solução da ERM. Isto permite delimitar o universo dos possı́veis candidatos
a solução do PRLO: o conjunto das soluções da ERM. Aqui, mais uma vez,
a matemática auxilia:

Teorema 2.3.1 A equação de Riccati matricial com condição terminal


(
Ṗ (t) = −AT P (t) − P (t)A + P (t)BR2−1 B T P (t) − R1
P (tf ) = Pf

sempre admite uma solução única, normalmente designada por P ∗ (t).

Pronto, estamos feitos: existe um candidato único para ser testado, e


isto obviamente irá facilitar a tarefa de buscar a solução. Ou a função u∗ =
−R2−1 B T P ∗ (t)x∗ (t) é a solução minimizadora ou tal solução não existe. Neste
novo problema a matemática pode auxiliar, como sempre.
CAPı́TULO 2. SOLUÇÃO DO PROBLEMA DO REGULADOR 29

Teorema 2.3.2 O PRLO, conforme formulado, sempre admite solução, ou


seja, certamente existe uma função u∗ tal que J(u∗ ) é mı́nimo.

Estes teoremas não serão provados aqui. Mas deve ficar clara a sua enorme
importância. Eles garantem a existência de solução para o PRLO, e ensinam
como calculá-la. O processo todo pode ser sintetizado no seguinte algoritmo:

1. Seja P ∗ (t) a solução da ERM


(
Ṗ (t) = −AT P (t) − P (t)A + P (t)BR2−1 B T P (t) − R1
P (tf ) = Pf

2. F ∗ (t) = −R2−1 B T P ∗ (t)

3. u∗ (t) = F ∗ (t)x(t)

Mostramos assim como a solução do PRLO está intimamente associada


à ERM. Percebemos deste modo a importância desta equação, que já a faz
merecer um estudo um pouco mais detalhado.

2.4 Equação de Riccati Matricial


Em primeiro lugar vamos reescrevê-la, como se já não o tivéssemos feito
tantas vezes nestas últimas linhas.
(
Ṗ (t) = −AT P (t) − P (t)A + P (t)BR2−1 B T P (t) − R1
P (tf ) = Pf

Transpondo membro a membro as igualdades acima e lembrando que


R1 , R2 e Pf são matrizes simétricas teremos, após os algebrismos de praxe:
(
Ṗ T (t) = −AT P T (t) − P T (t)A + P T (t)BR2−1 B T P T (t) − R1
P T (tf ) = Pf

Isto significa que se P (t) é solução da ERM, P T (t) também o será. Mas
a solução é única, logo

Teorema 2.4.1 A solução P ∗ (t) da ERM é simétrica:

P ∗ (t) = P ∗ T (t) ∀t ∈ [t0 tf ]


CAPı́TULO 2. SOLUÇÃO DO PROBLEMA DO REGULADOR 30

Este fato ajudará na busca de soluções para a ERM. Antes de entrarmos


nestes tópicos vejamos mais fatos gerais sobre ela.

Teorema 2.4.2 A solução P ∗ (t) da ERM é positiva semidefinida no inter-


valo em estudo:
P ∗ (t) ≥ 0 ∀t ∈ [t0 tf ]

Supondo que iniciamos o nosso processo em um instante genérico t pode-


mos definir o “custo parcial” como
Z tf
Jp = Jp (t, u) = [xT (τ )R1 x(τ ) + uT (τ )R2 u(τ )] dτ + xT (tf )Pf x(tf )
t

A solução P ∗ (t) pode ser usada para calcular este ı́ndice de desempenho
truncado:

Teorema 2.4.3 O controle ótimo u∗ (t) acarretará um custo parcial ótimo


dado por
Jp∗ = Jp∗ (t, u∗ ) = x∗T (t)P ∗ (t)x∗ (t)

Usando o teorema acima para t = t0 encontrarı́amos que o ı́ndice total


mı́nimo para o intervalo de trabalho [t0 tf ] é dado por:

J ∗ = J(u∗ ) = Jp (t0 , u∗ ) = xT0 P ∗ (t0 )x0

Ainda um fato geral antes de discutirmos a busca de soluções para a


ERM. Sendo X uma matriz (n × n) podemos construir a seguinte equação:

AT X + XA − XBR2−1 B T X + R1 = 0 (2.26)

Como esta equação pode ser obtida a partir da ERM ela recebe o nome
de Equação de Riccati Matricial Algébrica ou simplesmente ERMA. É
fácil notar que se a matriz de ponderação Pf for uma solução para a ERMA
então a ERM admitirá uma solução constante P ∗ (t) = cte = Pf . Como a
recı́proca também é verdadeira temos

Teorema 2.4.4 O PRLO admite uma solução invariante no tempo se e so-


mente se a matriz de ponderação Pf é uma solução para a ERMA:

F ∗ (t) = F ∗ = cte ⇐⇒ AT Pf + Pf A − Pf BR2−1 B T Pf + R1 = 0


CAPı́TULO 2. SOLUÇÃO DO PROBLEMA DO REGULADOR 31

Pronto, eis aqui resultados com bastante utilidade, e que justificam algo já
visto nos exercı́cios: para determinadas escolhas das matrizes de ponderação
a solução pode se tornar mais simples.
Já vimos (aquele de nós, sábios, que começaram a ler estas notas pelo
apêndice A) na seção A.9 como discutir a existência de soluções para uma
ERMA—analisando a matriz Hamiltoniana associada— e também como efe-
tivamente obter uma solução X através do subespaço espectral dos modos
estáveis. Se a ERMA admite uma solução P ∗ ≥ 0 e se Pf pode ser escolhida
igual a este valor então a solução do PRLO será invariante no tempo. E
a volta também é válida: se existe uma solução invariante no tempo então
etc. . .

Exemplo 2.4.1 — Exemplo de ordem 1


Para o sistema escalar ẋ(t) = ax(t) + bu(t); x(t0 ) = x0 , sendo q ≥ 0, r >
0, p ≥ 0, minimizar
Z tf
J = J(u) = [qx2 (t) + ru2(t)] dt + px2 (tf )
0

A solução é: u∗ = −r −1 bP ∗ (t)x∗ (t) onde P ∗ (t) é solução da ERM:

b2 2
Ṗ (t) = −2aP (t) + P (t) − q; P (tf ) = p
r
Isto admite solução analı́tica. Integrando por separação de variáveis che-
garı́amos a

p − r(a + β) 2β(t−tf )
β + a + (β − a) e
p − r(a − β)
P ∗ (t) = r
p − r(a + β) 2β(t−tf )
1− e
p − r(a − β)
q
onde β = a2 + q/r. Fixando tf = 1, q = 1, p = 0, a = −1, b = 1, x0 = 1,
podemos esboçar as curvas x(t), u(t), P ∗(t) parametrizadas em função do
custo de controle r. Eis uma delas:
CAPı́TULO 2. SOLUÇÃO DO PROBLEMA DO REGULADOR 32


6P (t)
.40
r=1

.20
r=0.2

r=0.02
-
0.5 1.0
t
P ∗ (t) em função do parâmetro r
A existência de soluções invariantes no tempo está associada à ERMA:

b2 2
P − 2aP − q = 0
r

A raiz positiva deste trinômio é P = (ar + a2 r 2 + qrb2 )/b2 = P ∗ . Se
este valor é atribuı́do ao peso terminal p então a ERM admite uma solução
constante, e a lei ótima em malha fechada é invariante no tempo:
q
b a+ a2 + qb2 /r
u (t) = F x (t) = − P ∗ x∗ (t) = −
∗ ∗ ∗
r b
Usando a = −1, b = 1 e q = 1 pode-se avaliar a influência do peso r nas
soluções: q
1 − 1 + 1/r
u∗ (t) = F ∗ x∗ (t) =
b

Plotando esta função e também x (t) para diversos valores de r:
CAPı́TULO 2. SOLUÇÃO DO PROBLEMA DO REGULADOR 33


1.0 6x (t)

0.5 r=1
r=0.2
r=0.02

-
0.5 1.0
t
r=1

r=0.2
-2.5 r=0.02

-5.0
?
u∗ (t)
Desempenho em função do parâmetro r

E poderı́amos continuar trabalhando neste problema, vendo por exemplo


a viabilidade da escolha das matrizes de ponderação etc.
Exemplo 2.4.2 — Estabilização da Velocidade
É o nosso conhecido de outros exemplos:
(
ẋ(t) = ax(t) + bv(t)
z(t) = x(t)
onde a = −0.5 e b = 150 e o objetivo é minimizar
Z 1
J= [z 2 (t) + rv 2 (t)] dt + pz 2 (1)
0

A solução é v ∗ (t) = −R2−1 B T P ∗ (t)x∗ (t) = −(b/r)P ∗ (t)x∗ (t), onde P ∗ (t)
é solução da ERM
Ṗ (t) = −AT P (t) − P (t)A + P (t)Br −1 B T P (t) − 1



2


= br P 2 (t) − 2aP (t) − 1
P (1) = Pf = p

CAPı́TULO 2. SOLUÇÃO DO PROBLEMA DO REGULADOR 34

A solução geral da ERM para um caso escalar como este pode ser vista no
exemplo anterior. Para pesquisar a existência de uma solução F ∗ (t) cons-
tante basta estudar a ERMA: 0 = −aP − P a + P br −1 bP − 1 ou, arrumando
direitinho,
2ar r
P2 − 2 P − 2 = 0
b b
cujas raı́zes são facilmente encontradas. Como a solução que nos interessa
deve ser positiva definida escolheremos
q

a+ a2 + b2 /r
P =r
b2
Usando r = 1000 encontrarı́amos P ∗ ≈ 0, 19. Isto significa que se fi-
zermos Pf = P ∗ = 0, 19 teremos F ∗ (t) = cte. Já havı́amos chegado a esta
mesma conclusão anteriormente, de uma maneira empı́rica.

Exemplo 2.4.3 — Ainda um exemplo


Seja o PRLO tradicional, com
" # " # " # " #
0 1 0 2 1 1 0
ẋ = x+ u; R1 = ; R2 = 1/2; Pf =
0 0 1 1 4 0 2
O ı́ndice a ser minimizado pode ser expresso como
Z 3
1
J= (2x21 + 2x1 x2 + 4x22 + u2 ) dτ + x21 (3) + 2x22 (3)
0 2
Desenvolvendo a ERM para os elementos de P (t) teremos
ṗ11 (t) = 2p212 (t) − 2


 p11 (3) = 1
ṗ12 (t) = −p11 (t) + 2p12 (t)p22 (t) − 1 p12 (3) = 0
ṗ22 (t) = −2p12 (t) + 2p222 (t) − 4 p22 (3) = 2

É fácil perceber que a solução da ERM é trabalhosa e problemática. Sem-


pre podemos resolvê-la numericamente em um computador, fazendo uma in-
tegração de tf até t0 , de trás para a frente. A finalidade de Riccati era evitar
os problemas de cálculo da matriz Θe (t, τ ). Bem, temos agora algo com pro-
priedades teóricas interessantes e camaradas, mas na hora do vamos ver, na
hora de calcular mesmo ainda há inconvenientes.

2.5 Referências
O presente capı́tulo segue com alguma proximidade os desenvolvimentos de
[?]. Este material também poderia ser encontrado em várias outras fontes.
Capı́tulo 3

Horizonte de Tempo Infinito

Que acontece após tf ? Se o nosso interesse no sistema cessa, podemos des-


ligá-lo e está tudo resolvido. Mas na maioria das situações continuamos
precisando controlar o sistema, agir sobre ele mesmo após o instante final!
Podemos aplicar novamente a teoria precedente para um outro intervalo de
tempo [tf , tf +∆]. Ou então usar outras táticas, não necessariamente ótimas,
para manter as variáveis fixas em determinados valores, ou próximas deles.
Estas estratégias são possı́veis, mas parecem desnecessariamente complica-
das, por causa da mudança da lei de controle. Por que não projetar uma única
lei de controle capaz de acionar o sistema de uma maneira ótima ao longo
de um intervalo de tempo bastante grande? Em termos matemáticos isto
significa reformular o PRLO usando tf → ∞. Este novo problema se chama
Problema do Regulador Linear Ótimo com Horizonte de Tempo Infinito ou,
abreviadamente, PRLOHTI. Para sistematizá-lo, seja o sistema:
(
ẋ(t) = Ax(t) + Bu(t); x(t0 ) = x0
S
z(t) = Dx(t)

para o qual se deve minimizar o critério I = I(u) = limtf →∞ J(tf , u) =


(Z )
tf
lim [z T (t)Qz(t) + uT (t)Ru(t)] dt + z T (tf )P z(tf )
tf →∞ t0

onde Q>0 R>0 P >0

3.1 Discussão do Problema


Passaremos agora a analisar vários aspectos do PRLOHTI. É bastante sim-
ples verificar que se limt→∞ u(t) 6= 0 então a integral J(tf , u) do critério acima

35
CAPı́TULO 3. HORIZONTE DE TEMPO INFINITO 36

cresce indefinidamente quando tf → ∞ e, obviamente, o problema de mini-


mizar o ı́ndice I(u) perde o sentido. O mesmo raciocı́nio se aplica para z(t)
e assim somos levados à conclusão de que para o PRLOHTI ter sentido é
absolutamente imprescindı́vel que as variáveis z(·) e u(·) tendam para zero
quando t → ∞. Dirı́amos isso de uma maneira mais rigorosa afirmando que:
uma condição necessária para haver solução para o PRLOHTI é

lim u(t) = lim z(t) = 0


t→∞ t→∞

É óbvio que se x(t) → 0 quando t → ∞ então z(t) → 0 também. Mas


podemos ter z(t) → 0 mesmo quando x(t) → ∞, desde que haja mecanis-
mos de inobservabilidade envolvidos. Em suma, deve haver relações entre a
solução deste problema e conceitos já conhecidos como os de observabilidade,
estabilidade, etc. Mais tarde veremos isto com mais detalhes.
Vejamos agora o efeito das condições terminais e uma nova formulação
para o problema. Como z(t) deve forçosamente se anular quando t → ∞
concluimos que limtf →∞ z T (tf )P z(tf ) = 0. Isto siginifica que as condições
terminais não afetam este problema e podem ser eliminadas do critério. É
possı́vel, assim, aperfeiçoar a formulação do PRLOHTI: dado o sistema
x(t0 ) = x0


 ẋ(t) = Ax(t) + Bu(t);
S
z(t) = Dx(t)

minimizar o critério
Z ∞
I = I(u) = [z T (t)Qz(t) + uT (t)Ru(t)] dt
t0
onde Q > 0 e R > 0. Ou então, colocando z(t) = Dx(t), minimizar
Z ∞
I = I(u) = [xT (t)R1 x(t) + uT (t)R2 u(t)] dt
t0
onde R1 = D T QD ≥ 0 e R2 = R > 0.

3.2 Solução Para o PRLOHTI


Deduzimos a partir de agora o que acontece à solução tradicional do PRLO
quando tf → ∞. É bom lembrar, usando resultados do capı́tulo passado, que
devemos minimizar
Z tf
J = J(tf , u) = [z T (t)Qz(t) + uT (t)Ru(t)] dt + z T (tf )P z(tf )
t0
CAPı́TULO 3. HORIZONTE DE TEMPO INFINITO 37

A solução é conhecida:

u∗ (t) = F ∗ (t)x∗ (t) = −R2−1 B T P ∗ (t)x∗ (t)

onde P ∗ (t) é uma solução positiva semidefinida da ERM.


(
Ṗ (t) = −AT P (t) − P (t)A + P (t)BR2−1 B T P (t) − R1
P (tf ) = Pf

na qual usamos R1 = D T QD ≥ 0, R2 = R > 0 e Pf = D T P D ≥ 0.


Aceita-se com naturalidade o fato de que a solução do PRLO é sempre
dada por u∗ (t) = −R2−1 B T P ∗ (t)x∗ (t) = F ∗ (t)x∗ (t), mesmo quando tf cresce:
não haveria razões para esta estrutura mudar. Deste modo a solução do
PRLOHTI está associada ao limite

lim P ∗ (t)
tf →∞

Ou seja, para conhecer o PRLOHTI precisamos conhecer o comporta-


mento da equação de Riccati matricial quando tf → ∞.

3.2.1 Solução da ERM quando tf → ∞


Que acontece com a solução P ∗ (·) da ERM quando tf → ∞? Tudo nos leva
a crer que tal solução continua existindo. Designando-a por P∗∗ (t) temos

P∗∗(t) = lim P ∗ (t)


tf →∞

Alguns autores usam o nome “solução em regime da ERM” mas isto pode
levar a confusões com “valor de regime da solução da ERM” o qual é definido,
quando existe, como limt→∞ P ∗ (t) É bom deixar bem claro que quem está
tendendo a ∞ é o instante final do intervalo, tf , e não a variável independente
t. O objetivo então é o conhecimento de P∗∗ (t). Para ilustrar isso seja um

Exemplo 3.2.1 Seja a ERM Ṗ (t) = 2P (t) + 1r P 2 (t) − 1; P (tf ) = p, obtida


de um exemplo anterior. A sua solução analı́tica é
p + r(1 − β) 2β(t−tf )
β − 1 + (β + 1) e
p + r(1 + β)
P ∗ (t) = r
p + r(1 − β) 2β(t−tf )
1− e
p + r(1 + β)
q
onde β = 1 + 1/r. Como o interesse se restringe às influências de tf e p
podemos simplificar fazendo r = 1/3 o que acarreta β = 2:
CAPı́TULO 3. HORIZONTE DE TEMPO INFINITO 38

1 1 + 3 3p
3p
− 1 e4(t−tf )
+3
P ∗ (t) =
3 1− 3p − 1 4(t−tf )
3p + 3 e
Pondo p = 0 o efeito de tf poderá ser mais bem apreciado.

1 − e4(t−tf )
P ∗ (t) =
3 + e4(t−tf )
Na figura abaixo esboçamos alguns gráficos para diferentes valores de tf .
6
0.4
P ∗ (t)

0.3

0.2
tf = 1 tf = 5 tf = 9
0.1

-
5.0 10.0
t
Efeito de tf na solução da ERM

É imediato verificar que limtf →∞ e2β(t−tf ) = 0, donde, para este caso,

lim P ∗ (t) = P∗∗(t) = r(β − 1) = 1/3 ∀t ∈ [0 ∞)


tf →∞

3.2.2 Pequena Generalização


No exemplo anterior a solução P ∗ (t) convergia, quando tf → ∞, para uma
“solução de regime” P∗∗ (t) constante:

lim P ∗ (t) = P∗∗ (t) = cte. = P∗∗ ∀t ∈ [t0 ∞)


tf →∞

Isto acontecerá sempre? Vejamos. Sejam a ERM


(
Ṗ (t) = −AT P (t) − P (t)A + P (t)BR2−1 B T P (t) − R1
P (tf ) = Pf

e a ERMA associada
CAPı́TULO 3. HORIZONTE DE TEMPO INFINITO 39

−AT X − XA + XBR2−1 B T X − R1 = 0

Se X ∗ é uma solução positiva semidefinida da ERMA e se pudermos


escolher P (tf ) = Pf = X ∗ já sabemos que a solução da ERM será constante:
P ∗ (t) = X ∗ ∀t ∈ [t0 tf ]. Ou seja, em algumas situações a solução P ∗ (t) da
ERM é uma constante que depende apenas da ERMA e, consequentemente,
independe do instante terminal tf . Repetindo, se houver liberdade para se
escolher a condição terminal Pf , podemos fazer

Pf = solução ≥ 0 da ERMA =⇒ P ∗ (t) = Pf ∀t ∈ [t0 tf ] e, importante!, ∀ tf

Assim, desde que Pf possa ser escolhida à vontade, quando tf → ∞ a


solução da ERM tende a um valor constante que é solução da ERMA:

lim P ∗ (t) = P∗∗ (t) = cte. = solução ≥ 0 da ERMA


tf →∞

Lembremo-nos de algo bem recente. Para que o PRLOHTI tenha sentido


precisamos que limtf →∞ z T (tf )P z(tf ) = 0. Mas sendo z = Dx isto pode ser
escrito como

lim xT (tf )D T P Dx(tf ) = lim xT (tf )Pf x(tf ) = 0


tf →∞ tf →∞

Como, no limite, z(tf ) → 0 vemos que o valor de P e, consequentemente,


o de Pf é irrelevante, e a solução do PRLOHTI independe da condição ter-
minal Pf , Isto, aliás, já podia ser pressentido anteriormente, quando a nova
formulação do problema não levava em conta essa matriz. Deste modo, se a
solução do PRLOHTI pode ser obtida da equação de Riccati e se a condição
terminal Pf é arbitrária sempre podemos fazer uma escolha inteligente de
Pf , uma que acarrete solução constante.
A abordagem vista neste item é superficial, embora seja boa para explicar
e fazer entender os mecanismos envolvidos neste problema. Precisamos de
mais rigor teórico para validar as coisas. Por exemplo, quem garante que a
ERMA tenha solução? E se o tiver, será ela positiva semidefinida?

3.3 Um Pouco de Teoria


Temos constatado a existência de inúmeros vı́nculos entre as equações de
Riccati —diferencial e algébrica— e as soluções do Problema do Regulador
Linear Ótimo, em horizonte de tempo finito ou infinito. Nas seções 2.3 e 2.4
CAPı́TULO 3. HORIZONTE DE TEMPO INFINITO 40

do capı́tulo anterior apresentamos alguns resultados básicos sobre a ERM.


Passamos agora a listar uma série de propriedades a respeito das soluções de
regime dessa equção, e de seu relacionamento com a ERMA. Para isso, sejam
o sistema usual
x(t0 ) = x0


 ẋ(t) = Ax(t) + Bu(t);
S
z(t) = Dx(t)

com o critério
Z tf
J = J(tf , u) = [xT (t)R1 x(t) + uT (t)R2 u(t)] dt + xT (tf )Pf x(tf )
t0
onde R1 ≥ 0, R2 > 0, Pf ≥ 0 e a Equação de Riccati matricial

Ṗ (t) = −AT P (t) − P (t)A + P (t)BR2−1 B T P (t) − R1







P (tf ) = Pf

Seja ainda

P ∗ (t) → solução da ERM






lim P (t) = P∗∗ (t) onde
tf →∞
P∗∗ (t) → solução de regime da ERM

Lema 3.3.1 Supondo Pf = 0, a solução P ∗ (t) da ERM tende a uma solução


de regime constante se e somente se o sistema não possui pólos simultanea-
mente instáveis, incontroláveis e observáveis.

O fato de haver uma solução de regime constante para a ERM é assim


equivalente à inexistência de modos instáveis e incontroláveis que sejam sen-
tidos pela saı́da.

Lema 3.3.2 Se o sistema em estudo é estabilizável e detetável então a so-


lução P ∗ (t) da ERM tende a uma solução de regime constante qualquer que
seja a condição terminal Pf ≥ 0:

< A, B, D > estabilizável e detetável =⇒ lim P ∗ (t) = P∗∗ = cte. ∀Pf ≥ 0


tf →∞

Este resultado é mais geral do que o anterior, embora forneça uma con-
dição apenas suficiente. Que podemos dizer da volta, do sentido inverso, ou
seja, que se pode garantir quando a solução de regime é constante?
CAPı́TULO 3. HORIZONTE DE TEMPO INFINITO 41

Lema 3.3.3 Se a solução P ∗ (t) da ERM tende a uma solução de regime


constante P∗∗ então esta P∗∗ é uma solução positiva semidefinida da ERMA:

lim P ∗ (t) = P∗∗ = cte. =⇒ P∗∗ ≥ 0, é solução da ERMA


tf →∞

Este lema fornece uma condição suficiente para haver solução para a
ERMA, mas esta condição não é muito prática. Seria bom algo baseado
nas matrizes < A, B, D >.

Lema 3.3.4 Se a solução P ∗ (t) da ERM tende a uma solução de regime


constante P∗∗ e se o sistema é estabilizável e detetável então P∗∗ será a única
solução positiva semidefinida da ERMA:

limtf →∞ P ∗((t) = P∗∗ = cte. 




estabilizável ⇒ P∗∗ é a única solução PSD da ERMA
< A, B, D >
e detetável 

Agora, pela primeira vez, algo sobre a unicidade. Combinando os lemas


3.3.2 e 3.3.4 podemos chegar a algo mais cômodo:

Lema 3.3.5 Para haver uma única solução PSD da ERMA é suficiente que
o sistema seja estabilizável e detetável.

< A, B, D > estabilizável e detetável =⇒ ∃| solução P∗∗ ≥ 0 da ERMA

Bem mais simples. É conveniente lembrar que esta condição é apenas


suficiente: a ERMA pode ter solução única e < A, B, D > pode ser inestabi-
lizável ou indetetável. Mais teoremas.

Lema 3.3.6 Se a solução P ∗ (t) da ERM tende a uma solução de regime


constante P∗∗ esta será positiva definida se e somente se o sistema é comple-
tamente observável.

lim P ∗ (t) = P∗∗ = cte. > 0 ⇐⇒ < A, D > é observável


tf →∞

Todos os resultados acima se referem a propriedades da Equação de Ric-


cati, e em especial ao seu comportamento quando tf → ∞. Propriedades
especı́ficas a respeito da ERMA podem ser encontradas na seção A.9 Tudo
isto é muito interessante, e é básico para o que é mais importante para nós,
o problema de Controle Ótimo.
CAPı́TULO 3. HORIZONTE DE TEMPO INFINITO 42

3.4 Solução para o PRLOHTI


Se P ∗ (t) tende a uma solução constante quando tf → ∞ podemos esperar que
F ∗ = −R2−1 B T P∗∗ seja uma solução invariante no tempo para o PRLOHTI.
E assim é.
Teorema 3.4.1 Se a solução P ∗(t) da ERM tende a uma solução de regime
constante P∗∗ então a lei de controle

u = −R2−1 B T P∗∗ x = F∗∗ x


estabiliza o sistema de malha fechada se e somente se o sistema de malha
aberta < A, B, D > for estabilizável e detetável.

A + BF∗∗ é estável
 

  estabilizável

com ⇐⇒ < A, B, D > é e
F∗∗ = R2−1 B T limtf →∞ P ∗(t)  detetável
 

A partir deste resultado vemos que se a solução da ERM tende a uma


função constante podemos implementar uma realimentação de estados u =
F∗∗ x a partir dela. Esta lei de controle será estabilizadora sob condições
bastante precisas. Nada se falou ainda sobre minimização.
Teorema 3.4.2 Se o sistema < A, B, D > é estabilizável e detetável então
a lei de controle u = F∗∗ x = −R2−1 B T P∗∗ x minimiza o ı́ndice
Z ∞
[z T (t)Qz(t) + uT (t)P u(t)] dt
t0
atribuindo-lhe o valor mı́nimo dado por xT0 P∗∗ x0
Uma vez estabelecida a importância de uma solução de regime P∗∗ (t)
da ERM que seja constante, é tempo de sistematizar os conhecimentos já
adquiridos. O roteiro para enfrentar um caso concreto é dado pelo

3.5 Algoritmo para Solução do PRLOHTI


Supondo que < A, B, D > é estabilizável e detetável:
1. Calcule — usando, por exemplo os resultados da seção A.9 — a solução
P∗∗ para a ERMA:
−AT X − XA + XBR2−1 B T X − R1 = 0
(P∗∗ é única, e P∗∗ ≥ 0)
CAPı́TULO 3. HORIZONTE DE TEMPO INFINITO 43

2. u∗ = F∗∗ x∗ = −R2−1 B T P∗∗ x∗ é a solução do PRLOHTI.

3. J ∗ = xT0 P∗∗x0

Para ilustrar este algoritmo é bem chegada a hora de um

Exemplo 3.5.1 Seja o sistema dado por


" # " #
0 1 0
ẋ = x+ u; z = [1 0]x
0 0 1

para o qual desejamos minimizar o ı́ndice


Z ∞ h i
J= xT (t)R1 x(t) + uT (t)R2 u(t) dt
0

onde " #
2 1
R1 = ; e R2 = 1/2
1 4
Facilmente verificarı́amos que este sistema é controlável e observável; de
acordo com o algoritmo acima seja a ERMA (com o sinal trocado):

AT X + XA − XBR2−1 B T X + R1 = 0

Lembrando a seção A.9 podemos encontrar a matriz Hamiltoniana asso-


ciada:
0 1 0 0
 

A −BR2−1 B T
" #
 0 0 0 −2 
H= = 
−R1 −AT −2 −1 0 0 
 

−1 −4 −1 0

Esta matriz possui autovalores reais não nulos; seu subespaço dos modos
estáveis poderia ser descrito pelos autovetores associados aos autovalores “es-
táveis” de A:
0, 2110 0, 4968 
 

 
 −0, 5764 −0, 3637 
 

X (H) =
 −0, 0565 0, 8605 

 

−0, 7874 −0, 1331
 

Seria simples verificar que H ∈ R e poderı́amos obter a solução da


ERMA:
" #" #−1
−0, 0565 0, 8605 0, 2110 0, 4968
X = Ric (H) =
−0, 7874 −0, 1331 −0, 5764 −0, 3637
CAPı́TULO 3. HORIZONTE DE TEMPO INFINITO 44

" #
2, 4641 1, 0000
=
1, 0000 1.7321
Deste ponto a realimentação de estados ótima sai facilmente:

F ∗ = −R2−1 B T X = [−2, 0000 − 3, 4641]

3.6 Que Acontece se a Condição Falha?


A condição de estabilizabilidade e detetabilidade de < A, B, D > é bastante
suave e razoável. Se < A, B >, por exemplo, não for estabilizável, pouco se
pode fazer por este caso. Minimizar então, nem se fala. Se < A, B > for
estabilizável mas não detetável o problema aparecerá na impossibilidade de
se implementar a lei de controle. Então, por estas razões, a condição deve
ser aceita com naturalidade. Se ela falha é porque é mesmo difı́cil.

3.7 Controlabilidade e Observabilidade


OK, tudo bem, então o sistema < A, B, D > é estabilizável e detetável. Mas
pode haver modos incontroláveis e/ou inobserváveis (eles serão forçosamente
estáveis). Que acontece com eles? É lógico que os modos incontroláveis per-
manecem imutáveis após realimentação de estado. Sem grandes agressões
podemos raciocinar que os modos inobserváveis, como não afetam z, e con-
sequentemente o ı́ndice a ser minimizado, são deixados exatamente no lugar
em que estavam, pois esta é a tática mais econômica. Assim, a solução ótima
u∗ = F∗∗ x∗ deixa fixos os modos incontroláveis e/ou inobserváveis, atuando
apenas sobre as partes controláveis e observáveis de < A, B, D >. E estas
partes observáveis e controláveis, as partes que são efetivamente manipula-
das pela solução ótima, onde são elas colocadas? Qual é a localização ótima
dos pólos no plano complexo C ? Logo logo veremos isso, antes porém . . .

3.8 Comentários e Referências


A aplicabilidade prática do Problema do Regulador Linear Ótimo com Ho-
rizonte de Tempo Infinito é maior do que a do caso com Tempo Finito. Em
quase todos os casos de interesse, desejamos acompanhar um dado sistema
ao longo de um intervalo de tempo grande, durante o qual as variáveis se
CAPı́TULO 3. HORIZONTE DE TEMPO INFINITO 45

aproximam assintoticamente de 0. A modelagem do PRLOHTI se adapta


melhor a estas necessidades do que a do PRLO.
O material apresentado neste capı́tulo também deve ser considerado clás-
sico, e faz parte da grande maioria dos textos devotados a Controle Ótimo. É
mais fácil encontrar considerações sobre o problema com horizonte de tempo
infinito do que sobre o caso finito. As obras mais consultadas para elaborar
este capı́tulo foram [?] e [?]
Capı́tulo 4

Outros caminhos. . .

. . . podem levar a um mesmo lugar.


A aplicabilidade prática do Problema do Regulador Linear Ótimo com
Horizonte de Tempo Infinito é maior do que a do caso com Tempo Finito.
No capı́tulo precedente chegamos aos resultados relativos ao PRLOHTI a
partir de uma particularização das fórmulas gerais obtidas anteriormente
pelo Cálculo das Variações. A partir de agora deduziremos esses resultados
através de uma outra metodologia, o Princı́pio do Máximo.

4.1 Referências
Este capı́tulo foi inspirado em [?]

46
Capı́tulo 5

Propriedades da Solução do
PRLOHTI

Alguns aspectos importantes a respeito dos reguladores ótimos ainda esperam


resposta. Por exemplo, qual é a localização dos autovalores da malha fechada
após a realimentação otimizadora? qual é o efeito dos custos de controle sobre
estes autovalores ótimos? A importância teórica e prática destes tópicos é
indiscutı́vel, e eles serão tratados com maior profundidade neste capı́tulo.
Começaremos com um resumo da situação, depois analisaremos com mais
detalhes o relacionamento das equações de Riccati com as soluções ótimas, e
finalmente estudaremos a localização ótima dos pólos.

5.1 Retomando o pé


A solução do problema do regulador em tempo finito é u∗ (t) = −R2−1 B T p∗ (t),
que depende da trajetória ótima do coestado p(t). Lembrando que coestado
e estado sempre podem ser relacionados por p(t) = P ∗ (t)x(t) chegarı́amos a

u∗ (t) = −R2−1 B T P ∗ (t)x∗ (t)


que caracteriza a solução ótima como uma realimentação de estados. Estado
e coestado podem ser obtidos da equação variacional
A −BR2−1 B T
" # " #" #
ẋ(t) x(t)
=
ṗ(t) −R1 −AT p(t)

A solução desta equação homogênea dará origem às trajetórias ótimas x∗ (t)
e p∗ (t) desde que usemos as condições de contorno

x(t0 ) = x0 e p(tf ) = P ∗ (tf )x(tf ) = Pf x(tf )

47
CAPı́TULO 5. PROPRIEDADES DA SOLUÇÃO DO PRLOHTI 48

O caráter hı́brido destas condições de contorno — algumas variáveis são


iniciais, outras terminais — é o principal obstáculo do caminho. Isto é con-
tornável, conforme visto, mas para evitar estes inconvenientes das equações
variacionais podemos deduzir as soluções a partir da equação de Riccatti: a
matriz P ∗(t) que relaciona as trajetórias do estado e do coestado é a solução
da ERM
Ṗ (t) = −AT P (t) − P (t)A + P (t)BR2−1 B T P (t) − R1





P (tf ) = Pf

O fato de considerarmos um regulador em tempo infinito traz simpli-


ficações: para o PRLHOTI, a solução procurada é a “solução de regime”

P ∗ (t) = cte. = P ∗ ∀t

que será a solução positiva semidefinida da ERMA, a Equação de Riccati


Matricial Algébrica associada:

AT X + XA − XBR2−1 B T X + R1 = 0

Designando esta solução por P ∗ ou mesmo apenas X, ao invés de P∗∗


como antes, teremos p(t) = P ∗ x(t) e a solução do PRLOHTI pode ser obtida
através de simplificação da equação original:

u∗ (t) = −R2−1 B T P ∗ x∗ (t) = F ∗ x∗ (t)

A realimentação de estado é agora fixa, ou invariante no tempo, o que


simplifica bastante a implementação prática.

5.2 Encontrando a solução da ERMA


A equação variacional pode ser representada de forma compacta

ẋe (t) = Ae xe (t)

onde, para simplificar a notação, usou-se

A −BR2−1 B T
" # " #
x(t)
xe (t) = ; Ae =
p(t) −R1 −AT

A matriz Ae é Hamiltoniana. Para uniformizar a notação com a da seção


A.9 do Apêndice A, consideremos S = −BR2−1 B T e T = −R1 :
CAPı́TULO 5. PROPRIEDADES DA SOLUÇÃO DO PRLOHTI 49

" #
A S
Ae = ∈H
T −AT

Segundo a propriedade A.9.1, o polinômio caracterı́stico de Ae , aqui de-


signado por ∆(λ), é par, ou seja, satisfaz a seguinte propriedade

∆(λ) = ∆(−λ)

Vemos assim que o espectro de Ae é simétrico com relação à origem do


plano complexo: se λi é um autovalor de Ae certamente −λi também o será.
Neste ponto precisaremos relembrar a propriedade A.9.4, aqui reescrita para
maior comodidade:

Propriedade 5.2.1 Se H ∈ dom(Ric) e X = Ric(H), então


a.) X é simétrica
b.) A + SX é estável
c.) X é solução da equação de Riccati matricial algébrica

AT X + XA + XSX − T = 0

A conseqüência prática mais importante deste resultado é a maneira de


se obter uma solução para a ERMA. Quando a estrutura modal de Ae é
camarada, isto pode ser feito a partir do cálculo dos autovetores associados
a autovalores estáveis. Se este caminho for problemático devemos fatorar o
polinômio mı́nimo, conforme discutido na seção A.9.
Do ponto de vista teórico é preciso ressaltar a importância do item (b).
Com efeito, dizer que A + SX é estável significa dizer que A − BR2−1 B T X =
A+ BF ∗ é estável e tem autovalores iguais aos autovalores estáveis da matriz
Hamiltoniana Ae . Este fato é suficientemente importante para merecer uma

Propriedade 5.2.2 Os autovalores do sistema de malha fechada ótimo são


os autovalores estáveis da matriz variacional Ae .

Para sistematizar o corpo de conhecimentos já desenvolvidos:

Algoritmo para o PRLOHTI

1. Contruir a matriz variacional


A −BR2−1 B T
" # " #
A S
Ae = =
T −AT −R1 −AT
CAPı́TULO 5. PROPRIEDADES DA SOLUÇÃO DO PRLOHTI 50

2. Verificar se Ae ∈ R = dom (Ric)

3. Se sim, calcular uma base X − para o subespaço dos modos estáveis


X − (Ae ) e particioná-la em
" #
X1
X− =
X2

4. Obter X = X2 X1−1 , solução da ERMA

5. Sendo F ∗ = −R2−1 B T X aplicar a lei de controle u∗ = F ∗ x ao sistema.

6. Os autovalores ótimos da malha fechada são os autovalores estáveis de


Ae

5.3 Um caminho alternativo


Os aspectos básicos mais importantes, apresentados ao longo do texto, foram
recapitulados na seção anterior. Passamos agora a reapresentar uma parte
desse material de maneira diferente, com um nı́vel de detalhamento maior
mas de modo ligeiramente menos geral. No restante desta seção usaremos a
hipótese de que os autovalores de Ae são distintos. Com perdas irrisórias de
generalidade esta hipótese simplificará os desenvolvimentos, pois permitirá
exprimir os subespaços espectrais em termos dos autovetores, deixando assim
transparecer com mais clareza os fatos importantes. Como primeira aplicação
redemonstraremos a propriedade A.9.4, com a hipótese adicional.
Demonstração: Podemos ordenar o espectro de Ae , colocando em pri-
meiro lugar os autovalores com parte real positiva:

λ(Ae ) = {λ1 , λ2 , . . . , λn , λn+1 , . . . , λ2n }

onde Re(λi ) ≥ 0 ∀i = 1, 2, . . . , n e Re(λi ) ≤ 0 ∀i = n+1, . . . , n.


Se algum autovalor λj é imaginário puro (Re(λj ) = 0), ele pode ser
colocado em qualquer uma das partições; seu conjugado deve ser colocado na
outra. Sejam wi , i = 1, 2, . . . , 2n os autovetores associados aos autovalores
λi : Ae wi = λi wi , i = 1, 2, . . . , 2n. Como por hipótese os λi são distintos os wi
serão linearmente independentes e a matriz W = [wi · · · w2n ] será inversı́vel.
Efetuando a mundaça de bases xe (t) = W x̃e (t) teremos
" #
−1 Λ⊕ 0
Ãe = W Ae W = , onde
0 Λ⊖
CAPı́TULO 5. PROPRIEDADES DA SOLUÇÃO DO PRLOHTI 51

λ1 λn+1
   

λ2  
λn+2 
Λ⊕ =  Λ⊖ = 
   
.. 
.. 

 . 
 

. 

λn λ2n

Se os autovalores tiverem sido ordenados de uma maneira simétrica tere-


mos λi + λi+n = 0, ∀i = 1, 2, . . . , n e, obviamente

λ1
 

λ2 
Λ⊕ = Λ; Λ⊖ = −Λ onde Λ = 
 
.. 

 . 

λn
" #
qI
Particionando o vetor expandido x̃e como x̃e = teremos
qII

q̇I = ΛqI e q̇II = −ΛqII

Por outro lado, x̃e = W −1 xe , o que permite escrever


" # " #" #
qI V11 V12 x
=
qII V21 V22 p

onde já particionamos W −1 = V de maneira compatı́vel. A variável qI (t)


pode ser obtida a partir de

qI (t) = V11 x(t) + V12 p(t)


= V11 x(t) + V12 P ∗ x(t)
= (V11 + V12 P ∗)x(t)

Se as condições iniciais foram colocadas corretamente o x(t) da expressão


acima deve ser substituı́do por x∗ (t). Mas o controle ótimo é sempre esta-
bilizador, e assim x∗ (t) → 0 quando t → ∞. Consequentemente qI (t) → 0
quando t → ∞. Mas
qI (t) = e(t−t0 )Λ qI (t0 )
Como os autovalores de Λ tem partes reais positivas ou nulas, podemos
ter qI (t) → 0 apenas quando qI (t0 ) = 0 ou seja: (V11 + V12 P ∗ )x0 = 0. Todo
este arrazoado deve ser independente da condição inicial x0 e assim podemos
colocar
V11 + V12 P ∗ = 0
CAPı́TULO 5. PROPRIEDADES DA SOLUÇÃO DO PRLOHTI 52

Usando outra linha de argumentação provarı́amos que V12 é inversı́vel, e


isto leva a

P ∗ = −V12−1 V11

Pronto, eis aı́ um modo de exprimir P ∗ em termos dos blocos da ma-


triz V = W −1 . Se particionássemos também a matriz W dos autovetores
encontrarı́amos

P ∗ = −V12−1 V11 = W22 W12


−1

Se a matriz Ae for facilmente diagonalizável as identidades acima podem


ser úteis para o cálculo de P ∗. É sempre útil ter em mente que todos estes
aspectos já foram vistos anteriormente, com uma abordagem mais geral,
concisa e elegante. Para ver onde ficam os autovalores ótimos, consideremos
a solução xe (t) da equação variacional:

xe (t) = W x̃e (t)


= W e(t−t0 )Ãe W −1 x0e

Desenvolvendo:
 "
e(t−t0 )Λ
" # #" #
x∗ (t) 0 V11 V12 x0
=W −(t−t0 )Λ
p∗ (t) P ∗ x0

0 e V21 V22
# "
(t−t0 )Λ
" # " #

x (t) W11 W12  e 0 (V11 + V12 P ∗ )x0
=
p∗ (t) e−(t−t0 )Λ (V21 + V22 P ∗ )x0

W21 W22 0
Como V11 + V12 P ∗ = 0 temos

 x∗ (t) = W12 e−(t−t0 )Λ (V21 + V22 P ∗ )x0
 p∗ (t) = W e−(t−t0 )Λ (V + V P ∗ )x
22 21 22 0

Para t = t0 a primeira das igualdades acima se particulariza em

x∗ (t0 ) = x0 = W12 e0 (V21 + V22 P ∗ )x0


−1
Como isto deve ser verdadeiro ∀ x0 , teremos V21 + V22 P ∗ = W12 e pode-
mos escrever, finalmente,

x∗ (t) = W12 e−(t−t0 )Λ W12


−1
x0

Isto mostra claramente que os autovalores do sistema de malha fechada


ótimo — os modos responsáveis pelo comportamento dinâmico da trajetória
CAPı́TULO 5. PROPRIEDADES DA SOLUÇÃO DO PRLOHTI 53

x∗ (t) — são exatamente os elementos de −Λ! Como o sistema de malha


fechada ótimo é sempre assintoticamente estável concluimos que todos o au-
tovalores de −Λ tem partes estritamente negativas e, consequentemente, que
a matriz Ae não possui autovalores no eixo imaginário. estes fatos podem ser
resumidos no

Teorema 5.3.1 Suponha que < A, B > é estabilizável e que < D, A > é
detetável; suponha também que a matriz

A −BR2−1 B T
" #
Ae =
−R1 −AT

possui 2n autovalores distintos. Nestas condições:


1. se λ ∈ λ(Ae ) então −λ ∈ λ(Ae )

2. se λ ∈ λ(Ae ) então Re(λ) 6= 0

3. λ(A + BF ∗ ) ⊂ λ(Ae )

4. se Ae é diagonalizada como
" #
Λ 0
Ãe = = W −1 Ae W = V Ae V −1
0 −Λ

onde Λ engloba os autovalores com parte real positiva então a solução


de regime da ERMA será

P ∗ = −V12−1 V11 = W22 W12


−1

5. a trajetória ótima do regulador será

x∗ (t) = W12 e−(t−t0 )Λ W12


−1
x0

Para concluir este enfoque,

Algoritmo para Solução do PRLOHTI

1. Verificar se < A, B, D > é estabilizável e detetável

2. Supondo que sim, construir

A −BR2−1 B T
" #
Ae =
−R1 −AT
CAPı́TULO 5. PROPRIEDADES DA SOLUÇÃO DO PRLOHTI 54

3. Diagonalizá-la separando os modos instáveis dos estáveis:


" #
−1 Λ 0
W Ae W =
0 −Λ

−1
4. P ∗ = W22 W12
5. u∗ = F ∗ x∗ = −R2−1 B T P ∗ x∗

Deve ficar bem claro que este algoritmo é absolutamente equivalente ao


da seção anterior.

Exemplo 5.3.1 Seja o sistema


" # " #
0 1 0
ẋ(t) = x(t) + u(t); x(t0 ) = x0 ; z(t) = x(t)
0 0 1
R∞
com o objetivo de minimizar J = J(u) = 0 [xT (t)R1 x(t) + ru2(t)] dt, onde
" #
1 b
R1 = ; a − b2 > 0 (para que R1 > 0); r=1
b a

A ERMA será AT X + XA − XBR2−1 B T X + R1 = 0. Usando os valores


dados somos levados a
" # " # " # " #
0 0 0 1 0 0 1 b
X +X −X X=−
1 0 0 0 0 1 b a

Solução frontal da ERMA

Para este caso, razoavelmente simples, resolveremos a ERMA “na mar-


ra”. A solução positiva definida X será da forma
" #
x11 x12
X=
x12 x22
Entrando com isto na ERMA obteremos
" # " # " # " #
0 0 0 x11 x12 2 x12 x22 1 b
+ − =−
x11 x12 0 x12 x12 x22 x22 2 b a
donde tiramos as equações
x12 2 = 1



2x12 − x22 2 = −a
x11 − x12 x22 = −b


CAPı́TULO 5. PROPRIEDADES DA SOLUÇÃO DO PRLOHTI 55

que podem ser resolvidas facilmente, dando origem a




 x12 = ±1√
x = ± a + 2x12
 22

x11 = −b + x12 x22
O teorema A.4.1, de Sylvester, garante que os menores principais de X
devem ser positivos (
x11 > 0
x11 x22 − x12 2 > 0
A segunda desigualdade acima pode se transformar em x11 x22 > x12 2 = 1,
usando resultado imediatamente anterior. Como x11 > 0 temos trivialmente
que x22 > 1/x11 donde x22 > 0 também, e podemos escolher

x22 = + a + 2x12
A tarefa agora é decidir sobre o sinal de x12 . Vamos supor que x12 = −1.
Com isto: ( √
x22 = a − √ 2
x11 = −b − a − 2
Como X é uma matriz real devemos ter a − 2 ≥ 0, ou seja, a ≥ 2.
Estamos em condições de estabelecer a seguinte cadeia lógica:
√ √
x11 x22 > 1 =⇒ −(b √ + a − 2) a − 2 > 1
=⇒ b√a − 2 + (a − 2) < −1
=⇒ b a − 2 < 1√ −a
=⇒ b < (1 − a)/ a − 2

Mas (1−a) < 0, pois a ≥ 2. Isto implica que b < (1 − a)/( a − 2 ) < 0.
Quadrando teremos
(a − 1)2 a2 − 2a + 1 1
b2 > = =a+
a−2 a−2 a−2
Notemos para terminar (em boa hora!), que 1/(a − 2) ≥ 0, porque a − 2 ≥
0. Mas isto significa que
1
b2 > a + ≥a
a−2
o que é um absurdo, pois R1 > 0 e consequentemente a−b2 > 0 e b2 < a. Esse
longo e artificioso raciocı́nio chega finalmente a seu alvo, a determinação de
X, solução da ERMA, em termos dos parâmetros de R1 :


x√12 = 1  " #
 −b + a + 2 √ 1
x22 = √a + 2 =⇒ X =
1 a+2
x11 = −b + a + 2 

CAPı́TULO 5. PROPRIEDADES DA SOLUÇÃO DO PRLOHTI 56

Solução por Diagonalização

Para evitar as delicadezas de um procedimento como este anterior, po-


demos usar a teoria precedente e seus métodos “automatizados” para obter
soluções da ERMA. Uma simples substituição dos dados do problema forne-
ceria a matriz
0 1 0 0
 
 0 0 0 −1 
Ae = 
 
 −1 −b 0 0 

−b −a −1 0
cujo polinômio caracterı́stico é dado abaixo, juntamente com suas raı́zes
 √
 a + a2 − 4 = k
2 1



4 2 2
∆(λ) = det(λI −Ae ) = λ − aλ + 1 =⇒ λ = √

 a − a2 − 4

= k2

2
A partir daqui temos o espectro de Ae , seus autovetores e a matriz de
mudança de bases W :
q q q q
λ(Ae ) = { k1 , k2 , − k1 , − k2 } = {λ1 , λ2 , λ3 , λ4 }

1 1 1 1
 
 λ1 λ2 λ3 λ4 
W =
 
(λ1 3 −aλ1 −b) (λ2 3 −aλ2 −b) (λ3 3 −aλ3 −b) (λ4 3 −aλ4 −b)

 
−λ1 2 −λ2 2 −λ3 2 −λ4 2
−1
donde podemos extrair, lembrando a recente teoria, P ∗ = W22 W12 , resul-
tando
#−1
λ3 3 − aλ3 − b λ4 3 − aλ4 − b
" #"
1 1
P∗ =
−λ3 2 −λ4 2 λ3 λ4

−λ3 λ4 (λ3 + λ4 ) + b λ4 2 + λ4 λ3 + λ3 2 − a
" #
=
λ3 λ4 −(λ3 + λ4 )
Pronto! Ufa . . . É só efetuar os cálculos e teremos
" √ #
−b + a + 2 √ 1
X=
1 a+2
CAPı́TULO 5. PROPRIEDADES DA SOLUÇÃO DO PRLOHTI 57

como anteriormente, é lógico. Qual dos dois métodos é mais simples? Para
pegar a fera à unha, com a pura força das nossas munhecas, ambos pare-
cem desanimadoramente trabalhosos e a escolha mais razoável seria pedir
um computador, pois afinal é para isso mesmo que eles existem.
O controle ótimo propriamente dito será dado por u∗ (t) = F ∗ (t)x(t), onde

F ∗ (t) = −R2−1 B T X = [ −1 − a + 2 ]

Com estes valores o sistema de malha fechada ficará


" #
∗ 0 √1
A + BF =
−1 − a + 2

com equação caracterı́stica e autovalores dados por


 √ √

λ1 ∗
= − a + 2 + a−2
√ 2



2
∆F (λ) = λ + ( a + 2)λ + 1 =⇒ √ √

− a + 2 − a−2

λ2 ∗ =


2

Discussão da Solução

caso a = 0: isto significa nenhuma ênfase na componente x2 = ẋ1 . Não


estamos interessados na derivada √da saı́da
√ ou seja, a velocidade pode
− 2±j 2
ser alta. Os autovalores seriam 2
e terı́amos uma solução os-
cilatória.

caso a = 2: já passamos a penalizar velocidades muito grandes, e os auto-


valores serão −2±0
2
= −1, reais e iguais significando amortecimento
crı́tico. O sistema é mais lento mas oscila menos.

caso a > 2: agora é importante termos velocidades baixas. Os pólos serão


reais e distintos e a resposta será super amortecida, isto é, lenta mas
com derivada baixa.

ausência de b: tanto a realimentação ótima F ∗ quanto os autovalores óti-


mos λ∗i dependem apenas do parâmetro a. Isto significa que os ter-
mos cruzados x1 x2 , ponderados pelo parâmetro b em R1 , não afetam a
solução ótima. Fatos semelhantes acontecem com alguma freqüência, e
são, possivelmente, os responsáveis por uma prática bastante comum:
o uso de matrizes de ponderação diagonais.
CAPı́TULO 5. PROPRIEDADES DA SOLUÇÃO DO PRLOHTI 58

5.4 Que Acontece aos Pólos?


Veremos agora um enfoque frequencial da teoria do Regulador Linear Qua-
drático. Por enfoque frequencial entendemos a análise dos aspectos relacio-
nados às funções de transferência e seus parâmetros. Seja então o sistema
usual
x(t0 ) = x0


 ẋ(t) = Ax(t) + Bu(t);
S
z(t) = Dx(t)

Podemos também representá-lo por meio de


Z(s) = G(s)U(s) + G′ (s)x0 ,


 onde
S
G(s) = D(sI − A)−1 B, e G′ (S) = D(SI − A)−1

Seja o PRLOHTI, onde, para Q > 0 e R > 0 devemos minimizar


Z ∞
J = J(u) = [z T (t)Qz(t) + uT (t)Ru(t)] dt
t0
Supondo que u∗ (t) = F ∗ x∗ (t)+v(t) é a solução ótima, o sistema de malha
fechada ficará
ẋ(t) = (A + BF ∗ )x(t) + Bv(t); x(t0 ) = x0



SF
z(t) = Dx(t)

ou então
Z(s) = GF (s)U(s) + G′F (s)x0 ,


 onde
SF
GF (s) = D(sI − A − BF ∗ )−1 B, e G′ (s) = D(sI − A − BF ∗ )−1

Qual é a localização ótima no plano complexo C para os autovalores de


(A + BF ∗ )? Há lugares especiais para os pólos da malha fechada? Come-
çaremos esta análise estudando a influência das matrizes de ponderação Q
e R sobre o posicionamento ótimo dos pólos da malha fechada. Veremos as
conseqüências acarretadas por controles “baratos” e “caros”.
Antes de prosseguir, um aspecto simplificador. Temos apenas duas ma-
trizes de ponderação: Q e R. A influência relativa delas pode ser medida
fixando o valor de uma e fazendo a outra variar. Assim podemos escolher


 Q = I = fixa

R = rN onde r é um escalar variável




CAPı́TULO 5. PROPRIEDADES DA SOLUÇÃO DO PRLOHTI 59

Isto significa que todas as componentes da saı́da estão sendo igualmente


ponderadas. Outras matrizes não tão triviais poderiam ter sido escolhidas
mas o algebrismo ficaria seriamente comprometido e as conclusões qualita-
tivas seriam praticamente idênticas. A escolha R = rN significa que todos
os elementos de R variarão proporcionalmente. Isto é uma hipótese razoável
e simplificará bastante as coisas. Valores elevados de r significam “controle
caro” ou seja, os nı́veis de u(·) devem ser mantidos baixos. Valores pequenos
para r permitem grandes amplitudes da entrada, caracterizando o “controle
barato.”
Veremos agora a localização dos pólos de malha fechada em função de r.
Já sabemos que os autovalores de A+BF ∗ serão os autovalores estáveis de Ae .
Para calcular o polinômio caracterı́stico λ(Ae ) usarı́amos desenvolvimentos
análogos aos feitos na seção A.9 do Apêndice A, resultando em ∆e (s) =
h i
det(sI − A)det(sI + A)det I − R2−1 B T [(sI + A)T ]−1 D T D(sI − A)−1 B

Como sI + A = −I(−sI − A) e como

GT (s) = B T [(sI − A)−1 ]T D T = B T [(sI − A)T ]−1 D T

vemos que:

∆e (s) = det(sI − A)det(−I)det(−sI − A)det[I + R2−1 GT (−s)G(s)]

Finalmente, lembrando que det(sI − A) = ∆(s) é o polinômio carac-


terı́stico de A:
1
 
∆e (s) = (−1)n ∆(s)∆(−s)det I + N −1 GT (−s)G(s)
r
As raı́zes estáveis deste polinômio são os pólos do regulador ótimo. Vamos
simplificar mais, considerando o caso monovariável: G(s) é um escalar, o
quociente entre os polinômios n(s) e d(s):

n(s) n(−s)
G(s) = GT (−s) =
d(s) d(−s)

Como N = 1 para o caso escalar ficaremos com


" #
n 1 n(−s) n(s)
∆e (s) = (−1) d(s)d(−s) 1 +
r d(−s) d(s)

1
 
= (−1)n d(s)d(−s) + n(−s)n(s)
r
CAPı́TULO 5. PROPRIEDADES DA SOLUÇÃO DO PRLOHTI 60

Supondo que
Qp  
n(s) = k0 i=1 (s − νi ) 
k0 → ganho de G(s)
 

onde  νi → zeros de G(s)
d(s) = ni=1 (s − πi )  πi → pólos de G(s)
Q  

teremos
p
n(−s) = k0 (−1)p
Y
(s + νi )
i=1

n
d(−s) = (−1)n
Y
(s + πi )
i=1

e então
n p
k02
( )
∆e (s) = (−1)n n p
Y Y
(−1) (s − πi )(s + πi ) + (−1) (s − νi )(s + νi )
i=1 r i=1

n p
k02
( )
= (−1)2n p−n
Y Y
(s − πi )(s + πi ) + (−1) (s − νi )(s + νi )
i=1 r i=1

Como (−1)2n = 1 e (−1)p−n = (−1)n−p temos que analisar as raı́zes


estáveis do polinômio
n p
Y k02 n−p
Y
∆e (s) = (s − πi )(s + πi ) + (−1) (s − νi )(s + νi )
i=1 r i=1

Isto pode ser escrito de outro modo, mais propı́cio às técnicas do método
do Lugar das Raı́zes:
Qp
(s − νi )(s + νi )
1 + (−1) n−p
K Qni=1 =0
i=1 (s − πi )(s + πi )

Já se pode tirar algumas conclusões:

1. Quando K → 0 (r → ∞) as 2n raı́zes se aproximam dos pólos πi e de


seus negativos −πi .

2. Quando K → ∞ (r → 0), então 2p das 2n raı́zes se aproximam dos


zeros νi e de seus negativos −νi
CAPı́TULO 5. PROPRIEDADES DA SOLUÇÃO DO PRLOHTI 61

3. Quando K → ∞ (r → 0), as 2n − 2p raı́zes restantes convergem para


assı́ntotas retas que se cruzam na origem e que fazem com o eixo real
positivo ângulos de


n − p j = 0, 1, . . . , 2n − 2p − 1 para (n − p) ı́mpar



(j + 1/2)π


j = 0, 1, . . . , 2n − 2p − 1 para (n − p) par

n−p

4. Quando K → ∞ (r → 0), as 2n − 2p raı́zes estão a uma distância da


1
k2
origem dada por ( r0 ) 2(n−p) .
Uma simples aplicação das regras básicas para construção do Lugar das
Raı́zes permite o estabelecimento dos fatos acima.

Exemplo 5.4.1 Para o sistema com n = 3 e p = 1 dado pela matriz de


transferência G(s) = (s + 1)/s(s − 2)(s + 3) devemos considerar a equação
(s + 1)(s − 1)
1 + (−1)2 K =0
s(s − 2)(s + 3)s(s + 2)(s − 3)
O traçado do Lugar das Raı́zes para este polinômio em termos do parâ-
metro r = 1/K pode ser visto na figura a seguir:

6Im
@
@ r→∞
@
@
@
@
@
@
@ r→0
×- × e ×- e
@× ×- ×r→∞ -
@ Re
@
@
@
@
@
@
@
@
@

Lugar das Raı́zes para o exemplo


CAPı́TULO 5. PROPRIEDADES DA SOLUÇÃO DO PRLOHTI 62

5.5 Resumo Teórico


Tendo em mente que os pólos do regulador ótimo são os autovalores estáveis
de Ae podemos resumir e legitimar as conclusões atingidas acima. Para isso,
seja o sistema monovariável, estabilizável e detetável dado por

x(t0 ) = x0


 ẋ(t) = Ax(t) + bu(t);
S
z(t) = dx(t)

ou então por Qp
(s − νi )
G(s) = d(sI − A) b = k0 Qni=1−1

i=1 (s − πi )
para o qual desejamos resolver o PRLOHTI, ou seja, para r > 0 minimizar
o critério
Z ∞
J= [z 2 (t) + ru2 (t)] dt
0

Teorema 5.5.1 1. Quando r → ∞ os n pólos do regulador ótimo se


aproximam dos valores πi∗ , i = 1, 2, . . . , n dados por


 πi se Re(πi ) ≤ 0
πi∗ =

−πi se Re(πi ) > 0

2. Quando r → 0, p dos n pólos do regulador ótimo se aproximam dos


valores νi∗ , i = 1, 2, . . . , p onde


 νi se Re(νi ) ≤ 0
νi∗ =
−νi se Re(νi ) > 0

3. Quando r → 0, os n−p pólos restantes do regulador ótimo aproximam-


se assintoticamente de linhas retas que se interceptam na origem e que
fazem com o eixo real positivo ângulos de

± n ℓπ

− p , ℓ = 0, 1, 2, . . . para n − p ı́mpar



(ℓ + 1/2)π


± n − p , ℓ = 0, 1, 2, . . . para n − p par

Estes pólos longı́nquos distam da origem


CAPı́TULO 5. PROPRIEDADES DA SOLUÇÃO DO PRLOHTI 63

1
k02
!
2(n−p)
w0 =
r

O posicionamento destes pólos longı́nquos recebe o nome de Configu-


ração de Butterworth de ordem (n − p) com raio w0

Na próxima figura vemos esboços para as configurações de Butterworth


de ordens 1, 2, 3, 4, 5.
@ J
@ J
@ J
ordem 1 ordem 2 @ ordem 3 J
@ J

B
S
S bb B
HH S B
H b
ordem 4 HHS ordem 5bb B
S
H bB
 " 
"
  "
" 
  " 
"

 

Configurações de Butterworth

Para o caso de várias entradas e várias saı́das podemos chegar a conclusões


análogas desde que definamos a contento pólos e zeros de um sistema. A
maior complicação aparece no comportamento dos pólos longı́nquos, quando
terı́amos configurações de Butterworth múltiplas com raios distintos etc.

5.6 Discussão dos Resultados


5.6.1 Caso do Controle Barato, r pequeno.
Grandes amplitudes são permitidas em u e por isso a resposta pode ser
rápida, ou seja, temos pólos que podem se afastar bastante, podem se tornar
longı́quos. Eles serão responsáveis pelos movimentos rápidos, pelas amplitu-
des grandes em u. Mas nem todos os pólos se afastam, alguns tendem aos
zeros estáveis de G(s). Isto é interessante pois indica que o cancelamento
de pólos e zeros (no semiplano esquerdo!) está embutido no mecanismo do
CAPı́TULO 5. PROPRIEDADES DA SOLUÇÃO DO PRLOHTI 64

regulador ótimo. Seja por exemplo um sistema com G(s) = n(s)/d(s). Após
a realimentação ótima u = F ∗ x + v teremos
Qp
nF (s) n(s) i=1 (s − νi )
GF (s) = = =
dF (s) dF (s) dF (s)
onde dF (s) é composta pelos autovalores de Ae .i upondo controle barato
teremos r → 0 e
p
Y n−p
Y
dF (s) ≈ (s − ν̂i ) (s − ηi w0 )
i=1 i=1

onde 

 νi se Re(νi ) ≤ 0
ν̂i =
−νi se Re(νi ) > 0

e os termos (s − ηi w0 ) representam os pólos distantes.


Supondo que o sistema de malha aberta é de defasagem (ou fase) mı́nima
teremos que todos os zeros de G(s) estarão localizados no semiplano esquerdo,
ou seja, Re(νi ) < 0, i = 1, 2, . . . , p e assim
nF (s) 1
GF (s) = T (s) ≈ Qp Qn−p = Qn−p ‘
i=1 (s − νi ) i=1 (s − ηi w0 ) i=1 (s − ηi w0 )

Todos os zeros (estáveis) de G(s) são cancelados pelo controle ótimo. A


malha fechada passa a depender apenas dos pólos distantes. O polinômio
n−p
Y
(s − ηi w0 )
i=1

é chamado de polinômio de Butterworth de ordem (n − p) e seus coeficientes


dependem apenas de (n − p). Por exemplo, para
n−p=1 teremos s+1
2
n−p=2 teremos s + 1, 414s + 1
n−p=3 teremos s3 + 2s2 + 2s + 1
n−p=4 teremos s4 + 2, 613s3 + 3, 414s2 + 2, 613s + 1
n−p=5 teremos s + 3, 236s4 + 5, 236s3 + 5, 236s2 + 3, 236s + 1
5

Se o sistema é de fase não mı́nima, a função de transferência de malha


fechada T (s) conterá fatores do tipo
s + νi
s − νi
e os pólos próximos afetarão a configuração final, não sendo cancelados todos
como acontecia antes. Isto significa que a “velocidade” de sistemas de fase
não mı́nima está limitada pelos pólos próximos de origem.
CAPı́TULO 5. PROPRIEDADES DA SOLUÇÃO DO PRLOHTI 65

5.6.2 Caso do Controle Caro, r → ∞.


As amplitudes da entrada são muito penalizados. Neste caso a melhor solução
é deixar inalterados os pólos estáveis de G(s) e trazer os instáveis até suas
imagens especulares. Intuitivamente poderı́amos pensar que seria mais efici-
ente, mais “barato” mexer nos pólos instáveis apenas o suficiente para trazê-
los até a região permitida, alocando-os bem próximos ao eixo imaginário, já
no semiplano esquerdo. A teoria mostra que este palpite é falso.

E muito mais coisas ainda se poderiam dizer, o campo é vasto e fascinante.


Paramos por aqui, com alguma pena. Mas o assunto se encontra em várias
e várias obras, e se os leitores e leitoras se sentirem motivados a procurá-las
então estas notas terão cumprido sua missão.
Capı́tulo 6

Projeto Ótimo de Observadores

Na teoria dos estimadores assintóticos de estado um aspecto é, normalmente,


tratado com alguma superficialidade: a escolha dos pólos. São feitos comen-
tários gerais no sentido de alocar os autovalores “o mais à esquerda possı́vel”
pois isso beneficiaria a rapidez de convergência; os inconvenientes seriam
problemas de amplificação de ruı́dos e saturação de componentes. Algumas
regras empı́ricas são fornecidas, como por exemplo: colocar os pólos “de 5 a
10 vezes mais à esquerda do que os pólos escolhidos para a planta.”
Este importante problema mereceria um tratamento mais rigoroso e pre-
ciso, e a teoria de Controle Ótimo e, em particular, os resultados recém
estudados do Problema do Regulador Linear Quadrático, são sugestões na-
turais para a empreitada. Trataremos dela neste capı́tulo, começando com
uma breve revisão sobre

6.1 Observadores Assintóticos de Estados


Supomos, como sempre, que o sistema que se quer controlar — a planta ou
processo — admite o seguinte modelo linear e invariante no tempo:

x(t0 ) = x0


ẋ(t) = Ax(t) + Bu(t);
S z(t) = Dx(t)
y(t) = Cx(t)

onde x(t) ∈ IRn é o estado no instante t; u(t) ∈ IRm é a entrada em t; z(·)


representa a combinação das variáveis de estado que queremos controlar, com
z(t) ∈ IRp e y(·) a combinação das variáveis que podemos medir efetivamente
e que deve ser usada para implementar a lei de controle; y(t) ∈ IRr .
A esta planta acoplaremos um sistema O, também linear e invariante no
tempo descrito por

66
CAPı́TULO 6. PROJETO ÓTIMO DE OBSERVADORES 67

v(t0 ) = v 0


 v̇(t) = Gv(t) + Hu(t) + Jy(t);
O
w(t) = Mv(t) + Ny(t)

onde v(t) ∈ IRo representa o estado deste sistema no instante t; as matrizes


G, H, J, M e N terão dimensões o × o, o × m, o × r, n × o e n × r, respecti-
vamente. O diagrama de blocos seguinte permite visualizar a situação:

-z
u -
S -
y

? ?
J N

? v̇ - R v ?
- H - +m - M - +m -w
6

H 

Percebe-se que o sistema O funcionará como um estimador ou observador


assintótico do estado x(t) do sistema S se e somente se ε(t) → 0 quando
t → ∞ onde a grandeza erro de estimação é definida como

ε(t) = w(t) − x(t)

O resultado seguinte é clássico da teoria dos sistema lineares:

Teorema 6.1.1 O sistema O é um observador assintótico do estado x(t) do


sistema S se e somente se existir uma matriz T o × n, com o ≤ n tal que

T A − GT = JC (6.1)
TB = H (6.2)
MT + NC = In (6.3)
λ(G) ⊂ C− (6.4)

O projeto dos observadores se resume assim a resolver as equaçãos matri-


ciais acima, que são chamadas de Relações Fundamentais dos Observadores,
as RFO.
Uma possı́vel solução para as RFO seria escolher T = In , M = In e
N = 0. Isto faz com que w = v ou seja, o próprio estado do observador
CAPı́TULO 6. PROJETO ÓTIMO DE OBSERVADORES 68

estima o estado da planta; faz também com que a escolha de H seja direta:
H = B. A equação 6.1 se reduz a
A − G = JC
e o problema todo se resume a encontrar uma matriz J de tal modo que
λ(G) = λ(A − JC) ⊂ C −
Mas este é um problema bem conhecido, e se houver observabilidade (ou
mesmo detetabilidade) do par < CA > pode ser facilmente resolvido. O
diagrama de blocos abaixo mostra essa possı́vel solução:

-z
u -
S -
y

?
J

? v̇ - R v=w -
- B - +m
6

A − JC 

Seguindo regras simples de manipulação de diagramas de blocos podemos


transformar este em um outro, equivalente:

-z
u -
S -
y

?
J

? v̇ - R v=w -
- B - +m
6

+m A 
−6

JC 

Prosseguindo com as manipulações chegarı́amos a


CAPı́TULO 6. PROJETO ÓTIMO DE OBSERVADORES 69

-z
u -
S -
y

ŷ − JCv e ?
J  +m

6
? v̇ - R v = w-
- B - +m C - ỹ = Cv
6

A 

Este é, muito possivelmente, o observador mais conhecido e estudado; ele


recebe, às vezes, o nome de observador identidade. Note-se que ele é com-
posto por uma cópia idêntica da planta à qual se adiciona uma realimentação
do erro e = y − ỹ = Cx − Cv, cuja finalidade é forçar o sinal ỹ a rastrear y.
Isto explicaria a razão de v ser um bom substituto para x.
Esta interpretação clara e intuitiva do mecanismo de funcionamento do
observador identidade é a responsável pela sua popularidade. A grande
maioria dos textos sobre estimadores assintóticos usa-o para motivar as ex-
plicações, e, não raro, ele é o único tipo de observador estudado.
É interessante notar que quando o ganho matricial J “aumenta” os auto-
valores de G = A − JC são empurrados para a esquerda no plano complexo,
resultando em duas (pelo menos) conseqüências:

1. o erro de estimação ε(t) se aproxima de 0 mais rapidamente, o mesmo


acontecendo com e(t);

2. o sinal ŷ − JCv pode assumir valores elevados.

A primeira destas conseqüências é benéfica, significa uma maior rapidez


de convergência para o estimador, e isto é sempre desejado. Já o fato de
o sinal ŷ − JCv crescer pode ser preocupador. Estes raciocı́nios mostram
que a escolha do ganho J deve ser feita com certos cuidados. Como fazê-lo?
Há certas diretrizes baseadas em considerações empı́ricas, mas são vagas e
insatisfatórias. Por que não tentar algo mais profundo?

6.2 Problema do estimador aberto


Conforme visto acima, a estrutura de um observador identidade é composta
de uma cópia do modelo da planta mais uma realimentação corretiva, e o seu
projeto se resume à determinação da matriz de ganhos J.
CAPı́TULO 6. PROJETO ÓTIMO DE OBSERVADORES 70

Para ajudar na escolha ótima de J considere o seguinte estimador aberto:

-z
u -
S -
y

û e ?
 +m

6
? v̇ - R v = w-
- B - +m C - ỹ = Cv
6

A 

O problema agora é achar û(·) tal que o sinal e(·) seja regulado de maneira
ótima. Isto signfica que e(t) → 0 de tal modo que o ı́ndice
Z ∞ h i
eT (t)Qe(t) + ûT (t)Rû(t) dt
0

onde Q > 0 e R > 0 seja minimizado.


Mas e(t) = y(t) − ỹ(t) = C(x(t) − w(t)) = −Cε(t), donde

eT (t)Qe(t) = εT (t)C T QCε(t) = εT (t)R1 ε(t)

e o ı́ndice pode ser reescrito:


Z ∞ h i
εT (t)R1 ε(t) + ûT (t)Rû(t) dt
0

onde R1 = C T QC ≥ 0 e R > 0.
Para que a teoria precedente possa ser aplicada devemos encontrar um
sistema para o qual ε(t) seja o estado e û seja a entrada. Vejamos:

ε̇ = ẇ − ẋ = Aw + Bu + û − Ax − Bu
= Aε + û

Parece pronto. Seja então o sistema




 ε̇(t) = Aε(t) + û(t)

ε(0) = ε0 = w(0) − x(0)



para o qual desejamos encontrar uma entrada û(·) que minimiza o ı́ndice
CAPı́TULO 6. PROJETO ÓTIMO DE OBSERVADORES 71

Z ∞ h i
εT (t)R1 ε(t) + ûT (t)R2 û(t) dt
0

onde R1 = C T QC ≥ 0 e R2 = R > 0.
A solução é conhecida:

û(t) = F̂ ε(t) = −R2−1 I T P ∗ε(t)

onde P ∗ ≥ 0 é a solução da ERMA

AT X + XA − XR2−1 X + R1 = 0

O conceito de estimador de estados exige que a entrada û seja expressa


em termos do sinal e:

û(t) = Je(t) = −JCε(t)

donde concluı́mos que


JC = −F̂
Há um pequeno problema aqui! Como o sinal û “entra” na equação de ε
através da matriz identidade I a solução ótima F̂ será uma matriz quadrada.
Como F̂ = −R2−1 P ∗ o posto de F̂ será, muito provavelmente, completo, ou
seja: ρ(F̂ ) = n. Mas

ρ(JC) ≤ ρ(C) = r < n = ρ(F̂ )

significando que, em geral, a equação JC = −F̂ não pode ser satisfeita . . .

6.3 O verdadeiro problema


O impasse a que se chegou na seção anterior pode levar à conclusão de que se
estava tentando resolver o problema errado. Pensemos novamente. Uma das
razões para se minimizar o ı́ndice é manter as amplitudes do sinal û baixas,
para “evitar saturações”.
É claro que uma estimação mais rápida (sempre desejável) implica em
amplitudes elevadas para o sinal û = ŷ − JCv, mas . . . qual seria o problema
disto? Este é um sinal interno, não há qualquer atuador fı́sico cuja capacidade
seria excedida. Este sinal será, muito provavelmente, representado por bytes
em um computador, e poderá crescer sem perigo de saturações. Os perigos
estão em outros lugares.
CAPı́TULO 6. PROJETO ÓTIMO DE OBSERVADORES 72

O pior efeito possı́vel de se aumentar a velocidade de convergência é per-


mitir que ruı́dos presentes em y se propaguem por todo o sistema. Em outras
palavras, o aumento indiscriminado de J alargaria a banda de passagem do
estimador, e os ruı́dos de y deixariam de ser bloqueados; ou, pior, poderiam
ser amplificados até contaminar todo o sistema e tirar a validade de quaisquer
sinais obtidos como resposta deste.
Ruı́dos existem, são inevitáveis: podem ser introduzidos pelos instrumen-
tos de medida, podem estar presentes nos sinais de controle, podem entrar
no sistema em qualquer outro ponto ou por qualquer outro meio. Assim, o
verdadeiro problema a se resolver, o problema de importância prática real, é
o de se evitar a propagação de ruı́dos através da malha.
Consideremos então uma situação bastante geral, de um sistema S com
entrada u, saı́da yc e sujeito à ação de “outras entradas”

ξ ν
? ?
u -
yc
-
S

Estamos considerando tipos diferente de “outras entradas”: o sı́mbolo ν


representa os sinais espúrios adicionados às variáveis de saı́da pelos trans-
dutores e recebe o nome de ruı́do de saı́da ou de medida. O sı́mbolo
ξ engloba todos os outros sinais indesejáveis e recebe o nome de ruı́do de
entrada ou de sistema ou, simplesmente, distúrbio. Suporemos que os
ruı́dos, de qualquer tipo, são aditivos, ou seja, um sinal limpo é somado a um
ruı́do para gerar um sinal contaminado. Para explicitar a natureza aditiva
de ν o diagrama acima pode ser mais detalhado:

ξ
ν
?
u- y ? yc
S - +j -

O sinal y seria a saı́da “pura” ao passo que yc é a saı́da real ou conta-


minada. O verdadeiro problema de se projetar um dispositivo prático de
estimação é o de recuperar o estado x da planta, de uma maneira ótima
(em um sentido ainda a ser explicado), mesmo em presença de ruı́dos com
caracterı́sticas conhecidas.
Esta mesma situação pode ser encarada em um outro contexto, onde es-
CAPı́TULO 6. PROJETO ÓTIMO DE OBSERVADORES 73

tarı́amos mais interessados em “limpar” o sinal yc . Dirı́amos que o verdadeiro


problema de se projetar um dispositivo prático de filtragem é o de recuperar
as informações contidas na saı́da y do sistema S acionado apenas por u (sem
ξ), a partir do sinal real yc .
Os problemas do observador ótimo e do filtro ótimo tem relações profun-
das, como veremos. A partir de agora, atenção apenas para o caso linear e
invariante no tempo. As equações dinâmicas são:

ẋ(t) = Ax(t) + Bu(t) + B ′ ξ(t)





S
yc (t) = Cx(t) + ν(t) = y(t) + ν(t)

O diagrama de blocos associado é

ξ - B′
ν

u ? x - y - ? yc
- - +j - +j -
R
B C
6

A 

Há dois casos particulares de interesse. Quando B ′ = B o sinal ξ tem


a mesma dimensão de u e teremos ẋ = Ax + B(u + ξ), ou seja, o ruı́do ξ
contamina diretamente a entrada, sendo chamado de ruı́do ou distúrbio de
comando ou de entrada. Quando B = I o sinal ξ tem dimensão n e afeta
diretamente os estados. O diagrama abaixo ilustra estes casos.

ξ ξ

u - +?
j - - u- ?
- +j - ...
B B

Seja então um observador — do tipo identidade — acoplado a um sistema


sujeito à ação de ruı́dos, como ilustrado pelo próximo diagrama. As equações
dinâmicas são
ẋ = Ax + Bu + B ′ ξ
 

 
 v̇ = Av + Bu + J(Cx + ν − Cv)
S O
yc = Cx + ν e = Cx + ν − Cv

 

CAPı́TULO 6. PROJETO ÓTIMO DE OBSERVADORES 74

ξ - ′
B
ν

u- ? ẋ - R x - ? yc
B - +j C - +j -
6

A 

e ?
J  +j

6
? v̇ - R v = w-
- B - +j C - ỹ = Cv
6

A 

O projeto se resume a encontrar uma matriz J tal que λ(A − JC) ⊂ C − ,


o que obrigaria o erro de estimação a se aproximar assintoticamente de zero:
ε(t) → 0. Escrevendo as equações para o sistema expandido obteremos
 " # " #" # " # " # " #
ẋ A 0 x B B′ 0
= + u+ ξ− ν


B′




 ε̇ 0 A − JC ε 0 J
S +O " #


 x
e=[0 C] +ν


ε

Para perceber os efeitos dos ruı́dos de maneira mais clara é interessante


encontrar uma descrição freqüencial para o sistema acima: E(s) =
" #−1 (" # " # " # )
sI − A 0 B B′ 0
[0 C] u+ ξ− ν + ν(s)
0 sI − G 0 B′ J

onde G = A − JC. Desenvolvendo mais chegarı́amos a

E(s) = C(sI − G)−1 B ′ ξ(s) − C(sI − G)−1 Jν(s) − ν(s)

ou, mais compactamente, definindo as matrizes de transferência Tξ (s) e Tν (s):

E(s) = Tξ (s)ξ(s) + ν(s) − Tν (s)ν(s)

Conforme “aumentamos” os ganhos J os autovalores de G = A − JC se


deslocam mais para a esquerda do plano complexo, tornando mais larga a
banda de passagem das matrizes Tξ (s) e Tν (s).
CAPı́TULO 6. PROJETO ÓTIMO DE OBSERVADORES 75

Suponhamos, para começar, que os ruı́dos ξ e ν são, ambos, sinais com-


postos apenas por freqüências baixas. Isto significa que eles atravessam os
sistemas Tξ e Tν praticamente incólumes, sem sofrer distorções. A estrutura
do estimador garante que o ruı́do de medida ν não contaminará o sinal e
neste caso, pois ν(s) − Tν (s)ν(s) ≈ ν(s) − ν(s) = 0.
O raciocı́nio acima é independente de J, pois, qualquer que seja o espectro
de G as bandas de passagem envolvidas são suficientemente amplas para
conter os ruı́dos de baixa freqüencia. Em resumo:
Quando os ruı́dos presentes são de baixa freqüência, os ruı́dos de
medida ν serão filtrados e apenas os ruı́dos de sistema ξ conta-
minarão o sistema. E isto independe do projeto do estimador.
Suponhamos agora que os ruı́dos ξ e ν são, ambos, sinais compostos
apenas por freqüências altas. Se o observador foi projetado com ganhos
baixos as bandas de passagem dos sistemas Tξ e Tν são estreitas e bloquearão
ambos os sinais. A estrutura do estimador garante que o ruı́do de medida ν
contaminará o sinal e, pois Tξ (s)ξ(s)+ν(s)−Tν (s)ν(s) ≈ 0+ν(s)−0 = ν(s).
O raciocı́nio acima depende de J para o caso de ruı́dos de alta freqüência:
se o espectro de G é tal que as bandas de passagem envolvidas são suficien-
temente amplas para aceitar ξ(s) e ν(s) sem distorções, o ruı́do de medida
ν(s) poderia ser bloqueado e o ruı́do de sistema poderia passar. Em resumo:
Quando os ruı́dos presentes são de alta freqüência o projeto do
estimador tem importância crucial. Para ganhos baixos de J ape-
nas os ruı́dos de medida ν contaminarão o sistema. Para ganhos
elevados de J o quadro acima pode se inverter.
Este são apenas casos básicos. Pode-se imaginar situações em que os
ruı́dos tem naturezas diferentes, e as análises correspondentes deveriam ser
feitas de acordo com as diretrizes acima. Pode-se ainda imaginar casos onde
os ruı́dos tem caracterı́sticas desconhecidas: como proceder?
Um fato parece claro: projetar observadores levando em conta os ruı́dos
pode se tornar algo muito dependente da natureza deles, algo problemático.
Assim, deve haver outros caminhos que propiciem um tratamento mais sim-
ples e direto ao projeto ótimo de estimadores.

6.4 Estimadores e Filtros


Na seção anterior foi mencionada a ı́ntima relação entre o projeto de esti-
madores e o de filtros. Para enunciar o problema geral de filtragem, seja o
diagrama:
CAPı́TULO 6. PROJETO ÓTIMO DE OBSERVADORES 76

ξ
ν
?
u- y ? yc ỹ
S - +j - F -

Devemos encontrar um filtro F capaz de gerar uma estimativa ótima ỹ


para o sinal y. Ou seja, o filtro deve anular os efeitos dos ruı́dos ξ e ν.
Os filtros tradicionais podem cumprir esta missão, desde que os sinais
sejam bem conhecidos, e seus espectros tenham caracterı́sticas bem determi-
nadas. Quando, por exemplo, ξ e ν são sinais de baixa freqüência o filtro F
deve ter caracterı́sticas de passa-baixas; quando os ruı́dos são baseados em
uma única freqüência usa-se um filtro notch. E por aı́ vai.
Estas hipóteses são limitadoras, os problemas reais podem ser bem mais
complicados: os espectros dos sinais envolvidos — y, ξ e ν — podem se so-
brepor, ou então podem não ser bem conhecidos. Temos aqui exatamente os
mesmos inconvenientes apontados anteriormente para os estimadores: o uso
da caracterização freqüencial clássica de sinais por meio dos seus espectros
não se presta bem para o estudo de filtros ou de estimadores ótimos.
Norbert Wiener, por volta de 1938, propôs o uso de sinais estocásticos
para caracterizar as grandezas envolvidas nestes problemas e conseguiu resol-
ver o problema geral de filtragem, dando origem ao que se costuma chamar
de filtro de Wiener: ele encontrou um filtro F , caracterizado por sua matriz
de transferência F (s) capaz de gerar uma estimativa ótima de y.
Trinta anos depois Robert Kalman, trabalhando com variáveis de estados
e com o conceito de sinais estocásticos, resolveu o problema do estimador
ótimo. Ficou então clara a identidade entre observadores e filtros: eles são a
mesma coisa! Com efeito, se um observador recupera o estado x de maneira
ótima, basta multiplicar por C e teremos uma estimativa ótima para y. O
nome usado para o estimador ótimo pasou então a ser: filtro de Kalman.
CAPı́TULO 6. PROJETO ÓTIMO DE OBSERVADORES 77

6.5 Médias e correlações de sinais


6.5.1 Valor médio de um sinal
6.5.2 Valor médio quadrático de um sinal
6.5.3 Variância de um sinal
6.5.4 Autocorrelação de um sinal
6.5.5 Correlação cruzada entre dois sinais
6.5.6 Densidade espectral de um sinal

6.6 Variáveis aleatórias


6.6.1 Probabilidades
6.6.2 Valor médio
6.6.3 Variância
6.6.4 Covariância entre x e y
6.6.5 Função distribuição de probabilidade
6.6.6 Função densidade de probabilidade
6.6.7 Média
6.6.8 Valor médio quadrático
6.6.9 Variância e covariância
6.6.10 Distribuição uniforme
6.6.11 Distribuição normal

6.7 Processos aleatórios ou estocásticos


6.7.1 Ruı́do branco
6.7.2 Processo gaussiano
6.7.3 Processo estocástico estacionário
6.7.4 Processo estocástico ergódico
6.7.5 Sistemas Lineares
6.7.6 Matriz de autocorrelação

6.8 Formulação e solução


CAPı́TULO 6. PROJETO ÓTIMO DE OBSERVADORES 78

ξ
ν
?
u- y ? yc
S - +j -

?
- O -w

O sinal ξ é um ruı́do branco com média 0 e autocorrelação Q > 0; o sinal


ν é também um ruı́do branco, com média nula e autocorrelação R > 0. O
erro de estimação ε = x − w é um sinal tal que ε(t) ∈ IRn e que apresenta
um erro médio quadrático dado por
n
E[ε2i (t)]
X
e(t) =
i=1

O problema é projetar um estimador O que minimize o erro médio qua-


drático acima. A solução é um observador identidade:

ξ
ν
?
u- y ? yc
S - +j -

?
J  +j
6−
? v - ỹ
- - +j - -
R
B C
6

A 

A matriz de ganhos será dada por

J = −P C T R−1

onde P é a solução de uma equação de Ricatti Matricial algébrica:

AP + P AT − P C T R−1 CP + BQB T = 0
CAPı́TULO 6. PROJETO ÓTIMO DE OBSERVADORES 79

• É um observador de ordem completa

• É um problema de otimização dual do LQR

• É o famoso Filtro de Kalman

• É um estimador ótimo e também um filtro, pois ỹ é o resultado da


filtragem ótima de y.

Iniciada em out/nov/85;
tecada com poucos
detalhes a mais
em set/out/88
por
Afonso Celso Del Nero Gomes,
ajudado pela
Ângela.
Revista,
ampliada
e ilustrada
em jan/fev/mar/90.
Enriquecida em fins de 1991,
e em outubro/novembro de 1996,
e em outubro de 1999,
Finalmente pronta em . . . . . .
Logicamente
também houve muita
ajuda
dos que
seguem:
Apêndice A

Formas Quadráticas

Como sempre acontece, uma leve recordação de ferramentas matemáticas


é a melhor maneira de se iniciar novos estudos. Nesta seção apresentare-
mos de maneira rápida, suscinta e geralmente sem provas, alguns resultados
matemáticos básicos que serão úteis para os desenvolvimentos posteriores.

A.1 Formas Lineares e Quadráticas


As idéias abaixo são provavelmente conhecidas da maioria dos leitores.

Definição A.1.1 Por Forma, Combinação ou Funcional Linear das


variáveis x1 , x2 , . . . , xn entenderemos a expressão
n
X
L(x1 , x2 , . . . , xn ) = l1 x1 + l2 x2 + · · · + ln xn = li xi
i=1

onde, ∀i = 1, 2, . . . n, li ∈ IR (corpo dos reais).

Exemplo A.1.1
L1 = x1 + x2 − x3
L2 = 0, 5x1 − 7x2 + 0x3 − x4

Lembrando as propriedades do produto matricial podemos escrever:

x1
 

 x2 

L(x1 , x2 , . . . , xn ) = l1 x1 + l2 x2 + · · · + ln xn = [ l1 l2 · · · ln ] .. 
.
 
 
xn

80
APÊNDICE A. FORMAS QUADRÁTICAS 81

Agrupando as variáveis xi e os coeficientes li nos vetores x e L, como


abaixo,

l1 x1
   

 l2 


 x2 

L=  ..  x=  .. 
. .
   
   
ln xn

podemos usar a compacta e econômica notação vetorial:

L(x1 , x2 , . . . , xn ) = L(x) = LT x

onde o sı́mbolo LT denota a transposta da matrix L. Supondo que as


variáveis x1 , x2 , . . . , xn são variáveis reais podemos encarar L(·) como uma
transformação linear
L : IRn −→ IR
x 7→ L(x) = LT x
Dependendo dos valores das variáveis xi a forma linear L(x) pode assumir
valores positivos, negativos ou nulos. Deste modo podemos particionar IRn
em três regiões: IRn = IRn⊕ IRn⊖ IRn0 para as quais
S S

x ∈ IRn⊕ ⇐⇒ L(x) > 0


x ∈ IRn⊖ ⇐⇒ L(x) < 0
x ∈ IRn0 ⇐⇒ L(x) = 0

Exemplo A.1.2 Para a forma L(x) = x1 + x2 o plano é particionado como


na figura abaixo. A região IRn0 é sempre uma variedade linear: reta, plano,
etc.
6x2
@
@
@ IR2⊕
@
@ -
2
@ x1
IR⊖ @
@ 2
@ IR0
@

Mas isto tudo é terreno muitı́ssimo conhecido, de usos e utilidades já


sabidos, e bem sabidos (espera-se).
APÊNDICE A. FORMAS QUADRÁTICAS 82

Definição A.1.2 Chamaremos de Forma ou Combinação Quadrática


das variáveis x1 , x2 , . . . , xn a expressão
n X
X n
Q(x1 , x2 , . . . , xn ) = q11 x1 x1 + q12 x1 x2 + · · · + qnn xn xn = qij xi xj
i=1 j=1

onde, ∀i, j = 1, 2, . . . n, qij ∈ IR.

Exemplo A.1.3
Q1 = x21 + x1 x2 − 5x22
Q2 = x1 x3 − x2 x3 + 7x3 x1 − x24

Para obter uma notação alternativa compacta e elegante, como foi feito no
caso anterior, deve-se desenvolver a expressão da forma quadrática definida
acima e depois aplicar as regras do produto matricial. Ao trabalho.

Q(x1 , x2 , . . . , xn ) = q11 x21 + q12 x1 x2 + · · · + q1n x1 xn +


q21 x2 x1 + q22 x22 + · · · + q2n x2 xn
..
.
+qn1 xn x1 + qn2 xn x2 + · · · + qnn x2n

Colocando em evidência a variável xi em cada uma das i linhas da ex-


pressão acima teremos:

Q(x1 , x2 , . . . , xn ) = x1 (q11 x1 + q12 x2 + · · · + q1n xn ) +


x2 (q21 x1 + q22 x2 + · · · + q2n xn ) +
..
.
+xn (qn1 x1 + qn2 x2 + · · · + qnn xn )

Observando que as expressões entre parênteses são funcionais lineares do


tipo Qi x = [qi1 qi2 · · · qin ]x onde x é o vetor com componentes xi podemos
escrever
q11 q12 · · · q1n x1
  

 q21 q22 · · · q2n 


x2 

Q(x1 , x2 , . . . , xn ) = [ x1 x2 · · · xn ]  .. .. ..  
 .. 
. . .  .
  
 
qn1 qn2 · · · qnn xn

E finalmente, chamando de Q a matriz quadrada trazida pelo desenvol-


vimento acima, podemos finalizar escrevendo a procurada notação vetorial:
APÊNDICE A. FORMAS QUADRÁTICAS 83

Q(x1 , x2 , . . . , xn ) = Q(x) = xT Qx
onde, como já deve ter dado para perceber, o sı́mbolo M T denota a transposta
da matrix M.
Exemplo A.1.4
" #" #
1 1 x1
Q(x) = x21 + x1 x2 + x22 = [ x1 x2 ]
0 1 x2
Lembrando que o produto de reais é comutativo temos x1 x2 = x2 x1 e
também podemos exprimir a forma acima de outra maneira:
" #" #
1 0 x1
Q(x) = x21 + x2 x1 + x22 = [ x1 x2 ]
1 1 x2

Algo salta aos olhos no exemplo acima: o comportamento observado pode


perfeitamente ser encontrado em outras situações. Isto sugere uma genera-
lização, a qual, dada a sua trivialidade, será apresentada sem provas:

Fato A.1.1 Uma forma quadrática Q(x) pode admitir várias representações
matriciais:
Q(x) = xT Q1 x = xT Q2 x = · · ·
É bom lembrar que, a partir disto:

xT Q1 x = xT Q2 x =⇒
6 Q1 = Q2
Prosseguindo, seja a forma quadrática:

Q(x) = q11 x21 + · · · + qij xi xj + · · · + qji xj xi + · · ·


Como estamos tratando de variáveis reais podemos escrever
qij + qji qij + qji
qij xi xj + qji xj xi = xi xj + xj xi
2 2
donde, chamando
qij + qji
sij = sji = sii = qii sjj = qjj
2
teremos
Q(x) = s11 x21 + · · · + sij xi xj + · · · + sji xj xi + · · ·
APÊNDICE A. FORMAS QUADRÁTICAS 84

Propriedade A.1.1 A uma forma quadrática Q(x) pode-se associar uma


única representação matricial xT Sx onde S é uma matriz simétrica.
A prova de que a representação simétrica é única é razoavelmente simples.
Vemos deste modo que dentre as infinitas representações matriciais para uma
dada forma quadrática há sempre uma única muito particular, envolvendo
uma matriz simétrica.

A.2 Sinal da Forma


A situação agora é um pouco mais elaborada do que no caso das formas
lineares, onde o espaço IRn sempre podia ser decomposto em três regiões.
Para as formas quadráticas a riqueza é maior, como pode ser visto no . . .
Exemplo A.2.1 Para a forma Q(x) = x21 − x22 o plano é particionado como
na figura abaixo.
6x2
@
@
− − IR20
@
+@ +
@ -
+ @ + x1
@
− −@ 2
@ IR0
@
Para este exemplo a forma pode assumir valores positivos, negativos, ou
nulos dependendo de x.

As formas lineares tem sempre um comportamento como o do exemplo


acima: há pontos x que as tornam positivas, há pontos que as tornam nega-
tivas e há pontos que as anulam. As partições IRn⊕ , IRn⊖ , IRn0 , do espaço IRn
são sempre não vazias. No caso das formas quadráticas podemos ter outras
situações. Consideremos por exemplo:
" #
T 1 0
Q(x) = x x = x21 + x22
0 1
onde temos: Q(x) > 0 ∀x 6= 0 e Q(x) = 0 para x = 0. Dá para perceber o
seguinte
Fato A.2.1 Uma forma quadrática sempre se anula em x = 0:
Q(x) = 0 para x = 0
APÊNDICE A. FORMAS QUADRÁTICAS 85

Dependendo do comportamento da forma para x 6= 0 poderemos reco-


nhecer vários casos:

Definição A.2.1 A forma quadrática Q(x) é Identicamente Nula quando


Q(x)= 0 ∀x 6= 0 e escreveremos Q(x) ≡ 0.

Definição A.2.2 A forma quadrática Q(x) é Positiva Definida quando


Q(x) > 0 ∀x 6= 0; escreveremos Q(x) > 0. Uma forma quadrática Q(x) é
Negativa Definida quando Q(x) < 0 ∀x 6= 0; escreveremos Q(x) < 0.

Definição A.2.3 A forma quadrática Q(x) é Positiva Semidefinida ou,


semipositiva definida, quando Q(x) ≥ 0 ∀x 6= 0; escreveremos Q(x) ≥ 0.
Uma forma quadrática Q(x) é Negativa Semidefinida quando Q(x) ≤
0 ∀x 6= 0; escreveremos Q(x) ≤ 0.

Definição A.2.4 A forma quadrática Q(x) é Indefinida quando não se


encaixar em uma das categorias acima.

A.3 Exercı́cios
1. As formas abaixo são do tipo xT Qx. Classificá-las quanto ao sinal.
Indicar, quando for o caso, as regiões IRn⊕ , IRn⊖ e IRn0 .
" #
1 −1
(a) Q =
−1 0
" #
1 −1
(b) Q =
−1 1
" #
1 −1/2
(c) Q =
−1/2 1
" #
0 −1
(d) Q =
−1 0
 
1 −1 0
(e) Q =  −1 1 1 
 

0 1 0

2. Sendo M uma matriz quadrada qualquer mostrar que 21 (M + M T ) será


simétrica.
APÊNDICE A. FORMAS QUADRÁTICAS 86

A.4 Critérios de definição


As formas quadráticas definidas e semidefinidas são muito importantes em
um sem número de problemas, como teremos a oportunidade de ver. Desta
maneira, devemos procurar métodos práticos para descobrir o sinal de uma
forma quadrática.
Teorema A.4.1 (Sylvester) Uma forma Q(x) = xT Sx , onde S é uma
matriz simétrica, será positiva definida se e somente se todos os seus menores
principais forem positivos:

s11 · · · s1n
s11 s12

.. .. > 0;

Q(x) > 0 ⇐⇒ s11 > 0; > 0; · · · . .

s21 s22


sn1 · · · snn

Q(x) = xT Sx será negativa definida se e somente se −Q(x) for positiva


definida ou seja, os menores principais de S forem alternadamente positivos
e negativos:
Q(x) < 0 ⇐⇒ −Q(x) = xT (−S)x > 0
ou então,
(menor de ordem k)(−1)k > 0, k = 1, 2, . . . n
Se nenhuma das condições for satisfeita a forma será indefinida.
É bom notar que substituindo os sinais do teorema anterior por ≥ 0 não
encontraremos condições para o caso semidefinido. O próximo resultado,
também clássico, relaciona o sinal de uma forma com os autovalores da matriz
simétrica associada; mostra ainda um pouco da estrutura que tal matriz deve
ter.
Teorema A.4.2 Cada uma das condições seguintes é necessária e suficiente
para que a forma Q(x) = xT Sx , onde S é uma matriz simétrica, seja positiva
definida:
1. Os autovalores de S são reais e positivos.
2. É possı́vel escrever S = C T C onde C é uma matriz com colunas line-
armente independentes.
Embora os conceitos acima sejam definidos para formas quadráticas, como
a cada uma delas se pode associar uma única matriz simétrica podemos falar,
com abuso de linguagem, em matrizes simétricas positivas definidas, semide-
finidas, etc. e, ao invés de escrevermos Q(x) > 0 ou S(x) > 0 poderı́amos
também usar Q > 0 ou S > 0, etc.
APÊNDICE A. FORMAS QUADRÁTICAS 87

A.5 Normas, Métricas e “Tamanho”


Apesar de um espaço vetorial não ser ordenado podemos classificar seus ve-
tores de acordo com o “tamanho”. Para isso usamos as idéias de Norma ou
Módulo. Resumindo bastante uma teoria elaborada e bela, dirı́amos que a
Norma Euclidiana, ou simplesmente Norma de um vetor x ∈ IRn é dada
por:
kxk = x21 + x22 + · · · + x2n
Isto significa que a norma pode ser expressa como uma forma quadrática:

kxk = xT x = xT Ix

onde I simboliza a matriz identidade. Aplicando o teorema de Sylvester à


matriz I verificarı́amos trivialmente ser ela positiva definida, donde se conclui
que kxk = xT x > 0 ∀x ∈ IRn . Isto justifica a definição de Módulo como
q q
|x| = kxk = x21 + x22 + · · · + x2n

Nas aplicações práticas os elementos dos vetores são grandezas fı́sicas,


e muitas vezes algumas destas grandezas são mais importantes que outras.
Assim, seria interessante uma medida que evidenciasse isto, já que a norma
atribui um peso igual às componentes do vetor, quando gostarı́amos de privi-
legiar algumas delas. Podemos associar a idéia de norma a média aritmética
simples, e dizer que estamos interessados em algo parecido com uma média
ponderada. Em outras palavras, se o tamanho de um vetor nos interessa mais
em algumas componentes, ou direções, do que em outras podemos atribuir
pesos a essas direções usando xT Dx onde os elementos da matriz diagonal D
refletiriam a importância que se quer atribuir ou retirar dos componentes de
x. De um modo mais geral temos o

Fato A.5.1 Toda forma Q(x) = xT Sx onde S > 0 ou S ≥ 0 permite asso-


ciar ao vetor x um escalar Q(x) que pode representar uma medida do “tama-
nho” do vetor x, da sua “distância” até a origem. Dependendo da escolha de
S pode-se medir esse “tamanho” com ênfase especial em algumas direções.
APÊNDICE A. FORMAS QUADRÁTICAS 88

Consideremos agora uma função do tempo


designada por x(·) ou simplesmente x. 6
rx(t0 )
Deve ficar claro que o sı́mbolo x(t)
representa um número real, o
valor assumido pela função
x no instante t. Podemos
-
visualizar a situação por
meio de um ponto se
movendo sobre uma
trajetória no IRn

Usando uma forma
quadrática é possı́vel representar a função vetorial x(·) por meio da função
real Q(·) = xT (·)Sx(·) onde S ≥ 0.
Desta maneira, a figura tridimensional acima poderia ser “substituı́da”
pelo gráfico da função escalar
6Q(t)

-
t

É lógico que nessa representação unidimensional de algo multidimensi-


onal alguma coisa se perderá, mas de uma maneira geral alguns aspectos
importantes permanecem. Por exemplo, se S > 0 podemos garantir que
x → 0 ⇐⇒ Q(x) → 0
Em resumo: sendo S > 0, a forma Q(x) = xT Sx é uma maneira cômoda
de representar x ∈ IRn por meio de um número real. Informações a respeito
da evolução do vetor x(t) no IRn podem ser obtidas pela análise do gráfico
da grandeza escalar Q(x) em função do tempo.
Exemplo A.5.1 Podemos ter alguma idéia do comportamento ao longo do
T
tempo do vetor x(t) = [et e−t ] se analisarmos a função real dada pela forma
quadrática xT (t)x(t) = e2t + e−2t

6
x2 ||x(t)||
6

rx0
2
- -
x1 t
APÊNDICE A. FORMAS QUADRÁTICAS 89

A.6 Exercı́cios
1. Sendo ẋ = Ax, traçar um gráfico para xT (t)Qx(t). A partir deste
gráfico é possı́vel dizer algo sobre a estabilidade do sistema? Use
     
0 1 0 1 1 1 0
A =  0 0 1 , x(0) =  1  , Q= 1 0 0 
     

1 1 −1 1 0 0 1
 
1 1 1
2. Idem 1 para Q =  1 1 1 
 

1 1 1
3. Seja a matriz simétrica Q > 0, com dimensão n × n. Sendo M uma
matriz inversı́vel, que se pode dizer de P = M −1 QM? será simétrica?
e o seu sinal?

4. Seja a matriz simétrica Q > 0, com dimensão n × n. Sendo D uma


matriz (r × n), com r < n, que se pode dizer de P = DQD T ? será
simétrica? e o seu sinal?

5. Idem 4 para r > n

6. Idem 4 para r = n

A.7 Visão Geométrica das Formas Quadráti-


cas
Lembremos que a operação v T w pode representar o produto escalar entre os
vetores v, w ∈ IRn . Mas o produto escalar pode ser expresso em termos dos
módulos dos vetores envolvidos e do ângulo compreendido entre eles:
* w



 θ v T w = |v| |w| cos θ
 - v

Desta maneira o produto escalar carrega informações a respeito da po-


sição relativa entre os dois vetores. Assim, se v T w = 0 sabemos que v e w
são ortogonais. Se v T w > 0 teremos que o módulo do ângulo entre eles é
menor do que π/2 e assim estes vetores “apontam na mesma direção, estão
em um mesmo semiespaço”. Para v T w < 0 teremos cos θ negativo, θ > π/2
APÊNDICE A. FORMAS QUADRÁTICAS 90

e os vetores v e w “tentam seguir direções opostas”. A figura abaixo ilustra


bem a situação. Para um vetor v fixo temos três possibilidades para w:
v
v T w > 0 : mesma direção, mesmo semiespaço@ 
@
@ vT w > 0
v T w = 0 : ortogonais  -
@
@
vT w < 0 @
@
R
@@
v T w > 0 : direção oposta, semiespaço complementar @ vT w = 0

Com isto em mente a forma quadrática xT Qx pode ser encarada como o


produto escalar entre x e Qx e assim xT Qx mediria a deformação angular
causada pela aplicação de Q a x, a quantidade de rotação sofrida por x até
se obter Qx. Assim, se para uma dada transformação linear A : IRn → IRn
temos xT Ax > 0 ∀ x ∈ IRn isto significa que A é um mapa que “preserva
a direção”, ou seja um vetor x qualquer e sua imagem Ax estão sempre no
mesmo semiplano. Se xT Ax = 0 ∀ x ∈ IRn então cada elemento x é girado de
π/2.
Neste ponto podemos estabelecer a relação entre duas formas quadráticas
iguais. Sejam Q1 e Q2 tais que xT Q1 x = xT Q2 x ∀ x ∈ IRn . Chamando
Q2 − Q1 = M temos xT Q1 x = xT (Q1 + M)x = xT Q1 x + xT Mx, donde
xT Mx = 0 e M é ortogonal.

A.8 Miscelânea de Fórmulas


A coleção de resultados abaixo pode ser útil em um grande número de si-
tuações. Eles virão sem provas. Os sı́mbolos A ≥ 0 ou A > 0 significam,
como já vimos, que a forma quadrática xT Ax é positiva semidefinida ou
positiva definida respectivamente.
Fato A.8.1 Seja C uma matriz m × n
A = CT C =⇒ A≥0
Fato A.8.2 Seja C uma matriz m × n com rank (C) ≥ n
A = CT C =⇒ A>0
Fato A.8.3 Seja C uma matriz n × n com det(C) 6= 0
A = CT C =⇒ A>0
APÊNDICE A. FORMAS QUADRÁTICAS 91

Fato A.8.4 A≥B ⇐⇒ A−B ≥0

Fato A.8.5 A ≥ 0, B ≥ 0 ⇐⇒ A+B ≥0

Fato A.8.6 A ≥ 0, B ≥ 0 ⇐⇒
6 AB ≥ 0

Fato A.8.7 Sendo λ um autovalor genérico de A (n × n):

A ≥ 0 =⇒ Re(λ) ≥ 0
A > 0 =⇒ Re(λ) > 0
A simétrica =⇒ λ ∈ IR
A simétrica, A > 0 =⇒ λ ∈ IR, λ > 0

Fato A.8.8 Se A é simétrica seus autovetores são ortogonais e assim:

A é simétrica =⇒ A = U TΛU onde U é unitária (U TU = I) e Λ = diag(λi )

Definição A.8.1
√ A raiz quadrada
√ √ matricial
√ simétrica
√ de A ≥ 0, designada
por A1/2 ou A é tal que A A = A e A = ( A)T

Fato A.8.9 A = U T Λ1/2 U. Como U é não única a raiz quadrada matricial
simétrica é também não única.

Fato A.8.10 A ≥ 0 e simétrica, B ≥ 0 e simétrica =⇒


6 AB ≥0

A ≥ 0 e simétrica, B ≥ 0 e simétrica =⇒
6 ABsimétrica

A ≥ 0 e simétrica, B ≥ 0 e simétrica =⇒ λ(AB) ∈ IR, λ(AB) ≥ 0

Fato A.8.11 Sendo λ o menor autovalor de uma matriz A ≥ 0 e simétrica


e λ o maior deles:

A ≥ 0 e simétrica =⇒ λ(A)|x|2 ≤ xT Ax ≤ λ(A)|x|2 , ∀x

Fato A.8.12 Podemos definir norma de uma matriz A como

kAk = sup |Ax|


|x|=1

Com isto:
A ≥ 0 e simétrica =⇒ kAk = λ(A)
A > 0 e simétrica =⇒ kA−1 k = (λ(A))−1
APÊNDICE A. FORMAS QUADRÁTICAS 92

A.9 Matrizes Hamiltonianas


Sendo A (n × n) uma matriz real qualquer, S (n × n) e T (n × n) matrizes
reais e simétricas, diremos que
" #
A S
T −AT

é uma Matriz Hamiltoniana. Nos desenvolvimentos posteriores teremos


oportunidades de verificar a importância destas matrizes. O conjunto de
todas as matrizes Hamiltonianas será designado por H:
n o
H = H ∈ IR2n×2n | H é Hamiltoniana

O espectro das matrizes Hamiltonianas é sempre simétrico com relação


ao eixo imaginário; isto significa que, se σ + jω é um dos autovalores de uma
matriz Hamiltoniana então −σ + jω também será um autovalor. Antes de
demonstrar esta propriedade apresentaremos dois resultados muito úteis no
manuseio de expressões matriciais intrincadas.

Lema A.9.1 (Identidade de Sylvester) Sendo M e Q matrizes quadra-


das, com M inversı́vel, e N e P matrizes com dimensões compatı́veis temos:
" # " #" #
M N M 0 I M −1 N
=
P Q P I 0 Q − P M −1 N

Esta identidade permitirá fatorar matrizes particionadas em blocos. Sua


prova é simples, bastando desenvolver o produto do lado direito. Para o que
segue, o sı́mbolo det(X) denotará o determinante da matriz X.

Lema A.9.2 Sendo B e C matrizes cujo produto é uma matriz quadrada,


temos
det(I − BC) = det(I − CB)

A demostração deste resultado já é mais elaborada, e será omitida. Pa-


semos então à

Propriedade A.9.1 O espectro de uma matriz Hamiltoniana é simétrico


com relação à origem do plano complexo.

Demonstração: Como as Hamiltonianas são matrizes reais, os seus es-


pectros são simétricos com relação ao eixo real; querer que haja simetria
também com relação ao eixo imaginário significa dizer que se λ é autovalor
APÊNDICE A. FORMAS QUADRÁTICAS 93

de uma Hamiltoniana então −λ também deve ser, ou seja, existe simetria


com relação à origem do plano complexo. Seja então H ∈ H para a qual
calculamos
" #
λI − A −S
λI − H =
−T λI + AT

" #" #
λI − A 0 I −(λI − A)−1 S
=
−T I 0 (λI + AT ) − T (λI − A)−1 S

onde usamos a identidade de Sylvester. Chamando de ∆H (λ) o polinômio


caracterı́stico de H, e passando a usar δ(λ) para denotar det(λI − A), temos:

∆H (λ) = det(λI − H)
n o
= δ(λ) det (λI + AT ) − T (λI − A)−1 S
n o
= δ(λ) det(λI + AT ) det I − T (λI − A)−1 S(λI + AT )−1

onde colocamos em evidência o termo λI +AT na segunda parcela do segundo


termo. Mas λI + AT = λI T + AT = (λI + A)T , e ainda temos que a inversa
da transposta é a transposta da inversa. Com isto temos
 
−1 T
h i
−1
∆H (λ) = δ(λ) det(λI + A) det I − T (λI − A) S (λI + A)
 
−1 T
h i
−1
= δ(λ) det(−I)δ(−λ) det I + T (λI − A) S (−λI − A)

onde usamos a identidade λI + A = −I(−λI − A). Chamando agora o termo


(λI − A)−1 de M(λ) temos:
n o
∆H (λ) = (−1)n δ(λ)δ(−λ) det I + T M(λ)SM T (−λ) (A.1)
n o
= (−1)n δ(λ)δ(−λ) det I + M(λ)SM T (−λ)T (A.2)

Nesta última passagem usamos o Lema A.9.2 acima. Notando finalmente


que det(I + X) = det(I + X)T = det(I + X T ) obtemos
n o
∆H (λ) = (−1)n δ(λ)δ(−λ) det I + T T M(−λ)S T M T (λ)
n o
= (−1)n δ(−λ)δ(λ) det I + T M(−λ)SM T (λ)

pois T e S são simétricas. Comparando esta expressão com a equação A.1


acima concluı́mos que ∆H (λ) = ∆H (−λ), completando a demonstração.
Q.E.D.
APÊNDICE A. FORMAS QUADRÁTICAS 94

Polinômios p(λ) para os quais p(λ) = p(−λ) são chamados de polinômios


pares. Vemos assim que os polinômios caracterı́sticos das matrizes Hamil-
tonianas são pares. Antes de prosseguir, e para fixar os conceitos, vejamos
o

Exemplo A.9.1 Considere as matrizes Hamiltonianas:


0 1 0 0 0 1 0 0
   
 0 0 0 −1   0 0 0 −1 
H1 =   H2 = 
   
−1 0 0 0   −1 0 0 0 


0 −2 −1 0 0 4, 25 −1 0

0 1 0 0
 
 0 0 0 −1 
H3 = 
 
−1 0 0 0 


0 −4, 25 −1 0
O cálculo dos autovalores forneceria os seguintes espectros:

λ(H1 ) = {−1, −1, 1, 1} λ(H2 ) = {±0.5j, ±2.0j}

λ(H3 ) = {−2.0, −0.5, 0.5, 2.0}


que são simétricos com relação ao eixo imaginário, como deveriam.

Trataremos agora de dois importantes subespaços associados a uma ma-


triz quadrada qualquer. Sendo m(λ) o polinômio mı́nimo da matriz M (k×k),
sempre podemos fatorá-lo como

m(λ) = m− (λ)m+ (λ)

onde as raı́zes de m− (λ) tem partes reais estritamente negativas e as de m+ (λ)


tem partes reais positivas ou nulas. Usando outra terminologia, dirı́amos
que m− (λ) tem suas raı́zes em C − , o semiplano esquerdo aberto do plano
complexo C, ao passo que m+ (λ) tem as suas em C + , o semiplano direito
fechado de C. Sendo X uma matriz real (m × n) denotaremos por ker(X) o
seu espaço nulo (ou kernel, ou núcleo): ker(X) = {v ∈ IRn |Xv = 0}. É bem
sabido que este conjunto é um subespaço vetorial de IRn .

Definição A.9.1 Chamaremos de subespaço dos modos estáveis de M,


designado por X − (M), e subespaço dos modos instáveis de M, designado
por X + (M), as expressões

X − (M) = ker m− (M) e X + (M) = ker m+ (M)


APÊNDICE A. FORMAS QUADRÁTICAS 95

É um exercı́cio simples de Álgebra Linear demonstrar que cada um dos


subespaços acima definidos é um subespaço invariante sob M, e que a soma
direta deles fornece o espaço todo:

MX − ⊂ X − MX + ⊂ X + X − ⊕ X + = IRk

Estes subespaços são chamados de subespaços espectrais e admitem uma


interpretação geométrica muito útil. Considere o sistema autônomo
(
ṗ(t) = Mp(t)
p(0) = p0

O conjunto de todas as condições iniciais das quais partem trajetórias


que tendem assintoticamente à origem é precisamente X − (M). Deste modo
poderı́amos escrever
   
− 0 k −M t 0
X (M) = p ∈ IR | lim e p =0
t→∞

e o nome subespaço dos modos estáveis fica justificado. Trajetórias originadas


em X + (M) certamente tenderão a ∞, mas neste caso não poderemos exprimir
esse subespaço de maneira análoga ao de X − (M). Os leitores são convidados
a refletir sobre o assunto.
Quando M possui autovalores reais e distintos a obtenção dos subespaços
espectrais acima é facilitada: os autovetores associados a autovalores em C −
formarão uma base para X − (M) e os autovetores instáveis, os de C + , serão
uma base para X + (M). Se M apresenta uma estrutura mais complicada
deveremos utilizar as expressões da definição.

Exemplo A.9.2 Para a matriz H1 do exemplo anterior terı́amos dificulda-


des no cálculo dos autovetores associados aos autovalores repetidos. Sendo os
polinômios caracterı́stico e mı́nimo dados por ∆(λ) = m(λ) = (λ−1)2 (λ+1)2
seria simples obter

1 2 0 −1
 
 0 3 1 −2 
m− (H1 ) = (H1 + I)2 = 
 
−2 −1 1 0 


1 −4 −2 −3

1 −2 0 −1
 
 0 3 1 2 
m+ (H1 ) = (H1 − I)2 = 
 
2 −1 1 0 


1 4 2 3
APÊNDICE A. FORMAS QUADRÁTICAS 96

A partir destas matrizes a obtenção dos subespaços modais é simples:

1 0
 

 

0 1

 

X − (H1 ) = ker m− (H1 ) = 

 2 1 


1 2
 

1 0
 

 

0 1

 

X + (H1 ) = ker m+ (H1 ) =
 −2
 1 

 
1 −2
 

O segundo caso do exemplo anterior é trivial:

X − (H2 ) = 0 e X + (H2 ) = IR4

Para a matriz H3 podemos calcular os subespaços espectrais ou pelos au-


tovetores ou pelo polinômio mı́nimo. Encontrarı́amos

2 4 
 

 
−4 −2

 

− −
X (H3 ) = ker m (H3 ) =
 1
 8 

 
−8 −1
 

2 4 
 

 
4 2

 

+ +
X (H3 ) = ker m (H3 ) = 

 −1 −8 


−8 −1
 

Além da interpretação geométrica dos subespaços espectrais, vista acima,


eles também permitem a obtenção de mais informações sobre os autovalores
das matrizes Hamiltonianas:

Propriedade A.9.2 A matriz Hamiltoniana H não possui autovalores sobre


o eixo imaginário se e somente se dim X − (H) = dim X + (H) = n

A demonstração da validade deste resultado é simples, e será omitida. De


agora em diante sempre suporemos que λ(H) ∩ {jw} = φ ou, equivalente-
mente, dim X − (H) = dim X + (H) = n.
APÊNDICE A. FORMAS QUADRÁTICAS 97

Dados os subespaços V, W ⊂ IR2n , quando V + W = IR2n e V ∩ W = 0


diremos que eles são complementares e escreveremos V ⊕ W = IR2n . Sendo
V e W matrizes cujas colunas formam bases para V e W, respectivamente,
a matriz [V W ] terá posto completo (= 2n) quando V e W forem com-
plementares. Seja Xp ⊂ IR2n o subespaço gerado pelas colunas da matriz
(2n × n) " #
0
In
Matrizes Hamiltonianas para as quais X − (H) e Xp são complementares
recebem um nome especial — domı́nio de Riccati — por apresentarem propri-
edades interessantes. Para entender estas propriedades, seja X − uma matriz
(2n×n) cujas colunas formam uma base para X − (H); podemos particioná-la
em
" #
− X1
X = (A.3)
X2
onde X1 e X2 são matrizes (n × n). Se X − (H) e Xp forem complementares,
então a matriz X1 da partição acima será inversı́vel e poderemos considerar
o produto X2 X1−1 = X. Seja agora
" #
− K1
K =
K2

outra matriz cujas colunas formam uma base para X − (H). Continuando
a supor complementaridade entre X − (H) e Xp temos que K1 é inversı́vel.
Mostraremos agora a relação entre K = K2 K1−1 e X = X2 X1−1 . Considere a
matriz
" #
X 1 K1
X 2 K2

cujo posto é n; aplicando a identidade de Sylvester obtemos


X1−1 K1
" # " #" #
X 1 K1 X1 0 I
=
X 2 K2 X2 I 0 K2 − X2 X1−1 K1

Como o primeiro fator do segundo membro é inversı́vel podemos escrever


#−1 "
X1−1 K1
" # " #
I X1 0 X 1 K1
=
0 K2 − X2 X1−1 K1 X2 I X 2 K2

donde concluimos que o posto da matriz do lado esquerdo deve ser ≤ n.


Mas isto implica em K2 − X2 X1−1 K1 = 0 ou seja, K2 = X2 X1−1 K1 ou,
APÊNDICE A. FORMAS QUADRÁTICAS 98

finalmente, K = K2 K1−1 = X2 X1−1 = X. O significado disto é que a matriz


X obtida pelo procedimento acima independe da particular base escolhida
para X − (H), sendo determinada unicamente por H.

Definição A.9.2 O conjunto de todas as matrizes Hamiltonianas com au-


tovalores fora do eixo imaginário e para as quais X − (H) ⊕ Xp = IR2n recebe
o nome de Domı́nio de Riccati, simbolizado por R:
n o
R = H ∈ H | λ(H) ∩ {jw} = φ e X − (H) ⊕ Xp = IR2n

Como demonstramos acima, a cada elemento H ∈ R podemos associar


uma única matriz X (n × n), que passaremos a designar por Ric(H), dada
por
X = Ric(H) = X2 X1−1 (A.4)
onde X2 e X1 são obtidas a partir de uma base para X − (H) como indicado
na equação A.3. Usando uma linguagem mais formal poderı́amos definir uma
função, denominada Ric, entre R e o conjunto IRn×n de todas as matrizes
quadradas reais n × n:
Ric : R −→ IRn×n
H 7−→ Ric(H) = X2 X1−1 = X
Desta maneira se justifica o nome domı́nio de Riccati para o conjunto R,
e muitas vezes usamos o sı́mbolo dom(Ric) para designá-lo.

Exemplo A.9.3 Considere novamente as matrizes dos exemplos anteriores.


Para o primeiro caso seria simples verificar que X − ∩Xp = 0, donde H1 ∈ R.
E mais:
" #
2 1
Ric (H1 ) = X2 =
1 2

porque X1 = I. Por ter autovalores no eixo imaginário, H2 6∈ R. Para H3


deixamos as conclusões aos leitores.

Dada a importância do domı́nio de Riccati, haveria interesse em esta-


belecer condições para que uma matriz Hamiltoniana H pertença a R =
dom(Ric), sem o cálculo de uma base para X − (H). Isto pode ser feito pela

Propriedade A.9.3 Se H ∈ H não tem autovalores no eixo imaginário, S


é positiva semidefinida ou negativa semidefinida e < A, S > é estabilizável
então H ∈ dom(Ric)

O próximo resultado explicita importantes propriedades de X = X2 X1−1 .


APÊNDICE A. FORMAS QUADRÁTICAS 99

Propriedade A.9.4 Se H ∈ dom(Ric) e X = Ric(H), então


a.) X é simétrica
b.) A + SX é estável
c.) X é solução da equação de Riccati matricial algébrica

AT X + XA + XSX − T = 0

Este resultado estabelece uma conexão entre as matrizes Hamiltonianas e


a equação de Riccati, de capital importância na solução de problemas lineares
quadráticos, como se verá em breve.
Demonstração: Como H pertence ao domı́nio de Riccati R, por hipó-
tese, temos dim X − (H) = n e X − (H) ⊕ Xp = IR2n . Escolhendo uma base
para X − (H) como em A.3 teremos X1 inversı́vel e X = X2 X1−1 . Podemos
construir uma matriz (2n × 2n) inversı́vel justapondo bases para X − (H) e
Xp :
" #
X1 0
Q=
X2 I

Uma transformação de coordenadas conduz a uma matriz equivalente que


pode ser particionada em blocos (n × n):
" #
H11 H12
Q−1 HQ = (A.5)
H21 H22

Como o subespaço X − (H) é invariante sob H temos HX − (H) ⊂ X − (H)


e a matriz acima apresenta importantes particularidades estruturais: o bloco
superior esquerdo representa o mapa induzido por H em X − (H), e o bloco
inferior esquerdo é nulo. Ou seja, H21 = 0 e os autovalores de H11 estão em
C − . Isto mostra que os n autovalores estáveis de H são os autovalores de
H11 , que concentra assim toda a dinâmica estável de H. Usando a definição
de Q podemos explicitar os blocos Hij :

X1−1 0
" # " #" #" #
−1 H11 H12 A S X1 0
Q HQ = = (A.6)
H21 H22 −X I T −AT X2 I

Efetuando as multiplicações chegamos a

H11 = X1−1 AX1 + X1−1 SX2 (A.7)


H12 = X1−1 S (A.8)
H21 = −XAX1 + T X1 − XSX2 − AT X2 (A.9)
H22 = −XS − AT (A.10)
APÊNDICE A. FORMAS QUADRÁTICAS 100

Lembrando que X2 = XX1 a equação A.7 acima mostra que A + SX é


equivalente a H11 , sendo portanto estável. A equação A.9 fica

H21 = −XAX1 + T X1 − XSX2 − AT X2


= −XAX1 + T X1 − XSXX1 − AT XX1
= (−XA + T − XSX − AT X)X1

Mas X1 é inversı́vel, e H21 = 0, donde segue que

AT X + XA + XSX = T

o que mostra claramente a validade do item (c). A simetria de X ficará para


os leitores. Q.E.D

Para terminar veremos as caraterı́sticas adicionais advindas de estruturas


particulares de T e de S:

Propriedade A.9.5 Se H ∈ H é da forma


" #
A −BB T
−C C −AT
T

com < A, B > estabilizável e < C, A > detetável, então


a.) H ∈ dom(Ric)
b.) X = Ric(H) ≥ 0
c.) ker(X) ⊂ W = subespaço inobservável de < C, A >

Uma consequência desta propriedade é que ker(X) ⊂ W ⊂ ker(C), donde


a equação XM = C T sempre admite solução para M. Outra consequência:
quando < C, A > é observável teremos W = 0, logo ker(X) = 0 e X > 0.

A.10 Referências
O material deste capı́tulo pode ser considerado clássico, e é encontrável em
um grande número de textos e artigos, como por exemplo [?], [?], [?], [?], e
[?]. Muitos outros há, mas estes foram os mais consultados.
Apêndice B

Análise no IRn

B.1 Função Real de variável vetorial


ou função real de várias variáveis reais:

f : IRn −→ IR
x ∈ IRn 7→ y = f (x) ∈ IR

Quando n = 1 temos o conhecido caso “escalar”, ou seja, funções reais de


uma única variável real:
f : IR −→ IR
x ∈ IR 7→ y = f (x) ∈ IR

Exemplo B.1.1 f (x) = x2 + 2x − e−x , para x ∈ IR


f (x1 , x2 ) = x1 x2 para x1 , x2 ∈ IR q
f (x1 , x2 , x3 ) = x31 + 3x1 x2 x3 + x32 + (x3 ) para x1 , x2 , x3 ∈ IR

Quando n = 1 a função pode ser visualizada por meio dos gráficos tra-
dicionais; quando n = 2 a função f se associa a superfı́cies do IR3 . Para
dimensões maiores a visualização fica prejudicada. No caso de n = 2 o uso
das curvas de nı́vel permite a análise no plano de uma superfı́cie espacial e
facilita as coisas.
n o
Curva de nı́vel = x ∈ IR2 | f (x) = c = cte.

Exemplo B.1.2 f (x1 , x2 ) = x1 x2


f (x1 , x2 ) = x21 + x22

101
APÊNDICE B. ANÁLISE NO IRN 102

B.2 Continuidade e Derivadas


A função real de variável vetorial f é contı́nua no ponto x0 quando
lim f (x) = f (x0 )
x→x0

ou então, sem usar limites, quando


∀ǫ > 0 ∃δ > 0 | se kx − x0 k < δ então |f (x) − f (x0 )| < ǫ
Em outras palavras, é possı́vel chegar arbitrariamente próximo de f (x0 )
desde que cheguemos suficientemente perto de x0

B.3 Derivada: caso escalar


Dada a função
f : IR −→ IR
x ∈ IR 7→ y = f (x) ∈ IR
chamaremos de primeira derivada, ou derivada primeira, ou gradiente
de f no ponto x0 ∈ IR ao limite
f (x0 + h) − f (x0 )
lim
h→0 h
Esta derivada é usualmente designada pelos sı́mbolos

′ (1) df
f (x0 ) ou f (x0 ) ou
dx x0

e é o valor numérico do coeficiente angular da reta tangente ao gráfico de f


no ponto (x0 , f (x0 )).
Definição B.3.1 Dizemos que f é diferenciável em x0 se f ′ (x0 ) existe
Quando f é diferenciável em um intervalo, ou seja, quando
∃f ′ (x0 ) ∀x0 ∈ I ⊂ IR
podemos falar na função derivada:
f ′ : I −→ IR
x ∈ IR 7→ y = f ′ (x) ∈ IR
Exemplo B.3.1 Seja f definida por f (x) = x2
f (x + h) − f (x) x2 + 2xh + h2 − x2 2xh + h2
lim = lim = lim = 2x
h→0 h h→0 h h→0 h
Quando f ′ é diferenciável em um intervalo podemos falar na função deri-
vada segunda, f ′′ e daı́ por diante.
APÊNDICE B. ANÁLISE NO IRN 103

B.3.1 Derivadas laterais

B.4 Derivada: caso vetorial


Dada a função
f : IRn −→ IR
x ∈ IRn 7→ y = f (x) ∈ IR
chamaremos de primeira derivada parcial de f com relação a xi no ponto
x0 ∈ IRn ao limite
f (x01 , x02 , . . . x0i + h, . . . x0n ) − f (x0 )
lim
h→0 h
Esta derivada é usualmente designada pelos sı́mbolos

∂f
fx′ i (x0 ) ou
∂xi x0

Definição B.4.1 Dizemos que f é diferenciável em x0 quando



∂f
existe ∀i = 1, 2, . . . n
∂xi x0

Quando f é diferenciável em um intervalo, as derivadas parciais


∂f ∂f ∂f
, ,...
∂x1 ∂x2 ∂xn
podem ser consideradas funções de x.
O gradiente da função f no ponto x ∈ IRn é o vetor dado por
∂f
 
 ∂x1 
 
 
 ∂f 
∂x2
= g(x) = ∇f (x) ∈ IRn
 

.. 
.
 
 
 
 
 
∂f
∂xn

Exemplo B.4.1 Seja f definida por f (x) = f (x1 , x2 ) = x1 x2


" #
x2
∇f (x) =
x1
APÊNDICE B. ANÁLISE NO IRN 104

Definição B.4.2 uma função é linear quando

f (x) = cT x + b

onde c, b ∈ IRn .

O gradiente de uma função linear é dado trivialmente por ∇f (x) = c.

Exemplo B.4.2 A função f (x) = max{|x1 |, |x2 |} tem problemas nos can-
tos.

B.5 Derivadas de ordem superior


Quando as derivadas parciais (∂f )/(∂x1 ) são diferenciáveis podemos derivá-
las novamente:
∂2f
!
∂ ∂f
=
∂xj ∂xi ∂xi ∂xj
A matriz n×n cujo elemento (i, j) é dado pela expressão acima é chamada
de Hessiana de f :
 ∂2f ∂2f 
∂x21
... ... ∂x1 ∂xn

.. ..

. .
 
= ∇2 f (x) = G(x)
 
 
 
 
∂2f
∂x2n

As matrizes Hessianas são sempre simétricas.


1 T
Exemplo B.5.1 A função quadrática f (x) = 2
x Ax + bT x + c pode ser
derivada:

∇f (x) = Ax + b, e ∇2 f (x) = A

Uma função é suave ou “bem comportada” quando é contı́nua e suas


derivadas também o são. Não existem “cantos” ou quebras abruptas de
curvatura. Diz-se que uma função é de classe C k se suas k primeiras derivadas
são contı́nuas:
n o
C k = f | f, f (1) , . . . f (k) são contı́nuas
APÊNDICE B. ANÁLISE NO IRN 105

B.6 Funções Vetoriais de Variáveis Vetoriais


Dada a função
f : IRn −→ IRm
x ∈ IRn 7→ y = f (x) ∈ IRm
chamaremos de Jacobiana de f a matriz m × n de suas derivadas parciais.
O elemento (i, j) da Jacobiana é
∂fi
∂xj

B.7 Pontos Estacionários e Extremos


Dizemos que xe ∈ IRn é um ponto estacionário da função f quando o
gradiente se anula:
∇f (xe ) = 0
Dizemos que x∗ ∈ IRn é um ponto de mı́nimo local forte da função f
quando existe δ > 0 tal que
1. f (x) é definida ∀x tal que kx − x∗ k < δ
2. f (x) < f (x∗ ) ∀x 6= x∗ tal que kx − x∗ k < δ
Dizemos que x∗ ∈ IRn é um ponto de mı́nimo local fraco da função f
quando existe δ > 0 tal que
1. f (x) é definida ∀x tal que kx − x∗ k < δ
2. f (x) ≤ f (x∗ ) ∀x 6= x∗ tal que kx − x∗ k < δ
3. x∗ não é um mı́nimo local forte
Dizemos que x∗ ∈ IRn é um ponto de mı́nimo global da função f
quando . . .

B.8 Otimização
Em uma relação de causa e efeito, estamos sempre interessados em descobrir
efeitos nobres ou especiais: quem os causa? como são caracterizados? Este
é um problema prático muito comum. Para os seres humanos, os efeitos
nobres ou especiais são, em geral, os efeitos extremos: procura-se sempre
efeitos máximos ou mı́nimos. Como em termos matemáticos as relações de
causa e efeito são descritas por funções, percebe-se a enorme importância do
problema de se otimizar funções, ou seja, de se encontrar os seus extremos.
APÊNDICE B. ANÁLISE NO IRN 106

B.9 PGO — Problema Geral de Otimização


Desejamos minimizar uma função real de variável vetorial, sendo que a
variável independente x ∈ IRn está sujeita a determinadas restrições, ou
seja, deve pertencer a determinadas regiões do IRn . Este problema, também
chamado de Problema de Minimização Não Linear Com Restrições,
pode ser formulado como

minimizarf (x)
x ∈ IRn
s.a.
ci (x) = 0 i = 1, 2, . . . k
ci (x) ≥ 0 i = k + 1, . . . m

A função f (x) que se deseja minimizar é chamada de função objetivo.


As k primeiras restrições são as restrições de igualdade, e as outras, ob-
viamente, são as de desigualdade.
Quando o extremo procurado é um máximo, ou em outras palavras,
quando se deseja maximizar uma função h(x), a mesma estrutura acima
pode ser usada, desde que se use como função objetivo f (x) = −h(x).

B.10 Pontos Viáveis


São os pontos que satisfazem as restrições. A Região Viável, RV, é o
conjunto destes pontos:

RV = {v ∈ IRn | ci (v) = 0∀i = 1, 2, . . . kecj (v) ≥ 0∀j = k + 1, . . . m}

Exemplo B.10.1 Queremos minimizar f (x1 , x2 ) = x21 x2 com as restrições


(
x1 + x2 = 0
x21 + x22 ≥ 0

B.11 Solução do PGO


Quando não existem restrições, os mı́nimos globais ou locais de f são as
soluções procuradas, mas quando as restrições estão presentes os extremos
da função objetivo podem não ser as soluções do PGO.
APÊNDICE B. ANÁLISE NO IRN 107

A figura acima ilustra a situação. Torna-se necessário definir o que seriam


as soluções do PGO em seu caso mais geral, com restrições.

Definição B.11.1 O ponto x∗ ∈ IRn é uma Solução Local Forte do PGO


quando existir um real δ > 0 tal que

f (x) é definida ∀x ∈ RV tal que kx − x∗ k < δ




f (x) < f (x∗ )∀x ∈ RV, x 6= x∗ tal que kx − x∗ k < δ



Ainda podem existir soluções fracas:

Definição B.11.2 O ponto x∗ ∈ IRn é uma Solução Local Fraca do PGO


quando existir um real δ > 0 tal que
f (x) é definida ∀x ∈ RV tal que kx − x∗ k < δ








f (x) ≤ f (x∗ )∀x ∈ RV, x 6= x∗ tal que kx − x∗ k < δ





x∗ não é uma solução local forte

A busca de soluções do PGO baseada apenas nas definições acima pode ser
impraticável, a menos de casos muito especiais com Regiões Viáveis pequenas.
Precisamos de mais teoria. Esta teoria passa a ser apresentada agora, a
partir dos casos mais simples. De um modo geral ela se aplica quando as
funções objetivo e as restrições são suficientemente suaves. Entenderemos
que uma função é suficientemente suave quando for diferenciável pelo menos
duas vezes.

B.12 Caso Escalar sem Restrições


O Problema Geral de Otimização é particularizado para

minimizarf (x)
x ∈ IR

ou seja, não existem restrições e assim as soluções serão os mı́nimos “normais”


da função escalar f .

Teorema B.12.1 Condições Necessárias de Otimalidade


Supondo f suficientemente suave e sendo x∗ ∈ IR um mı́nimo local de f
então
APÊNDICE B. ANÁLISE NO IRN 108

1. f ′ (x∗ ) = 0

2. f ′′ (x∗ ) ≥ 0

Este teorema diz que os mı́nimos locais de uma função são pontos es-
tacionários dela, e além disso a derivada segunda é não negativa neles. Se
procuramos as soluções do PGO, este resultado restringe o universo da busca
aos pontos estacionários com segundas derivadas não negativas. Para efeti-
vamente garantir pontos deste universo solucionam o PGO precisamos de
outro resultado:

Teorema B.12.2 Condições Suficientes de Otimalidade


Supondo f suficientemente suave, seja x∗ ∈ IR tal que
1. f ′ (x∗ ) = 0

2. f ′′ (x∗ ) > 0
Então x∗ será um mı́nimo local forte de f .

Usando primeiramente as CNO (condições necessárias de otimalidade) e


depois as CSO (condições suficientes de otimalidade) temos uma maneira
formal e correta de encontrar os mı́nimos de uma dada f . As demonstrações
destes resultados podem ser feitas com o auxı́lio da expansão de f em série
de Taylor, e serão omitidas. São estes os teormas que legitimam a conhecida
associação entre mı́nimos e “derivar e igualar a zero”.
Quando f não é suficientemente suave . . .

B.13 Caso Vetorial sem Restrições


O Problema Geral de Otimização fica
minimizarf (x)
x ∈ IRn

e os resultados básicos são

Teorema B.13.1 Condições Necessárias de Otimalidade


Supondo f suficientemente suave e sendo x∗ ∈ IRn um mı́nimo local de f
então
1. ∇f (x∗ ) = g(x∗ ) = 0

2. ∇2 f (x∗ ) = G(x∗ ) ≥ 0
APÊNDICE B. ANÁLISE NO IRN 109

Mais uma vez os mı́nimos locais são pontos estacionários de uma função,
onde a derivada segunda é não negativa. Como antes, as CNO restringem o
universo da busca de soluções, mas para garantir que pontos deste universo
reduzido realmente solucionam o PGO precisamos das CSO:

Teorema B.13.2 Condições Suficientes de Otimalidade


Supondo f suficientemente suave, seja x∗ ∈ IRn tal que
1. ∇f (x∗ ) = 0
2. ∇2 f (x∗ ) > 0
Então x∗ será um mı́nimo local forte de f .

Exemplo B.13.1 Sendo f (x) = x3 teremos f ′ (x) = 3x2 e f ′′ (x) = 6x, o


que garante que x∗ = 0 é um ponto estacionário onde f ′′ (x∗ ) ≥ 0, ou seja,
satisfaz as CNO. Mas as CSO não são satisfeitas e este não é um mı́nimo
de f , mas um ponto de inflexão.
Seja agora f (x1 , x2 ) = x1 x2 . É fácil calcular
∂f ∂2f ∂2f
= x2 ; = 0; =1
∂x1 ∂x21 ∂x1 ∂x2
∂f ∂2f ∂2f
= x1 ; = 0; =1
∂x2 ∂x22 ∂x2 ∂x1
donde tiramos
" # " #
x2 2 0 1
∇f (x) = g(x1 , x2 ) = e ∇ f (x) = G(x1 , x2 ) =
x1 1 0

O ponto x∗ = [0 0]T é estacionário, pois anula o gradiente, mas a Hessi-


ana G(x∗ ) é indefinida. Trata-se de um ponto de sela.

B.14 Funções Quadráticas


A função real de variável vetorial q é chamada de quadrática quando
1
q(x) = xT Ax + bT x
2
onde x, b ∈ IRn e A é uma matriz simétrica n × n.

Propriedade 1: O gradiente de uma função quadrática é dado por:

∇q(x) = Ax + b
APÊNDICE B. ANÁLISE NO IRN 110

Propriedade 2: A Hessiana de uma função quadrática é dada por:

∇2 q(x) = A

Propriedade 3: Saindo de um ponto segundo uma direção. Sendo x, p ∈


IRn e α ∈ IR
1
q(x + αp) = q(x) + αpT (Ax + b) + α2 pT Ap
2

Propriedade 4: Os pontos estacionários de uma função quadrática são:

∇q(x) = 0 ⇐⇒ Ax = −b

A demonstração da validade destas propriedades será omitida. A partir


da última delas percebemos que quando a equação Ax = −b não admitir
soluções a função não tem pontos estacionários nem mı́nimos, sendo portanto
ilimitada.

Propriedade 5: Comportamento de uma função quadrática perto de um


ponto estacionário. Seja um ponto x∗ tal que Ax∗ = −b:
1
q(x∗ + αp) = q(x∗ ) + α2 pT Ap
2

Vemos que o comportamento de uma função quadrática nas vizinhanças


de um ponto estcionário depende apenas da Hessiana A = ∇2 q(x). Como
A é simétrica seus autovalores são reais, e os autovetores associados formam
uma base ortonormal. Vamos supor que “saı́mos” de um ponto estacionário
x∗ ao longo de uma direção dada pelo i-ésimo autovetor de A: Usando a
propriedade 5 com p = vi temos
1
q(x∗ + αvi ) = q(x∗ ) + α2 λi viT vi
2
1
= q(x ) + α2 λi

2
donde vemos que

λi > 0 então q é crescente com α


λi < 0 então q é decrescente com α
λi = 0 então q é constante e linear: q(x) = bT x
APÊNDICE B. ANÁLISE NO IRN 111

Propriedade 6: Comportamento de uma função quadrática com Hessiana


positiva definida. Supondo λi (A) > 0 ∀i = 1, 2, . . . n o ponto esta-
cionário x∗ é o único mı́nimo global da função.

Exemplo B.14.1 Seja a função quadrática


" #
1 5 3
q(x) = xT x + [−5, 5 − 3, 5]x
2 3 2

Como a Hessiana A é inversı́vel o ponto estacionário é dado trivialmente


por
" #
∗ −1 0, 5
x = −A b =
1, 0

Os autovalores e autovetores de A são


" # " #
−0, 85 0, 53
λ1 = 6, 85 → v1 = λ2 = 0, 15 → v2 =
−0, 53 −0, 85

A função tem um mı́nimo global em x∗ e suas curvas de nı́vel são elipses


cujos eixos principais são os autovetores da Hessiana.

Propriedade 7: Comportamento de uma função quadrática com Hessiana


positiva semidefinida. Supondo λi (A) ≥ 0 ∀i = 1, 2, . . . n o ponto
estacionário x∗ , se existir, é um mı́nimo local fraco da função.

Exemplo B.14.2 Seja a função quadrática


" #
1 4 2
q(x) = xT x + [−4 − 2]x
2 2 1

A Hessiana A não é inversı́vel, e a equação Ax∗ = −b admite infinitas


soluções dadas por
" # " #
∗ 0 1
x = +α
2 −2

Cada um dos pontos desta reta no IR2 é um mı́nimo local fraco. Esta
reta é também a direção dos autovetores associados ao autovalor λ1 = 0. Ao
outro autovalor, λ2 = 5, associa-se a direção [2 1]T . A superfı́cie de q é do
tipo calha.
APÊNDICE B. ANÁLISE NO IRN 112

Propriedade 8: Comportamento de uma função quadrática com Hessiana


indefinida. Supondo autovalores maiores, menores ou iguais a 0, o
ponto estacionário x∗ é ponto de sela.

Exemplo B.14.3 Seja a função quadrática


" #
1 3 −1
q(x) = xT x + [−0, 5 8, 5]x
2 −1 −8

Como a Hessiana A é inversı́vel o ponto estacionário é dado trivialmente


por
" #
∗ −1 0, 5
x = −A b =
1, 0

Os autovalores e autovetores de A são


" # " #
−1, 0 −0, 1
λ1 = 3, 09 → v1 = λ2 = −8, 09 → v2 =
0, 1 −1, 0

As curvas de nı́vel são hipérboles cujos eixos principais estão associados


aos autovetores da Hessiana.

B.15 Restrições Lineares


Consideremos novamente o Problema Geral de Otimização:

minimizarf (x)
x ∈ IRn
s.a.
ci (x) = 0 i = 1, 2, . . . k
ci (x) ≥ 0 i = k + 1, . . . m

Quando as restrições ci (x) são funções lineares temos ci (x) = aTi (x) + βi ,
onde ai ∈ IRn e βi ∈ IR. As restrições de igualdade ficam

aTi (x) + βi = 0 ⇐⇒ aTi (x) = −βi = bi

e as de desiguldade:

aTi (x) + βi ≥ 0 ⇐⇒ aTi (x) ≥ −βi = bi


APÊNDICE B. ANÁLISE NO IRN 113

B.16 PGO com Restrições Lineares de Igual-


dade
Temos o seguinte problema, abreviadamente chamado de PGORLI ou apenas
ORLI ou RLI:
minimizarf (x)
x ∈ IRn
s.a.
Âx = b̂

onde  é uma matriz m × n cujas linhas são as restrições aTi e b̂ ∈ IRm


tem como elementos os bi = −βi . Lembrando que x∗ é uma solução do RLI
quando:

1. é viável, ou seja, Âx∗ = b̂, e

2. f (x∗ ) ≤ f (x) para qualquer vizinho viável x de x∗ .

percebemos a necessidade de um estudo inicial da regição viável RV. É sim-


ples escrever
n o
RV = v ∈ IRn | Âv = b̂

Dado um ponto viável v ∈ RV, considere o problema de encontrar uma


direção ou vetor p tal que v+p ∈ RV. Em outras palavras, queremos condições
para partir de e permanecer em RV. É fácil deduzir que

v + p ∈ RV ⇐⇒ Âp = 0

Direções p tais que Âp = 0 são chamadas de direções viáveis e são as


direções que permitem que um movimento permaneça em RV.

Exemplo B.16.1 Seja um problema de minimização com uma restrição de


igualdade c(x1 , x2 ) = x1 + x2 = 1. A RV é a reta do IR2 cujos pontos são
[α 1 − α]T . Uma vez sobre esta reta, as direções viáveis são dadas por
x2 = −x1 .

O conjunto de todas as direções viáveis é dado pelo espaço nulo ou núcleo


de Â:
n o
Z = ker  = p ∈ IRn | Âp = 0
APÊNDICE B. ANÁLISE NO IRN 114

Este conjunto é um subespaço vetorial do IRn , cuja dimensão supomos


ser t (note que a RV pode não ter uma estrutura de subespaço). Sendo Z
uma matriz t × n cujas colunas formam uma base para Z podemos exprimir
de maneira geral uma direção viável qualquer

p = Zpz , onde pz ∈ IRn

Supondo que x∗ é uma solução para o RLI, vamos calcular o valor da


função objetivo em um vizinho viável. Para isto usaremos Taylor:

1
f (x∗ + ǫp) = f (x∗ ) + ǫpT ∇f (x∗ ) + ǫ2 pT ∇2 f (x∗ )p + · · ·
2
1
= f (x ) + ǫpz Z g(x ) + ǫ2 pTz Z T G(x∗ )Zpz + · · ·
∗ T T ∗
2
Considerando valores pequenos de ǫ poderı́amos estabelecer

Teorema B.16.1 Condições Necessárias de Otimalidade


Supondo f suficientemente suave e sendo x∗ ∈ IRn uma solução local do
RLI, então
1. Âx∗ = b̂
2. Z T g(x∗ ) = 0
3. Z T G(x∗ )Z ≥ 0

A primeira das condições acima, bastante óbvia, diz que as soluções devem
ser viáveis. A condição seguinte é a condição do gradiente, ou de primeira
ordem. A grandeza Z T g(x) é chamada de gradiente projetado de f em
x. Pontos nos quais o gradiente projetado se anula são chamados de pontos
estacionários com restrições. Também neste caso com restrições há um
gradiente que deve se anular. Raciocinemos. A matriz Z, por definição, é tal
que ÂZ = 0 ou, equivalentemente, Z T ÂT = 0. Como o gradiente projetado
se anula na solução, devemos ter Z T g(x∗ ) = 0 o que garante que o gradiente
“simples” g(x∗ ) é uma combinação linear das colunas de ÂT :

λ∗1
 

T ∗ T

 λ∗2 

Z g(x ) = 0 =⇒ Â  .. 
.
 
 
λ∗m
Os coeficientes λ∗i são os multiplicadores de Lagrange. Estes multi-
plicadores permitem a formulação do resultado acima de maneira diferente:
APÊNDICE B. ANÁLISE NO IRN 115

Teorema B.16.2 Condições Necessárias de Otimalidade


Supondo f suficientemente suave e sendo x∗ ∈ IRn uma solução local do
RLI, então

1. Âx∗ = b̂

2. ∃λ∗ ∈ IRm | g(x∗ ) = ÂT λ∗

3. Z T G(x∗ )Z ≥ 0

A terceira das condições do teorema é a condição de segunda ordem, ou


condição da Hessiana. A grandeza Z T G(x∗ )Z é a Hessiana projetada. Assim
como antes, as condições necessárias permitem delimitar a busca de soluções
aos pontos que as satisfazem. Para garantir que um deste pontas seja mesmo
solução do RLI precisamos do

Teorema B.16.3 Condições Suficientes de Otimalidade


Supondo f suficientemente suave, seja x∗ ∈ IRn tal que

1. Âx∗ = b̂

2. Z T g(x∗ ) = 0 ou, equivalentemente, ∃λ∗ ∈ IRm | g(x∗ ) = ÂT λ∗

3. Z T G(x∗ )Z > 0

Então x∗ será uma solução local do RLI.

Exemplo B.16.2 Considere o RLI com


" #
5 3

1 T
f (x) = x x + [−5, 5 − 3, 5]x


2 3 2





s.a. : âx = [1 1]x = 1

Conforme visto anteriormente, a função objetivo f tem um mı́nimo global


em x∗ = [0, 5 1, 0]T e suas curvas de nı́vel são elipses cujos eixos principais
são os autovetores da Hessiana. Dada â encontrarı́amos Z T = [1 − 1]; os
gradientes normal e projetado são
" # " #
5 3 1 11
g(x) = x+ e Z T g(x) = [2 1]x + 2
3 2 2 7

Lembrando que a restrição e o gradiente projetado devem se anular no


ponto estacionário chegamos a
APÊNDICE B. ANÁLISE NO IRN 116

( " # " #
(1 1)x = 1 1 1 1
ou x=
(2 1)x = −2 2 1 −2

cuja única solução é [−3 4]T . Aplicando as CSO neste candidato (basta apli-
car a terceira delas, porque as outras automaticamente se verificam) temos
" #" #
T ∗ 5 3 1
Z G(x )Z = [1 − 1] =1>0
3 2 −1

donde se conclui que o ponto estacionário encontrado é uma solução local.


Seja agora o RLI com
" #
4 2

1 T
f (x) = x x − [4 2]x


2 2 1





s.a. : âx = [1 − 1]x = 0

A função objetivo f é representada por uma superfı́cie tipo calha e tem


seus mı́nimos locais na reta dada por
" # " #
0 1
x∗ = +α
2 −2

A matriz Z e os gradientes normal e projetado são


" # " # " #
1 4 2 4
Z= ; g(x) = x− e Z T g(x) = [6 3]x − 6
1 2 1 2

Lembrando que a restrição e o gradiente projetado devem se anular no


ponto estacionário chegamos a
( " # " #
(1 −1)x = 0 1 −1 0
ou x=
(6 3)x = 6 6 3 6

cuja única solução é [2/3 2/3]T . Aplicando as CSO neste candidato (basta
aplicar a terceira delas, porque as outras automaticamente se verificam) te-
mos
" #" #
T ∗ 4 2 1
Z G(x )Z = [1 1] =9>0
2 1 1

donde se conclui que o ponto estacionário encontrado é uma solução local.


Seja agora o RLI com
APÊNDICE B. ANÁLISE NO IRN 117

" #
3 −1

1 T
f (x) = x x + 21 [−1 17]x


2 −1 −8





s.a. : âx = [1 − 1]x = −1/2

A função objetivo f é caracterizada por um ponto de sela e não admite


mı́nimos ou máximos. A matriz Z e os gradientes normal e projetado são
" # " # " #
1 3 −1 1 −1
Z= ; g(x) = x+ e Z T g(x) = [2 −9]x+8
1 −1 −8 2 17

Lembrando que a restrição e o gradiente projetado devem se anular no


ponto estacionário chegamos a
( " # " #
(1 −1)x = −1/2 1 −1 −1/2
ou x=
(2 −9)x = −8 2 −9 −8

cuja única solução é [1/2 1]T , exatamente o ponto de sela anterior. Apli-
cando as CSO neste candidato (basta aplicar a terceira delas, porque as outras
automaticamente se verificam) temos
" #" #
T ∗ 3 −1 1
Z G(x )Z = [1 1] = −7 < 0
−1 −8 1

Não se pode concluir que este ponto seja uma solução do problema. Na
realidade ele soluciona o problema de se encontrar o máximo de f com as
restrições dadas. Os leitores são convidados a repetir estes cálculos (desta
última f ) para as seguintes restrições:

1. [1 2]x = 3/2

2. [1 − 2]x = −3/2

3. [1 2]x = 0

B.17 PGO com Restrições Lineares de Desi-


gualdade
Temos o seguinte problema, abreviadamente chamado de PGORLD ou ape-
nas ORLD ou RLD:
APÊNDICE B. ANÁLISE NO IRN 118

minimizarf (x)
x ∈ IRn
s.a.
Ax ≥ b

onde A é uma matriz m × n cujas linhas são as restrições aTi e b ∈ IRm tem
como elementos os bi .

B.17.1 Estudo da Região Viável

..
.

Teorema B.17.1 Condições Necessárias de Otimalidade


Supondo f suficientemente suave e sendo x∗ ∈ IRn uma solução local do
RLD, então

1. Ax∗ ≥ b; Âx∗ = b̂

2. ∃λ∗ ∈ IRm | g(x∗ ) = ÂT λ∗

3. λ∗i ≥ 0, ∀i = 1, 2, . . . m

4. Z T G(x∗ )Z ≥ 0

Teorema B.17.2 Condições Suficientes de Otimalidade


Supondo f suficientemente suave, seja x∗ ∈ IRn tal que

1. Ax∗ ≥ b; Âx∗ = b̂

2. ∃λ∗ ∈ IRm | g(x∗ ) = ÂT λ∗

3. λ∗i ≥ 0, ∀i = 1, 2, . . . m

4. Z T G(x∗ )Z > 0

Então x∗ será uma solução local do RLI.


APÊNDICE B. ANÁLISE NO IRN 119

B.18 Programação Linear


B.19 PGO com Restrições Não-Lineares de
Igualdade
Temos o seguinte problema, abreviadamente chamado de PGORNI ou apenas
ORNI ou RNI:
minimizarf (x)
x ∈ IRn
s.a.
ĉi (x) = 0; i = 1, 2, . . . t

..
.

Teorema B.19.1 Condições Necessárias de Otimalidade


Supondo f suficientemente suave e sendo x∗ ∈ IRn uma solução local do
RNI, então

1. Ĉ(x) = 0

2. ∃λ∗ ∈ IRm | g(x∗ ) = ÂT (x∗ )λ∗

3. Z T (x∗ )W (x∗ , λ∗ )Z(x∗ ) ≥ 0

Teorema B.19.2 Condições Suficientes de Otimalidade


Supondo f suficientemente suave, seja x∗ ∈ IRn tal que

1. Ĉ(x) = 0

2. ∃λ∗ ∈ IRm | g(x∗ ) = ÂT (x∗ )λ∗

3. Z T (x∗ )W (x∗ , λ∗ )Z(x∗ ) > 0

Então x∗ será uma solução local do RNI.


APÊNDICE B. ANÁLISE NO IRN 120

B.20 PGO com Restrições Não-Lineares de


Desigualdade
Temos o seguinte problema, abreviadamente chamado de PGORND ou ape-
nas ORND ou RND:
minimizarf (x)
x ∈ IRn
s.a.
ci (x) ≥ 0; i = 1, 2, . . . m

..
.

Teorema B.20.1 Condições Necessárias de Otimalidade


Supondo f suficientemente suave e sendo x∗ ∈ IRn uma solução local do
RND, então

1. C(x∗ ) ≥ 0; Ĉ(x) = 0

2. ∃λ∗ ∈ IRm | g(x∗ ) = ÂT (x∗ )λ∗

3. λ∗i ≥ 0; i = 1, 2, . . . t

4. Z T (x∗ )W (x∗ , λ∗ )Z(x∗ ) ≥ 0

Teorema B.20.2 Condições Suficientes de Otimalidade


Supondo f suficientemente suave, seja x∗ ∈ IRn tal que

1. C(x∗ ) ≥ 0; Ĉ(x) = 0

2. ∃λ∗ ∈ IRm | g(x∗ ) = ÂT (x∗ )λ∗

3. λ∗i > 0; i = 1, 2, . . . t

4. Z T (x∗ )W (x∗ , λ∗ )Z(x∗ ) > 0

Então x∗ será uma solução local do RNI.


APÊNDICE B. ANÁLISE NO IRN 121

B.21 Métodos Numéricos


B.22 Caso Escalar: Obtenção de Raı́zes
B.22.1 Método da Bisecção
B.22.2 Método de Newton
B.22.3 Método da Secante
ou da interpolação linear.
APÊNDICE B. ANÁLISE NO IRN 122

B.22.4 Método da Regula Falsa


B.22.5 Método de Interpolações Superiores
B.22.6 Método Geral dos Intervalos
B.22.7 Método Garantidos

B.23 Caso Escalar sem Restrições: Obtenção


de mı́nimos
B.23.1 Busca de Fibonacci
B.23.2 Busca Áurea
B.23.3 Interpolação Polinomial
B.23.4 Aproximações Cúbicas
B.23.5 Métodos Garantidos

B.24 Caso Vetorial sem Restrições: Obten-


ção de mı́nimos
B.24.1 Métodos de Busca Direta
B.24.2 Algoritmo do Politopo
B.24.3 Algoritmo U
B.24.4 Métodos dp Gradiente e da Derivada Segunda
B.24.5 Método de Newton
B.24.6 Métodos da Decomposição Espectral
B.24.7 Métodos de Primeira Ordem
Newton discreto, Quase Newton.
APÊNDICE B. ANÁLISE NO IRN 123

B.24.8 Métodos Não Derivativos


B.24.9 Problema dos Mı́nimos Quadrados
Gauss-Newton, Levenberg-Marquardt, Quase Newton.

B.25 Referências
O material deste capı́tulo pode ser considerado clássico, e é encontrável em
um grande número de textos e artigos, como por exemplo [?], [?], [?], [?], [?]
e [?]. Muitos outros há, mas estes foram os mais consultados.

Вам также может понравиться