Вы находитесь на странице: 1из 133

Universidade Estadual de Campinas

Faculdade de Engenharia Eltrica e de Computao


Dep. de Eng. de Computao e Automao Industrial
Abordagem Neurofuzzy para Modelagem de
Sistemas Dinmicos No Lineares
Michel Bortolini Hell
Prof. Dr. Fernando Gomide (Orientador)
Prof. Dr. Pyramo Pires Costa Jr. (Co-orientador)
Tese de Doutorado apresentada Faculdade de En-
genharia Eltrica e de Computao da Universidade
Estadual de Campinas como parte dos requisitos
para obteno do ttulo de Doutor em Engenharia
Eltrica. rea de Concentrao: Automao.
Banca Examinadora:
Prof. Dr. Fernando Gomide DCA - FEEC - UNICAMP (Orientador)
Prof. Dr. Walmir Matos Caminhas DEE - UFMG
Profa. Dra. Roseli Aparecida Francelin Romero ICMC - USP-So Carlos
Profa. Dra. Rosngela Ballini IE - UNICAMP
Prof. Dr. Romis Ribeiro de Faissol Attux DCA - FEEC - UNICAMP
Campinas, Outubro de 2008
FICHA CATALOGRFICA ELABORADA PELA
BIBLIOTECA DA REA DE ENGENHARIA E ARQUITETURA - BAE - UNICAMP
Hell, Michel Bortolini
H367a Abordagem neurofuzzy para modelagem de sistemas
dinmicos no lineares / Michel Bortolini Hell.
Campinas, SP: [s.n.], 2008.
Orientadores: Fernando Antnio Campos Gomide,
Pyramo Pires Costa Jr..
Tese de Doutorado - Universidade Estadual de
Campinas, Faculdade de Engenharia Eltrica e de
Computao.
1. Modelos matemticos. 2. Inteligncia articial. 3.
Redes neurais (computao). 4. Sistemas Nebulosos. I.
Gomide, Fernando Antnio Campos. II. Costa Jr.,
Pyramo Pires. III. Universidade Estadual de Campinas.
Faculdade deEngenharia Eltrica e de Computao. IV.
Ttulo.
Ttulo em Ingls: Neurofuzzy approach for nonlinear dynamical systems modeling
Palavras-chave em Ingls: Mathematical models, Articial intelligence, Neural networks
(Computer science), Neurofuzzy systems
rea de concentrao: Automao
Titulao: Doutor em Engenharia Eltrica
Banca Examinadora: Walmir Matos Caminhas, Roseli Aparecida Francelin Romero,
Rosngela Ballini, Romis Ribeiro de Faissol Attux
Data da defesa: 19/11/2008
Programa de Ps Graduao: Engenharia Eletrica
ii





iii
Toda nossa cincia, comparada com a
realidade, primitiva e infantil e, no en-
tanto, a coisa mais preciosa que temos.
Albert Einsten
v
Rafa, eterna companheira, por sua fora e
coragem perante as diculdades. Por ter lutado
comigo em busca dos meus ideais. ela dedico
no s este trabalho, mas tambm toda a minha
vida. ela dedico o meu incondicional amor.
Nunca se esquea, nem um segundo,
que eu tenho o amor maior do mundo, ...
vii
Agradecimentos
Ao Prof. Dr. Fernando Gomide, pela orientao, por sua grande contribuio para minha formao
acadmica e cientca e pelo exemplo de prossionalismo e humildade que s os grandes possuem,
nos quais sempre me orientarei ao trilhar meus caminhos.
Ao Prof. Dr. Pyramo Pires da Costa Jr., pela co-orientao, por me abrir as portas do mundo cientco
e pelo empenho na realizao deste trabalho. Minha profunda admirao a este pesquisador que de
forma nica levou-me a desbravar novas fronteiras. Obrigado pela amizade e apoio incondicional
durante todos estes anos.
Ao Prof. Dr. Fernando Jos Von Zuben e aos colegas do LBIC Renan, Pablo, Hamilton, Wilfredo,
Rodrigo, Alan e Guilherme, que me receberam de braos abertos na fase nal deste trabalho.
memria do Prof. Dr. Adimilson Bosco Chitarra, pessoa extraordinria e fonte de inspirao que
me levou a buscar os caminhos da pesquisa e que to prematuramente completou sua misso na terra.
FAPESP, pelo apoio nanceiro N

2003/05042-1.
Aos colegas do LASI da PUC-MG, em especial ao Daniel e ao Lucas, pelo incentivo.
Ao Departamento de Engenharia de Computao e Automao Industrial da Faculdade de Engenharia
Eltrica da Universidade Estadual de Campinas (DCA-FEEC-UNICAMP) e a todos os professores,
colegas e funcionrios que de alguma forma contriburam para este trabalho.
Aos meus pais, Amilton e Lizete, que sempre me apoiaram e acreditaram nos meus ideais e que
sempre foram o exemplo de carter e honestidade que nortearam minhas aes. A eles dedico meu
eterno amor.
Aos meus irmos Charles e Milena, Eliana e aos meus sobrinhos, Charlinhos e Mariana, que mesmo
a mais de 1.000 quilmetros de distncia, todos sempre me deram muita fora para que eu atingisse
meus objetivos.
Ao Arnaldo e Neuza, verdadeiros pais que, alm de me presentear com a coisa que mais amo na
vida, sempre me apoiaram e incentivaram para que eu chegasse at aqui.
Isabela, ao Marcelo e ao Luiz Felipe, pelos inmeros momentos de distrao e pelas cavalgadas
que sem dvida contribuiram para que fosse possvel concluir este trabalho.
Aos meus amigos Alessandro e Juliana pelos muitos momentos felizes que ajudaram a amenizar as
diculdades e muito ajudaram nesta caminhada.
E mais uma vez Rafa, companheira de todas as horas, pelo amor e compreenso que me dedicou
durante todos estes anos. Por suportar as ausncias e por caminhar ao meu lado, superando juntos
todas as diculdades. Agradeo ela tambm pelas valiosas discusses na rea de neurocincia.
ix



Resumo

Este trabalho prope um procedimento sistemtico para obteno de modelos de sistemas dinmicos
no-lineares complexos utilizando redes neurais nebulosas. As redes neurais nebulosas aplicadas em
modelagem so capazes de extrair conhecimento de dados entrada/sada e representar este
conhecimento na forma de regras nebulosas do tipo se-ento, gerando modelos lingsticos
convenientes para compreenso humana. Duas novas classes de redes neurais nebulosas so propostas
a partir de generalizaes dos neurnios lgicos AND e OR. Estas generalizaes, denominadas
unineurons e nullneurons, implementam, alm da plasticidade sinptica, outra importante caracterstica
dos neurnios biolgicos, a plasticidade neuronal. Desta forma, os neurnios propostos neste trabalho
so capazes de modificar parmetros internos em resposta alteraes, permitindo que unineurons e
nullneurons variem individualmente de um neurnio AND para um neurnio OR (e vice-e-versa),
dependendo da necessidade do problema. Conseqentemente, uma rede neural nebulosa composta por
unineurons e nullneurons mais geral do que as redes neurais nebulosas similares sugeridas na
literatura. Alm da introduo de redes neurais com unineurons e nullneurons, um novo algoritmo de
treinamento para obteno de modelos nebulosos de sistemas dinmicos proposto utilizando
aprendizado participativo. Neste algoritmo, uma nova informao fornecida rede por meio de um
dado entrada/sada comparada com o conhecimento que j se tem a respeito do sistema. A nova
informao s tem influncia na atualizao do conhecimento se no entrar em conflito com o
conhecimento adquirido anteriormente. Como conseqncia, redes neurais nebulosas que utilizam este
novo algoritmo de treinamento so mais robustas a dados de treinamento com valores que
correspondem a comportamentos anmalos ou mesmo a erros durante a obteno destes dados. As
abordagens propostas foram utilizadas para desenvolver modelos para previso de sries temporais e
modelagem trmica de transformadores de potncia. Os resultados experimentais mostram que os
modelos aqui propostos so mais robustos e apresentam os melhores desempenhos, tanto em termos de
preciso quanto em termos de custos computacionais, quando comparados com abordagens
alternativas sugeridas na literatura.

Palavras-chave: Modelagem, sistemas dinmicos, redes neurais, sistemas nebulosos, redes neurais
nebulosas, unineurons, nullneurons, aprendizado participativo.
xi



Abstract

This work suggests a systematic procedure to develop models of complex nonlinear dynamical
systems using neural fuzzy networks. The neural fuzzy networks are able to extract knowledge from
input/output data and to encode it explicitly in the form of if-then rules. Therefore, linguistic models
are obtained in a form suitable for human understanding. Two new classes of fuzzy neurons are
introduced to generalize AND and OR logic neurons. These generalized login neurons, called
unineurons and nullneurons, provide a mechanism to implement synaptic plasticity and an important
characteristic of biological neurons, the neuronal plasticity. Unineurons and nullneurons achieve
synaptic and neuronal plasticity modifying their internal parameters in response to external changes.
Thus, unineurons and nullneurons may individually vary from a AND neuron to a OR neuron (and
vice-versa), depending upon the necessity of the modeling task. Neural fuzzy networks constructed
with unineurons and nullneurons are more general than similar fuzzy neural approaches suggested in
literature. Training algorithms for neural fuzzy networks with unineurons and nullneurons are also
studied. In particular, a new training algorithm based on the participatory learning is introduced to
develop fuzzy models of dynamical systems. In the participatory learning algorithm, a new
information brought to the network through an input/output data is first compared with the knowledge
that the network already has about the model. The new information influences the update of the
knowledge only if it does not conflict with the current knowledge. As a result, neural fuzzy networks
trained with participatory learning show greater robustness to training data with anomalous values than
their counterparts. The neural fuzzy network and training algorithms suggested herein are used to
develop time series forecast models and thermal models of power transformers. Experimental results
show that the models proposed here are more robust and perform best in terms of accuracy and
computational costs when compared against alternative approaches suggested in the literature.

Keywords: Modeling, dynamical systems, neural networks, fuzzy systems, neural fuzzy networks,
unineurons, nullneurons, participatory learning.

xiii
Sumrio
Lista de Figuras xvii
Lista de Tabelas xix
Lista de Smbolos xxi
Lista de Siglas e Abreviaes xxiii
Trabalhos Publicados Pelo Autor xxiv
1 Introduo 1
1.1 Motivao e Relevncia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Organizao do Trabalho . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2 Fundamentos Tericos 7
2.1 Introduo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2 Modelagem Matemtica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2.1 Classicaes de um Modelo Matemtico . . . . . . . . . . . . . . . . . . . 8
2.2.2 Abordagens Baseadas em Inteligncia Computacional . . . . . . . . . . . . 9
2.3 Conceitos de Teoria de Conjuntos Nebulosos . . . . . . . . . . . . . . . . . . . . . 11
2.3.1 Conjuntos Nebulosos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3.2 Normas Triangulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3.3 Uninormas e Nullnormas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3.4 Operador de Compromisso . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.5 Relaes Nebulosas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.6 Composio de Relaes Nebulosas . . . . . . . . . . . . . . . . . . . . . . 17
2.3.7 Equaes Relacionais Nebulosas . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3.8 Soluo do Problema de Estimao (SPE) . . . . . . . . . . . . . . . . . . . 20
2.4 Neurnios e Redes Neurais Nebulosas . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4.1 Neurnios Nebulosos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.4.2 Redes Neurais Nebulosas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.5 O Espao Neural Multidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.6 Aprendizado Participativo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.7 Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
xv
xvi SUMRIO
3 Redes Neurais Nebulosas com Aprendizado Participativo 39
3.1 Introduo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.2 Anlise de Convergncia do Aprendizado Participativo . . . . . . . . . . . . . . . . 42
3.3 Estrutura da Rede Neural Nebulosa . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.4 Treinamento de Redes Neurais Nebulosas com AP . . . . . . . . . . . . . . . . . . 51
3.4.1 Gerao das Funes de Pertinncia . . . . . . . . . . . . . . . . . . . . . . 52
3.4.2 Atualizao dos Pesos Associados Rede Neural de Agregao . . . . . . . 53
3.4.3 Atualizao dos Pesos Associados ao Sistema de Inferncia Nebuloso . . . . 53
3.4.4 Procedimentos de Treinamento com AP . . . . . . . . . . . . . . . . . . . . 55
3.5 Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4 Generalizao de Neurnios Nebulosos 61
4.1 Introduo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.2 Neurnio Nebuloso Baseado em Uninormas: O Unineuron . . . . . . . . . . . . . . 63
4.3 Neurnio Nebuloso Baseado em Nullnormas: O Nullneuron . . . . . . . . . . . . . 67
4.4 Redes Neurais Nebulosas baseadas em Nullneurons e Unineurons . . . . . . . . . . 76
4.5 Aprendizado para Redes Baseadas em Unineurons e Nullneurons . . . . . . . . . . . 78
4.6 Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5 Resultados Experimentais e Aplicaes 85
5.1 Introduo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.2 Predio de Sries Temporais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.2.1 Previso de Carga de Curto Prazo . . . . . . . . . . . . . . . . . . . . . . . 87
5.3 Aplicaes a Problemas de Identicao de Sistemas . . . . . . . . . . . . . . . . . 96
5.3.1 Problema do Forno a Gs de Box&Jenkins . . . . . . . . . . . . . . . . . . 97
5.3.2 Modelagem Trmica de Transformadores de Potncia . . . . . . . . . . . . . 98
5.4 Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
6 Concluso 111
Referncias bibliogrcas 114
Lista de Figuras
2.1 Conjunto nebuloso F em um universo de discurso X . . . . . . . . . . . . . . . . . 13
2.2 Realizaes alternativas de uma uninorma: (a) and-dominada, (b) or-dominada . . . 15
2.3 Sistema relacional nebuloso de uma entrada - uma sada . . . . . . . . . . . . . . . . 19
2.4 Neurnio nebuloso do tipo I . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.5 Neurnio nebuloso do tipo II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.6 Neurnio nebuloso do tipo III . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.7 Neurnio nebuloso lgico do tipo AND . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.8 Neurnio nebuloso lgico do tipo OR . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.9 Processador lgico do tipo Soma de Mintermos . . . . . . . . . . . . . . . . . . . . 30
2.10 Processador lgico do tipo Produto de Maxitermos . . . . . . . . . . . . . . . . . . 31
2.11 Modelo de rede neural nebulosa para classicao de padres . . . . . . . . . . . . . 32
2.12 Modelo de rede neural nebulosa recorrente . . . . . . . . . . . . . . . . . . . . . . . 33
2.13 Comportamento da aprendizagem participativa . . . . . . . . . . . . . . . . . . . . 36
2.14 Aprendizado participativo com alerta . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.15 Comportamento do ndice de alerta e da variao das convices: (a) ndice de com-
patibilidade (b) ndice de alerta (c) Variao das convices. . . . . . . . . . . . . . 37
3.1 Exemplo de Rede Neural Clssica de 3 entradas e 2 sadas. . . . . . . . . . . . . . . 40
3.2 Exemplo de Rede Neural Nebulosa de 3 entradas e 2 sadas. . . . . . . . . . . . . . 41
3.3 Convergncia do Aprendizado Participativo para Varivel Aleatria com Distribuio
Normal: (a) Valor inicial v
0
= 0, (b) Valor inicial v
0
= 1. . . . . . . . . . . . . . . . 47
3.4 Convergncia do Aprendizado Participativo para Varivel Aleatria com Distribuio
Diamtrica No-Central: (a) Valor inicial v
0
= 0, (b) Valor inicial v
0
= 1. . . . . . . 48
3.5 Modelo de rede neural nebulosa . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.6 Exemplo de Gerao das Funes de Pertinncia para x R
2
e y [0, 1]. . . . . . . 52
4.1 Unineuron Aplicado a um Problema Bi-dimensional. . . . . . . . . . . . . . . . . . 67
4.2 Superfce de Deciso do Unineuron para w=[0.3 0.8], t-norma = min, s-norma = max
e: (a) g = 0, (b) g = 0.1, (c) g = 0.3, (d) g = 0.4, (e) g = 0.5, (f) g = 0.7, (g)
g = 0.8, (h) g = 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
4.3 Superfce de Deciso do Unineuron para w=[0.3 0.8], t-norma = produto algbrico,
s-norma = soma probabilstica e: (a) g = 0, (b) g = 0.1, (c) g = 0.3, (d) g = 0.4, (e)
g = 0.5, (f) g = 0.7, (g) g = 0.8, (h) g = 1 . . . . . . . . . . . . . . . . . . . . . . 69
xvii
xviii LISTA DE FIGURAS
4.4 Superfce de Deciso do Unineuron para w=[0.3 0.8], t-norma = produto limitado,
s-norma = soma limitada e: (a) g = 0, (b) g = 0.1, (c) g = 0.3, (d) g = 0.4, (e)
g = 0.5, (f) g = 0.7, (g) g = 0.8, (h) g = 1 . . . . . . . . . . . . . . . . . . . . . . 70
4.5 Nullneuron Aplicado Problema Bi-dimensional. . . . . . . . . . . . . . . . . . . . 72
4.6 Superfce de Deciso do nullneuron para w=[0.3 0.8], t-norma = min, s-norma = max
e: (a) u = 0, (b) u = 0.1, (c) u = 0.3, (d) u = 0.4, (e) u = 0.5, (f) u = 0.7, (g)
u = 0.8, (h) u = 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.7 Superfce de Deciso do nullneuron para w=[0.3 0.8], t-norma = produto algbrico,
s-norma = soma probabilstica e: (a) u = 0, (b) u = 0.1, (c) u = 0.3, (d) u = 0.4, (e)
u = 0.5, (f) u = 0.7, (g) u = 0.8, (h) u = 1 . . . . . . . . . . . . . . . . . . . . . . 74
4.8 Superfce de Deciso do nullneuron para w=[0.3 0.8], t-norma = produto limitado,
s-norma = soma limitada e: (a) u = 0, (b) u = 0.1, (c) u = 0.3, (d) u = 0.4, (e)
u = 0.5, (f) u = 0.7, (g) u = 0.8, (h) u = 1 . . . . . . . . . . . . . . . . . . . . . . 75
4.9 Modelo de rede neural nebulosa recorrente com unineurons e nullneurons . . . . . . 76
5.1 Curva de carga para o perodo de 13 a 19 de abril de 2001. . . . . . . . . . . . . . . 88
5.2 Curva de carga para o perodo de 13 a 19 de maio de 2001. . . . . . . . . . . . . . . 89
5.3 Curva de carga com pers anmalos. . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.4 Resultados para previso de carga - Caso 1: (a) MLP, (b) ANFIS, (c) NN-AND, (d)
NN-OR, (e) AND-AP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
5.5 Resultados para previso de carga - Caso 1: (f) OR-AP, (g) UNI-R, (h) NULL-R, (i)
NULL-G . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.6 Resultados para previso de carga - Caso 2: (a) MLP, (b) ANFIS, (c) NN-AND, (d)
NN-OR, (e) AND-AP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
5.7 Resultados para previso de carga - Caso 2: (f) OR-AP, (g) UNI-R, (h) NULL-R, (i)
NULL-G . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
5.8 Resultados obtidos para o forno a gs de Box e Jenkins: (a) MLP, (b) ANFIS, (c)
NN-AND, (d) NN-OR, (e) AND-AP . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.9 Resultados obtidos para o forno a gs de Box e Jenkins: (f) OR-AP, (g) UNI-R, (h)
NULL-R, (i) NULL-G . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
5.10 Dados de treinamento - Caso 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.11 Resultados da modelagem trmica de transformadores de potncia (Dados de Teste 1
- DT1): (f) OR-AP, (g) UNI-R, (h) NULL-R, (i) NULL-G . . . . . . . . . . . . . 105
5.12 Resultados da modelagem trmica de transformadores de potncia (Dados de Teste 2
- DT2): (a) MLP, (b) ANFIS, (c) NN-AND, (d) NN-OR, (e) AND-AP . . . . . . . 106
5.13 Resultados da modelagem trmica de transformadores de potncia (Dados de Teste 2
- DT2): (f) OR-AP, (g) UNI-R, (h) NULL-R, (i) NULL-G . . . . . . . . . . . . . 107
5.14 Dados de treinamento - Caso 2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
Lista de Tabelas
5.1 Parmetros Estruturais dos Modelos Implementados - Previso de Carga . . . . . . . 90
5.2 Resultados para Previso de Carga - Caso 1 . . . . . . . . . . . . . . . . . . . . . . 96
5.3 Resultados para Previso de Carga - Caso 2 . . . . . . . . . . . . . . . . . . . . . . 96
5.4 Resultados para o Forno a Gs de Box&Jenkins . . . . . . . . . . . . . . . . . . . . 98
5.5 Resultados da Literatura para o Forno a Gs de Box&Jenkins . . . . . . . . . . . . . 98
5.6 Principais Caractersticas do Transformador a ser Modelado . . . . . . . . . . . . . . . . 102
5.7 Resultados da Modelagem da Transformadores - Caso 1 . . . . . . . . . . . . . . . . 103
5.8 Resultados da Modelagem de Transformadores - Caso 2 . . . . . . . . . . . . . . . . 108
xix
Lista de Smbolos
R - Conjunto dos nmeros reais
C - Conjunto dos nmeros complexos
A

i
i
-
i
-simo conjunto nebuloso da entrada i
(x t y) - Norma triangular (t-norma) entre x e y
T(x, y) - Norma triangular (t-norma) entre x e y
(x s y) - Conorma triangular (s-norma) entre x e y
S(x, y) - Conorma triangular (s-norma) entre x e y
U(x, y; g) - Uninorma entre x e y com elemento identidade g

U(x, y; g) - Uninorma de dominncia controlada entre x e y com elemento identidade g


N(x, y; u) - Nullnorma entre x e y com elemento de absoro u

N(x, y; u) - Nullnorma alternativa entre x e y com elemento de absoro u

C
u
() - Operador de compromisso parametrizado por u
sup
xX
{} - Operador supremo sobre o conjunto X
inf
xX
{} - Operador nmo sobre o conjunto X
X Y - Produto cartesiando entre os espaos X e Y
[0, 1]
n
- Hipercubo unitrio de dimenso n, i.e.,
n

[0, 1] [0, 1] . . . [0, 1]
[x
k
, y
k
] - k-simo dado de treinamento
y
k
- Sada obtida no instante k
w

- -sima linha da matriz W


q
s
- Operador de atraso de s passos
E{} - Esperana matemtica
Pr{} - Funo probabilidade
P[] - Funo distribuio de probabilidades
xxi
Lista de Siglas e Abreviaes
ANFIS - Adaptative Fuzzy Inference System
AP - Aprendizado Participativo
ARMAX - Autoregressive Moving Average with Exogenous Inputs
ARX - Autoregressive with Exogenous Inputs
FIR - Finite Impulse Response
FIS - Fuzzy Inference System
FT - Funo de Transferncia
GD - Mtodo do Gradiente
IC - Inteligncia Computacional
IIR - Innite Impulse Response
MAPE - Mean Average Percentage Error
MLP - Multilayer Perceptron
MSE - Mean Square Error
NARMAX - Nonlinear Autoregressive Moving Average with Exogenous Inputs
NARX - Nonlinear Autoregressive with Exogenous Inputs
NDEI - Non-dimentional Error Index
RA - Reforo Associativo
RMSE - Root Mean Square Error
RNA - Rede Neural Articial
SPE - Soluo do Problema de Estimao
xxiii
Trabalhos Publicados Pelo Autor
Captulos de Livro
1. E. Lima, M. Hell, R. Ballini and F. Gomide, Evolving Fuzzy Modeling Using Participatory Learn-
ing, In: P. Angelov D. Filev and N. Kasabov (Eds.), Evolving Intelligent Systems: Methodology and
Applications, 440pp., John Willey and Sons, 2008.
2. M. Hell, L. Secco, P. Costa Jr., F. Gomide, Recurrent Neural Approaches for Power Thermal Trans-
former Modeling. In: S. K. Pal et. al. (Org.), Pattern Recognition and Machine Intelligence, 804pp.,
Heidelberg: Springer Verlag, 2005.
Artigos em Peridicos
1. M. Hell, P. Costa Jr., F. Gomide, Recurrent Neurofuzzy Network in Thermal Modeling of Power Trans-
formers, IEEE Transactions on Power Delivery, Vol. 22, No. 2, pp. 904-910, April 2007.
2. M. Hell, P. Costa Jr., F. Gomide, Participatory Learning in Power Transformers Thermal Modeling,
IEEE Transactions on Power Delivery, Vol. 23, No. 4, pp. 2058-2067, Oct. 2008.
3. M. Hell, P. Costa Jr., F. Gomide, Unineurons-based hybrid neurofuzzy network in nonlinear system
modeling, Nonlinear Analysis: Theory, Methods & Applications, 2008 (aceito), .
4. D. Leite, M. Hell, P. Costa Jr., F. Gomide, Real-time fault diagnosis of nonlinear systems, Nonlinear
Analysis: Theory, Methods & Applications, 2008 (aceito).
5. M. Hell, P. Costa Jr., F. Gomide, A Novel Method for Thermal Modeling of Power Transformers Based
on Nullneurons, Electric Power Systems Research, 2008 (submetido).
6. M. Hell, P. Costa Jr., F. Gomide, Neurofuzzy Short-Term Load Forecasting with Participatory Learn-
ing, Engineering Applications of Articial Intelligence, 2008 (submetido).
7. M. Hell, P. Costa Jr., W. Pedrycz, F. Gomide, Generalized Fuzzy Set-Based Neurons: Unineurons,
Nullneurons and Neurofuzzy Networks, IEEE Transactions on Fuzzy Systems, 2008 (submetido).
Artigos em Congressos
1. M. Hell, P. Costa Jr., F. Gomide, Neurons and neural fuzzy networks based on nullnorms, Proceedings
of 10th Brazilian Symposium on Articial Neural Networks, SBRN 08, pp. 1-6, Salvador-BA, Brasil,
October 2008.
2. M. Hell, P. Costa Jr., F. Gomide, Redes Neurofuzzy Baseadas em Nullneurons, Anais do XVII Con-
gresso Brasileiro de Automtica, CBA 08, pp. 1-6, Juiz de Fora-MG, Brasil, Setembro 2008.
3. M. Hell, P. Costa Jr., F. Gomide, Hybrid Neurofuzzy Computing With Nullneurons, Proceedings of
IEEE International Joint Conference on Neural Networks, IJCNN 08, pp. 3652-3658, Hong Kong-HK,
China, June 2008.
xxv
xxvi TRABALHOS PUBLICADOS PELO AUTOR
4. M. Hell, R. Ballini, P. Costa Jr., F. Gomide, Treinamento de Redes Neurofuzzy via Aprendizado Partic-
ipativo, Anais do VIII SBAI - Simpsio Brasileiro de Automao Inteligente, pp. 1-6, Florianpolis-SC,
Brasil, pp. 1-6, Outubro 2007.
5. M. Hell, R. Ballini, P. Costa Jr., F. Gomide, Training Neurofuzzy Networks with Participatory Learn-
ing, New Dimensions in Fuzzy Logic and Related Technologies - Proceedings of the 5th EUSFLAT
Conference, Vol. II, pp. 231-236, Ostrava, Czech Republic, September 2007.
6. M. Hell, P. Costa Jr., F. Gomide, New Neurofuzzy Training Procedure Based on Participatory Learning
Paradigm, Proceedings of IEEE International Conference on Fuzzy Systems, FUZZ-IEEE 2007, pp.
1952-1957, London, UK, July 2007.
7. M. Hell, P. Costa Jr., F. Gomide, Nullneurons-Based Hybrid Neurofuzzy Network, Proceedings of
Annual Meeting of the North American Fuzzy Information Processing Society, NAFIPS 07, pp. 331-
336, San Diego-CA, USA, June 2007.
8. D. Leite, M. Hell, P. Diez, B. Gariglio, L. Nascimento, P. Costa Jr., Real-Time Model-Based Fault
Detection and Diagnosis for Alternators and Induction Motors, Proceedings of IEEE International
Electric Machines & Drives Conference, IEMDC 07. pp. 202-207, Antalya, Turkey, May 2007.
9. M. Hell, L. Secco, P. Costa Jr., F. Gomide, Redes Neurais e Neuro-Fuzzy Aplicadas a Modelagem
Trmica de Transformadores de Potncia, Anais do VII Congresso Brasileiro de Redes Neurais, CBRN
05, pp. 1-6, Natal-RN, Brasil, Outubro 2005.
10. M. Hell, L. Secco, P. Costa Jr., F. Gomide, Elman Recurrent Neural Network in Thermal Modeling of
Power Transformers, Proceedings of International Conference on Power Engineering Systems, ICOPES
2005, pp. 1-6, Rio de Janeiro-RJ, Brazil, April 2005.
11. M. Hell, L. Secco, P. Costa Jr., F. Gomide, Rede Neuro-Fuzzy Recorrente Aplicada Modelagem
Trmica de Transformadores de Potncia, Anais do XV Congresso Brasileiro de Automtica, CBA 04,
pp. 1-6, Gramado-RS, Brasil, Setembro 2004.
Captulo 1
Introduo
1.1 Motivao e Relevncia
Modelagem, anlise e controle de sistemas dinmicos tm atrado grande interesse durante as lti-
mas dcadas. O estudo dessas reas cresceu em importncia nos ltimos anos devido, principalmente,
ao aumento do grau de complexidade dos sistemas a serem estudados e o alto nvel de automao
presente nas mais diversas reas dos setores produtivos. Estes fatores tm levado necessidade do
desenvolvimento de modelos cada vez mais precisos e robustos a m de tornar os processos mais
conveis, reduzindo assim custos operativos (Narendra & Parthasarathy, 1990; Gri et al., 2000).
O campo de utilizao desses modelos muito amplo, destacando-se aplicaes como: controle,
superviso, predio, simulao, otimizao, etc. Antes dos computadores digitais, os clculos usa-
dos nessas aplicaes consumiam muito tempo, e os erros provenientes de simulaes eram consid-
erveis. Hoje em dia, o uso de computadores permite estudar modelos mais detalhados e algoritmos
complexos para o projeto e anlise de sistemas. Com o aumento do poder computacional, pode-se
impor especicaes de desempenho mais rgidas nos projetos de engenharia, levando necessidade
de modelos mais detalhados do processo em estudo (Figueiredo, 2000).
Outra rea que tem apresentado um grande avano nos ltimos anos o da inteligncia computa-
cional. Em particular, redes neurais articiais, sistemas nebulosos e suas combinaes tm motivado
inmeros trabalhos e uma larga gama de aplicaes vm sendo propostas na literatura. Um dos princi-
pais objetivos das pesquisas em inteligncia computacional o de criar sistemas computacionais que
emulem caractersticas especiais inerentes aos seres humanos, como aprendizado, intuio, raciocnio
lgico aproximado, capacidade de generalizao, entre outras (Haykin, 1998).
Aplicaes de sistemas inteligentes na modelagem de sistemas dinmicos tm se mostrado alta-
mente promissoras (Jin et al., 1995; Suykens et al., 1996; Tsoukalas & Uhrig, 1997; Giles et al., 1998;
Gri et al., 2000; Ouyang et al., 2005). Em especial, a integrao entre redes neurais articiais e
1
2 Introduo
sistemas nebulosos tem se mostrado ecientes quando os problemas exigem solues robustas, toler-
antes a falhas, de dinmica adaptativa e capazes de considerar dados de natureza vaga ou imprecisa
(Gomide & Pedrycz, 2007).
Neste sentido, as redes neurais nebulosas se apresentam como uma poderosa ferramenta na mod-
elagem de sistemas dinmicos. Estes sistemas computacionais so capazes de especicar parmetros
de um modelo nebuloso e codicar explicitamente a base de regras nebulosas em sua estrutura. Isto
implica que o conhecimento adquirido pela rede pode ser facilmente extrado na forma de regras neb-
ulosas do tipo se-ento. Alm disso, ao contrrio das abordagens clssicas, as redes neurais nebulosas
prescindem do conhecimento fsico do sistema a ser modelado, pois so capazes de gerar o modelo a
partir de dados de entrada/sada e, conseqentemente, de eliminar decincias causadas por variaes
de parmetros (Caminhas et al., 1999).
Com o intuito de se desenvolver redes neurais nebulosas cada vez mais ecientes para aplicao
em modelagem nebulosa, novas arquiteturas e mtodos de aprendizagem vm sendo propostos na
literatura. Dentre as estruturas pode-se citar as redes neurais nebulosas formadas pelos chamados
neurnios lgicos AND e OR propostos por Pedrycz e Rocha em 1993 (Pedrycz & Rocha, 1993).
Estes tipos de neurnio apresentam uma forte semelhana com o modelo clssico de neurnio
de McCulloch-Pitts (McCulloch & Pitts, 1943), o que os torna particularmente atrativos para a con-
struo de redes neurais nebulosas que herdem as capacidades de treinamento das redes neurais cls-
sicas. Alm disso, esses neurnios fornecem uma forma intuitiva para a extrao de regras nebulosas
a partir dos modelos treinados, tornando-os lingisticamente interpretveis (Figueiredo et al., 2004;
Pedrycz, 2006).
Os neurnios lgicos podem ser vistos como uma das formas mais prximas de se representar
um neurnio biolgico, pois as atividades qumicas presentes nas sinapses e sinais eltricos gerados
no axnio da clula nervosa real esto, respectivamente, associados ao processamento simblico e
numrico nos neurnios nebulosos (Rocha, 1992). Aliados mecanismos de treinamento, estes mod-
elos de neurnio possuem ainda a capacidade de simular uma importante caracterstica do neurnio
biolgico, a chamada plasticidade sinptica. Esta caracterstica faz com que um neurnio biolgico
possa alterar a inuncia de uma determinada entrada individual no processamento global.
Apesar de existirem outros modelos de neurnio alm dos neurnios lgicos que tambm sim-
ulam a plasticidade sinptica, que no jargo da inteligncia computacional chamada de ajuste de
pesos, existe uma outra caracterstica inerente aos neurnios biolgicos que pouco considerada na
formulao dos modelos de neurnios articiais propostos at o momento: a chamada plasticidade
neuronal.
A plasticidade neuronal denida como sendo a capacidade que um neurnio possui de alterar
seus mecanismos internos de processamento em resposta alteraes externas e necessidade de
1.1 Motivao e Relevncia 3
adaptao a condies mutantes e a estmulos repetidos (Kandel et al., 2000). De fato, um neurnio
biolgico pode mudar completamente suas principais caractersticas dependendo da necessidade do
ambiente. Como exemplo, pode-se citar o caso em que neurnios sensitivos passam a atuar como
neurnios motores quando estes ltimos sofrem algum tipo de leso.
Assim, a proposio de um novo modelo de neurnio articial que herdasse as caractersticas dos
neurnios nebulosos e ainda fosse capaz de simular a plasticidade neuronal poderia ser de grande
valia na construo de modelos de sistemas dinmicos mais gerais e que seriam capazes de melhor se
adaptar a um conjunto de dados de treinamento, se comparados aos modelos existentes na literatura.
neste contexto que se insere uma das propostas deste trabalho, na qual so apresentadas duas
novas classes de neurnios nebulosos em que a introduo de um parmetro adicional faz com que
estes novos neurnios possam variar entre um neurnio lgico do tipo AND at um neurnio lgico
do tipo OR de forma a melhor se adaptar s necessidades do problema a ser resolvido. A rede neural
nebulosa composta por estes novos modelos de neurnios espelha em sua estrutura um conjunto de
regras se-ento que usam diferentes conectivos em seus antecedentes. Diferentemente das abordagens
propostas at o momento, em que s possvel representar um sistema de inferncia nebuloso que
utilize apenas um tipo de conectivo nos antecedentes.
Alm da nova estrutura de rede neural nebulosa composta por essas novas classes de neurnios
nebulosos, este trabalho prope um novo processo de treinamento inspirado no paradigma do apren-
dizado participativo (Yager, 1990). Esta proposta tem por objetivo reduzir a necessidade que os
processos atuais tem de que as bases de dados utilizadas no treinamento sejam extremamente con-
veis no sentido do comportamento que se deseja aprender. Ou seja, nas abordagens atuais, toda
a informao contida na base de treinamento assimilada pelo sistema em treinamento, seja esta
informao relevante ou errnea e/ou conitante. Esta caracterstica gera, na maioria das vezes, com-
portamentos no desejados, pois informaes no relevantes so indiscriminadamente assimiladas
pelo sistema.
Desde que para se obter uma base de dados convel , provavelmente, um dos principais prob-
lemas para os mais diversos sistemas, torna-se necessrio a adoo de mtodos que dotem o sistema
de um certo discernimento a cerca do que deve ser ou no assimilado. Neste sentido, o processo
de treinamento aqui proposto pode ser visto como uma forma mais intuitiva de aprendizado, que sob
certa tica captura muitas das caractersticas do aprendizado humano. De fato, aps uma determinada
etapa de seu aprendizado, o ser humano passa a ter convices prprias e passa a no mais aceitar
qualquer tipo de informao como verdade absoluta. Intuitivamente, toda vez que uma nova infor-
mao apresentada a um ser humano, este a compara com tudo aquilo que j foi aprendido a respeito
desta nova informao e, caso esta seja muito diferente do conhecimento j adquirido, a tendncia
que a informao no seja assimilada.
4 Introduo
O paradigma do aprendizado participativo aborda justamente esta caracterstica do aprendizado
humano, fornecendo, em linhas gerais, uma forma de aprendizado em que o conhecimento que j se
tem a respeito do ambiente tambm faa parte do processo de treinamento, sendo de crucial importn-
cia na determinao do que ser ou no assimilado pelo sistema (Hell et al., 2007a).
Apesar de o aprendizado participativo apresentar claros indcios de que sua aplicao seria van-
tajosa para se melhorar tais caractersticas dos processos de treinamento existentes, at o momento
nenhum algoritmo ecaz baseado nesse paradigma havia sido proposto na literatura. Neste trabalho,
entretanto, um processo de treinamento que utiliza as idias do aprendizado participativo proposto
para uma classe de redes neurais nebulosas, gerando assim uma nova abordagem para a modelagem
nebulosa de sistemas dinmicos no-lineares.
Vale ressaltar ainda que uma das primeiras propostas deste trabalho foi o de tratar sistemas dinmi-
cos no-lineares com dinmica parcial conhecida, ou seja, onde parte da dinmica do sistema j fosse
descrita de forma analtica, em particular, na forma de equaes diferenciais. Os modelos gerados
representariam um complemento do que o modelo analtico no capaz de representar, obtendo-se
assim um modelo que se aproxima mais do sistema real. Porm, observou-se que, se um determinado
modelo capaz de representar toda a dinmica de um sistema real, superando os modelos analti-
cos parciais, e ainda possuindo interpretabilidade lingstica, este pode ser facilmente adaptado a m
de tratar dinmicas parciais. Desta forma, os modelos propostos foram desenvolvidos para tratar a
dinmica completa dos sistemas reais a serem modelados, tornando assim o trabalho mais geral.
1.2 Objetivos
O objetivo principal deste trabalho desenvolver um procedimento sistemtico para modelagem
de sistemas dinmicos complexos, aliando dois paradigmas da inteligncia computacional, redes neu-
rais e sistemas nebulosos, a m de construir modelos neuro-nebulosos capazes de tratar conhecimento
impreciso na modelagem de sistemas dinmicos no-lineares.
Duas novas abordagens so apresentadas para aplicao em problema de modelagem nebulosa.
Na primeira delas, desenvolveu-se um novo processo de treinamento para redes neurais nebulosas
baseado no paradigma do aprendizado participativo. O objetivo deste mtodo o de emular uma
das formas de aprendizado do ser humano a m de que o resultado nal do processo no seja to
fortemente inuenciado por erros ou dados conitantes presentes nos dados de treinamento.
Na segunda abordagem, duas novas classes de neurnios nebulosos so propostas com a nal-
idade de se introduzir modelos de neurnios nebulosos mais gerais dos que os apresentados at o
momento na literatura. Uma vez que estes novos neurnios apresentam uma importante caracterstica
dos neurnios biolgicos chamada plasticidade neuronal, eles so capazes de modicar seu proces-
1.3 Organizao do Trabalho 5
samento interno de acordo com a necessidade do problema a ser resolvido. Isto faz com que o
comportamento de uma rede neural nebulosa formada por estes novos tipos de neurnio possa melhor
se aderir uma base de dados, fornecendo modelos de sistemas dinmicos mais bem adaptados aos
dados.
Um resultado que pode ser associado a esta segunda abordagem diz respeito interpretao
lingstica da rede neural nebulosa composta por esses novos neurnios. As estruturas de redes neu-
rais nebulosas propostas na literatura podem ser interpretadas como sistemas de inferncia nebulosos
que utilizam apenas um tipo de conectivo no antecedente das regras nebulosas. Com esta nova abor-
dagem, o sistema de inferncia nebuloso embutido na rede neural nebulosa gerada ao nal do processo
de treinamento poder utilizar mais de um tipo de conectivo no antecedente das regras, sendo que a
escolha destes conectivos feita pelo prprio processo de treinamento, dependendo da necessidade
do problema a ser resolvido.
Por m, este trabalho tem por objetivo mostrar que as abordagens propostas so promissoras na
modelagem de sistemas dinmicos no-lineares, demonstrando experimentalmente que estas abor-
dagens superam tanto em termos de preciso quanto em termos de custo computacional todas as
abordagens alternativas testadas para o mesmo m.
1.3 Organizao do Trabalho
Neste primeiro captulo foi apresentado o contexto no qual o trabalho est inserido, seus aspectos
relevantes, os problemas que motivaram sua proposio bem como um resumo dos principais obje-
tivos e dos modelos que esto sendo propostos. Ocaptulo 2 fornece alguns fundamentos tericos com
a nalidade de facilitar a compreenso das propostas aqui apresentadas. Alm disso, apresentada
uma classicao dos modelos de sistemas dinmicos, a m de posicionar o trabalho dentre as diver-
sas abordagens existentes. No captulo 3, o novo processo de treinamento baseado no aprendizado
participativo apresentado. Propriedades relativas convergncia deste novo mtodo so discutidas
e comprovadas por meio de teoremas. Duas novas classes de neurnios nebulosos so introduzi-
das no Captulo 4. Descrevem-se tambm estruturas e mtodos de treinamento para redes neurais
nebulosas compostas por esses novos neurnios nebulosos. No captulo seguinte, todos os modelos
nebulosos propostos neste trabalho so aplicados na modelagem de sistemas dinmicos no-lineares
a m de comprovar sua eccia. Comparaes com metodologias alternativas propostas na literatura
so tambm apresentadas. O Captulo 6 conclui o trabalho, apresentando sua principais contribuies
e fornecendo sugestes para pesquisas futuras.
Captulo 2
Fundamentos Tericos
2.1 Introduo
Este captulo tem por objetivo apresentar os principais fundamentos tericos que serviram de
base para as tcnicas e algoritmos desenvolvidos neste trabalho. Dentre estes, fundamentos pode-se
ressaltar as formas clssicas mais usadas para representar sistemas dinmicos lineares e no-lineares,
as principais maneiras existentes para se determinar os modelos com seus parmetros e estruturas e
as principais caractersticas de alguns mtodos de identicao de sistemas dinmicos.
Outro tpico abordado neste captulo se refere aos mtodos alternativos de se representar sistemas
dinmicos, em especial voltados teoria de conjuntos nebulosos, redes neurais nebulosas bem como
paradigmas de aprendizado aplicados a tais sistemas.
2.2 Modelagem Matemtica
Modelos matemticos so representaes analticas que tm o propsito de aproximar as carac-
tersticas observadas de um dado sistema real. Alguns dos objetivos para se construir um modelo
so aumentar o conhecimento sobre um sistema, projetar um controlador, simular cenrios ou re-
alizar predies sobre o comportamento de um sistema. Aplicaes diversas requerem modelos em
formatos diferenciados. Modelos fsicos, como uma maquete, so teis na visualizao de como os
componentes fsicos do sistema interagem entre si. Grcos so outras formas de modelos: eles po-
dem apresentar relaes de causa e efeito de maneira concisa e intuitiva. Porm, o tipo de modelo
mais comum em engenharia o modelo matemtico. Modelos matemticos podem ser obtidos por
mtodos que vo desde a anlise das leis fsicas que se aplicam ao sistema at uma abordagem pu-
ramente numrica, baseada em um conjunto de dados experimentais. A escolha do tipo do modelo
depende do propsito denido para o mesmo e do tipo e quantidade de informao disponvel sobre
7
8 Fundamentos Tericos
o sistema.
No contexto deste trabalho, um modelo entendido como uma representao de um sistema
dinmico. Como ser visto na seqncia, um modelo pode ser denido ou classicado de diversas
outras formas alm da matemtica. A prxima seo apresenta de forma resumida uma classicao
de modelos matemticos.
2.2.1 Classicaes de um Modelo Matemtico
Muitas so as classicaes para modelos matemticos, no existindo um padro unanimente
aceito (Dorf & Bishop, 1998). Nesta seo, sero descritas apenas as classicaes mais relevantes
para este trabalho. Para tanto, considere a seguinte expresso:
y = f(u) (2.1)
onde u representa a entrada do modelo, y sua sada e f() a funo que descreve o comportamento
do sistema. Geralmente, as entradas e sadas de um sistema so denotadas por u
1
(t), u
2
(t), . . . , u
n
(t)
e y
1
(t), y
2
(t), ..., y
m
(t), respectivamente. No domnio do tempo discreto, utiliza-se normalmente o
ndice k (como u(k) e y(k)).
Assim sendo, primeiramente pode-se distinguir um modelo matemtico quanto forma com que
se relacionam as entradas e sada do modelo. Neste contexto, o modelo pode ser classicado como
Linear ou No-Linear. Um modelo linear aquele que atende ao princpio da sobreposio de efeitos,
isto , se y
1
(t) = f(u
1
(t)) e y
2
(t) = f(u
2
(t)) ento uma entrada do tipo au
1
(t) + bu
2
(t) produzir
uma sada da forma ay
1
(t) + by
2
(t), onde a e b so constantes. Qualquer relao ou modelo que no
satisfaa essa condio no-linear.
A importncia da linearidade em um modelo reside nas simplicaes obtidas na sua anlise.
Alm disso, possvel em um modelo linear isolar os efeitos das variveis de entrada e estud-las
separadamente. No entanto, a maioria dos sistemas reais no-linear, caso no sejam feitas restries
quanto aos valores de suas entradas. Aanlise emdeterminadas faixas de operao pode vir a fornecer
certo grau de linearidade ao modelo. Porm, dependendo da aplicao, a considerao da natureza
no-linear do sistema pode ser essencial nas tarefas realizadas, no podendo ser descartada do modelo.
Os modelos de interesse nesse trabalho so no-lineares.
Uma segunda forma de classicar modelos baseada na caracterstica da varivel independente
temporal. Um modelo contnuo aquele no qual as variveis so contnuas no tempo, ou seja,
possvel acompanhar o sistema (e nele atuar) em qualquer instante de tempo. No caso de sistemas
dinmicos, esses modelos so geralmente descritos por equaes diferenciais. Em contrapartida, os
modelos discretos so aqueles nos quais as variveis do sistema evoluem em instantes especcos do
2.2 Modelagem Matemtica 9
tempo, agora discretizado. Os instantes de tempo nos quais as variveis podem, por exemplo, alterar
seus valores correspondem ao momento no qual alguma amostragem realizada ou a memria de um
computador lida. Modelos discretos so representados por equaes a diferenas. Em engenharia,
o fator mais sugestivo para o uso de modelos discretos a disponibilidade de um computador digital
para processamento de dados. Os modelos abordados neste trabalho so discretos.
Finalmente, algumas vezes h incerteza de natureza probabilstica no valor de algum parmetro do
modelo. Se essa incerteza for signicativa, um modelo estocstico deve ser usado. Nesse modelo, al-
gumas variveis so descritas em termos de uma funo de distribuio de probabilidade, envolvendo,
por exemplo, suas mdias e varincias. Os modelos determinsticos, por outro lado, no representam
possveis aleatoriedades presentes no sistema real. Assim, a sada em um dado instante para um
modelo determinstico completamente denida pelos parmetros do modelo e por suas entradas.
A caracterstica de determinismo est presente nos modelos desenvolvidos no presente trabalho, os
quais contemplam apenas incertezas de natureza nebulosa.
Almdestas caractersticas principais, pode-se ainda classicar ummodelo como sendo a parmet-
ros distribudos ou concentrados, variante ou invariante no tempo, autnomo ou no autnomo e no-
paramtrico ou paramtrico. Os modelos propostos neste trabalho so caracterizados, em todos os
pares anteriores, pelas segundas propriedades.
2.2.2 Abordagens Baseadas em Inteligncia Computacional
O uso de tcnicas de inteligncia computacional (IC) na modelagem de sistemas dinmicos, em
especial para sistemas no-lineares, vem sendo largamente difundido na literatura nos ltimos anos.
Este interesse motivado principalmente pelas caractersticas destas tcnicas que, permitem a con-
struo de modelos que so aproximadores universais de funes. De fato, dependendo da tcnica
utilizada, possvel aproximar com preciso arbitrria qualquer funo no-linear contnua denida
em uma regio compacta (limitada e fechada) (Cybenko, 1989; Wang, 1998) tomando-se como base
tanto informaes quantitativas quanto qualitativas.
Dentre as tcnicas de IC utilizadas na modelagem de sistemas dinmicos, pode-se ressaltar as
redes neurais articiais (RNAs), a teoria de conjuntos nebulosos (fuzzy) e suas combinaes.
O conceito de RNAs foi introduzido por McCulloch e Pitts em 1943 (McCulloch & Pitts, 1943), e
propunha uma simplicao do que se sabia a respeito do neurnio biolgico naquela poca. Porm,
s em 1958 foi introduzido o conceito de redes neurais (Rosenblatt, 1958). O modelo proposto por
Rosenblatt, conhecido como multilayer perceptron (MLP), era composto por uma estrutura de rede
em camadas tendo como unidades bsicas neurnios articiais do tipo McCulloch e Pitts e uma regra
de aprendizado. Hoje em dia algoritmos especiais de treinamento so usados no treinamento de redes
neurais MLP. O mais conhecido destes algoritmos o algoritmo de retropropagao, conhecido como
10 Fundamentos Tericos
algoritmo backpropagation, que se baseia no conceito do gradiente descendente (Haykin, 1998).
A capacidade de representao das redes neurais est relacionada sua arquitetura. As redes MLP
de uma camada resolvem apenas problemas linearmente separveis. Para problemas no-linearmente
separveis, deve-se usar redes com uma ou mais camadas intermedirias. Com uma camada inter-
mediria uma rede neural pode implementar qualquer funo contnua em um domnio compacto
(Cybenko, 1989).
No contexto de modelagem de sistemas dinmicos, j foram estudadas diversas arquiteturas para
redes neurais. Em particular, possvel estender os modelos FIR, ARX e ARMAX para os modelos
NNFIR, NNARX e NNARMAX, sendo NN o acrnimo em ingls para rede neural (neural network).
Esses modelos traduzem o fato de as entradas da rede neural serem compostas pelos termos regres-
sores dos respectivos modelos lineares (Norgaard et al., 2000).
A teoria de conjuntos nebulosos outra tcnica de inteligncia computacional que pode ser apli-
cada na modelagem de sistemas dinmicos. Uma srie de arquiteturas baseadas nesta teoria j foram
demonstradas como aproximadores universais (Gomide & Pedrycz, 2007; Wang, 1998). Isto signica
que so capazes de aproximar qualquer funo contnua emumdomnio compacto comqualquer nvel
de preciso desejado.
Alm da propriedade de aproximao universal dos modelos nebulosos, estes ainda adicionam
uma nova dimenso informao contida no modelo. Trata-se da dimenso lingstica, que fornece
descries intuitivas sobre o comportamento do sistema modelado (Espinosa et al., 2004). Isto faz
com que modelos nebulosos possam tratar tanto informaes de natureza quantitativa como qualita-
tiva, podendo a modelagem ser feita por meio de informaes obtidas a partir do conhecimento que
se tem a respeito do sistema e/ou de informaes extradas diretamente dos dados do processo.
Os modelos nebulosos podem ser divididos em trs classes principais (Babuska & Verbruggen,
1996):
Modelos Nebulosos Lingsticos;
Modelos Nebulosos Relacionais;
Modelos Nebulosos Funcionais.
Os modelos nebulosos lingsticos so aqueles que utilizam uma base de regras se-ento e um
mtodo de inferncia para relacionar entradas e sadas. Este modelo denominado lingstico por
fazer uso direto da representao lingstica das regras (Babuska & Verbruggen, 1996; Ljung, 1999).
Por sua vez, os modelos nebulosos relacionais, como o prprio nome j diz, representam o mapea-
mento entre os conjuntos nebulosos de entrada e sada pelas relaes nebulosas (Gomide & Pedrycz,
2007). E por m, os modelos nebulosos funcionais (Takagi-Sugeno) so modelos com termos lings-
ticos no antecedente e uma funo das entradas no conseqente de uma regra nebulosa.
2.3 Conceitos de Teoria de Conjuntos Nebulosos 11
Ambas as tcnicas de IC mencionadas at o momento possuem vantagens e desvantagens na
modelagem de sistemas dinmicos. De um lado, as RNAs falham em representar o conhecimento
de forma explcita e no tratamento de informao imprecisa, porm apresentam caractersticas de
aprendizado. Por outro lado, os sistemas nebulosos baseados em regras se-ento so limitados no que
diz respeito aquisio automtica de conhecimento, porm valem-se de suas caractersticas para o
tratamento e manipulao de termos lingsticos e de informao imprecisa.
A partir desta constatao, observou-se que redes neurais e sistemas nebulosos poderiam ser
unicados pois, alm destas abordagens exibirem caractersticas comuns, cada uma apresenta pro-
priedades exclusivas que contribuem para compensar as decincias individuais da outra (Kosko,
1991). O resultado desta simbiose pode ser vericado em duas grandes classes de modelos: os sis-
temas neuro-nebulosos e as redes neurais nebulosas (Lin & Lee, 1996).
Os sistemas neuro-nebulosos so aqueles em que a habilidade de aprendizado das RNAs em-
pregada no ajuste dos parmetros de um sistema de inferncia nebuloso. Um exemplo clssico desta
classe de modelos o sistema de inferncia neuro-adaptativa, ou ANFIS
1
, proposto por Jang em 1993
(Jang, 1993). Nele, um algoritmo baseado no gradiente descendente, similar ao backpropagation
usado para ajustar a forma das funes de pertinncia dos conjuntos nebulosos que granularizam o
espao de entrada, bem como o ajuste das funes de sada de um modelo nebuloso funcional do tipo
Takagi-Sugeno.
J nas redes neurais nebulosas, utiliza-se a estrutura de uma RNA, onde os neurnios articiais
clssicos so substitudos por neurnios nebulosos (Pedrycz, 1993). Estes neurnios so implementa-
dos por meio de normas e co-normas triangulares, que generalizam as operaes de unio e interseo
de conjuntos clssicos para a teoria de conjuntos nebulosos. Assim, a rede neural passa a ser vista
como um sistema lingstico, preservando a capacidade de aprendizado da RNA. Exemplos destas
redes podem ser encontradas em (Figueiredo et al., 2004) e (Lin & Lee, 1996).
Em particular, os modelos desenvolvidos neste trabalho se encaixam neste ltimo grupo, o das
redes neurais nebulosas. Assim sendo, para apresentarmos as estruturas e algoritmos desenvolvi-
dos neste trabalho, necessrio apresentar alguns conceitos sobre teoria de conjuntos nebulosos e
sistemas nebulosos. Esta tarefa ca a cargo das prximas sees.
2.3 Conceitos de Teoria de Conjuntos Nebulosos
Conforme mencionado anteriormente, com a nalidade de melhor compreender os algoritmos e
estruturas propostas neste trabalho, necessrio apresentar alguns conceitos sobre conjuntos nebu-
losos e teoria de sistemas nebulosos, conforme ser feito a seguir.
1
do ingls Adaptative NeuroFuzzy Inference System
12 Fundamentos Tericos
2.3.1 Conjuntos Nebulosos
Anoo de conjunto nebuloso foi introduzida por Lot Zadeh emmeados da dcada de 60 (Zadeh,
1965). Intuitivamente, um conjunto nebuloso um conjunto cujos limites no so bem denidos, ou
seja, um conjunto onde a transio entre pertencer e no pertencer ao conjunto gradual ao invs de
abrupta. Mais precisamente, um conjunto nebuloso F em um universo de discurso X caracterizado
por uma funo de pertinncia F, que associa a cada elemento x X um grau F(x) [0, 1].
Vale ressaltar que um conjunto clssico A em X um caso particular de um conjunto nebuloso,
onde os graus de associao (ou graus de pertinncia) so:
A(x) =
_
0 se x / A
1 se x A
.
No caso de conjuntos clssicos, A(x) a funo caracterstica de A. Assim sendo, um conjunto
nebuloso pode ser formalmente denido como se segue.
Denio 2.1 (Conjunto nebuloso) Seja X um universo de discurso, ou seja, uma coleo discreta
ou contnua de objetos x. Um conjunto nebuloso F em X um conjunto de pares ordenados da
forma:
F = (x, F(x))[x X (2.2)
onde F(x) o grau de pertinncia do elemento x no conjunto nebuloso F e F mapeia um elemento
x de X no intervalo [0, 1], isto , F : X [0, 1].
F(x) a funo de pertinncia de F. Note que funes de pertinncia para conjuntos nebu-
losos generalizam a idia de funes caractersticas para conjuntos clssicos. Se o universo X =
x
1
, x
2
, . . . , x
n
nito, ento F pode ser representada por um vetor n-dimensional F = (f
1
, f
2
, . . . ,
. . . , f
n
), com f
i
= F(x
i
). A Figura 2.1 fornece um exemplo de um conjunto nebuloso no qual a
funo de pertinncia captura o conceito de um nmero inteiro prximo a 55. Neste exemplo o con-
junto nebuloso F modela a noo linguisticamente expressa de uma quantidade inteira prxima de
55 em um universo nito de nmeros inteiros X = 15,25,...,85,95. Assim n = 9, F = {(15,0),
(25,0.0111), (35,0.1353), (45,0.6065), (55,1.0), (65,0.6065), (75,0.1353), (85,0.0111), (95,0)} e, us-
ando a notao vetorial equivalente, F expresso por F=(0, 0.0111, 0.1353, 0.6065, 1.0, 0.6065,
0.1353, 0.0111, 0).
2.3.2 Normas Triangulares
Norma triangulares (t-normas) e co-normas triangulares (t-conormas ou s-normas) so operaes
que generalizam a interseo e unio para a teoria de conjuntos nebulosos. Na teoria de conjuntos
2.3 Conceitos de Teoria de Conjuntos Nebulosos 13
X
F(x)
10 15 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90 95 100
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
Figura 2.1: Conjunto nebuloso F em um universo de discurso X
clssicos, a interseo e a unio so executadas, em termos de suas funes caractersticas, utilizando-
se os operadores min e max, respectivamente. Estas normas tambm fornecem um modelo opera-
cional para os conectivos lgicos E (and) e OU (or) na lgica proposicional clssica.
Normas triangulares extendem as operaes padro de conjuntos clssicos para conjuntos nebu-
losos, e so denidas da seguinte forma:
Denio 2.2 (t-norma) Uma norma triangular uma operao binria t no intervalo [0, 1] que
comutativa, associativa, monotnica e que apresenta 1 como elemento neutro, ou seja, uma funo
t : [0, 1] [0, 1] [0, 1] tal que, para todo x, y, z [0, 1]:
1. x t y = y t x (comutatividade) ,
2. x t (y t z) = (x t y) t z (associatividade),
3. x t y x t z quando y z (monotonicidade),
4. x t 1 = x (elemento neutro 1).
Uma notao alternativa para t-normas dada por T(x, y) = xty.
Denio 2.3 (s-norma) Uma co-norma triangular (ou s-norma) uma operao binria s no in-
tervalo [0, 1] que comutativa, associativa, monotnica e que apresenta 0 como elemento neutro, ou
seja, uma funo s : [0, 1] [0, 1] [0, 1] tal que para todo x, y, z [0, 1]:
1. x s y = y s x (comutatividade) ,
2. x s (y s z) = (x s y) s z (associatividade),
3. x s y x s z quando y z (monotonicidade),
14 Fundamentos Tericos
4. x s 0 = x (elemento neutro 0).
Uma notao alternativa para s-normas dada por S(x, y) = xsy. Diversos exemplos de t-normas
e s-normas podem ser encontrados em (Gomide & Pedrycz, 2007).
2.3.3 Uninormas e Nullnormas
Uninormas e nullnormas representam uma forma de generalizar t-normas e s-normas, relaxando
as restries relacionadas seus elementos neutros, ou seja, ao invs do elemento neutro ser restrito a
1 (t-norma) ou 0 (s-norma), permite-se que este elemento assuma qualquer valor no intervalo unitrio.
Para enfatizar esta caracterstica, o elemento neutro passa a ser chamado de elemento identidade para
as uninormas e de elemento de absoro para as nullnormas. Formalmente, uninormas e nullnormas
podem ser denidas da seguinte forma (Calvo et al., 2001):
Denio 2.4 (Uninorma) Uma uninorma um operador binrio U : [0, 1] [0, 1] [0, 1] que
satisfaz as seguintes propriedades:
Comutatividade U(x, y; g) = U(y, x; g)
Monotonicidade U(x, y; g) U(z, v; g) para x > z e y > v
Associatividade U(x, U(y, z; g); g) = U(U(x, y; g), z; g)
Elemento Neutro algum g [0, 1] tal que U(x, g; g) = x x [0, 1]
Note que uma uninorma , de fato, uma generalizao dos conceitos de t-normas e s-normas.
Conforme mencionado anteriormente, uma uninorma difere das t-normas e s-normas apenas no que
diz respeito ao elemento neutro. Para t-normas e s-normas, tem-se valores xos para os elementos
neutros, enquanto, para as uninormas, este valor pode ser escolhido no intervalo [0, 1]. Desta forma,
a caracterstica de uma uninorma pode variar suavemente de um and puro para um or puro quando o
elemento identidade varia de 1 para 0. Obviamente, para o caso em que g = 1 a uninorma U uma
t-norma enquanto que para o caso em que g = 0 a uninorma U uma s-norma.
Na literatura, possvel encontrar uma grande variedade de realizaes de uninormas (Yager &
Rybalov, 1996; Yager, 2001). Uma das realizaes mais usadas est vinculada seguinte famlia de
construtores:
U(x, y; g) =

g T
_
x
g
,
y
g
_
, se x, y [0, g]
g + (1 g) S
_
xg
1g
,
yg
1g
_
, se x, y [g, 1]
min(x, y) ou max(x, y), caso contrrio.
(2.3)
2.3 Conceitos de Teoria de Conjuntos Nebulosos 15
onde t e s so normas triangulares. Esta construo no requer nenhum tipo de dualidade entre as t-
normas e s-normas especcas. A Figura 2.2 mostra uma representao grca para as duas variaes
fundamentais da uninorma apresentada em (2.3), baseadas nos operadores max e min.
x x
y y
0 0
1
1
1
1
g
g
g
g
(a) (b)

min
min
max
max
t-norma t-norma
s-norma s-norma
and
or
dominncia
dominncia
Figura 2.2: Realizaes alternativas de uma uninorma: (a) and-dominada, (b) or-dominada
possvel vericar em (2.3) que realizaes especcas por meio da escolha dos operadores
mximo e mnimo fornecem um certo tipo de exibilidade para as regies intermedirias (denotadas
por na Figura 2.2). Conforme discutido em (Pedrycz, 2006), a unimorma U pode ser and-dominada
se for escolhido o operador mnimo (maior das t-normas) para as regies intermedirias , ou ento
or-dominada, caso seja escolhido o operador mximo (menor das s-normas) para estas regies.
Denio 2.5 (Nullnorma) Uma nullnorma um operador binrio N : [0, 1] [0, 1] [0, 1] que
comutativo, monotnico, associativo, e tal que existe um elemento u [0, 1] chamado elemento de
absoro, que satisfaz N(u, x; u) = u, para todo x [0, 1] e tambm:
_
N(0, x; u) = x, x u
N(1, x; u) = x, x u
Da mesma forma que para as uninormas, o elemento de absoro u correspondente a uma null-
norma N nico. Note que uma nullnorma tambm uma generalizao de t-normas e s-normas,
pois, por denio, quando u = 0 a funo N uma t-norma, enquanto que u = 1 faz de N uma
s-norma.
Uma realizao especca de nullnorma apresentada em(Calvo et al., 2001), e pode ser traduzida
na seguinte famlia de construtores:
N(x, y; u) =

u S
_
x
u
,
y
u
_
, se x, y [0, u]
u + (1 u) T
_
xu
1u
,
yu
1u
_
, se x, y [u, 1]
u, caso contrrio.
(2.4)
Note que (2.4) apresenta grande similaridade com (2.3) e tambm no requer nenhum tipo de
relao de dualidade entre as t-normas e s-normas usadas nesta construo.
16 Fundamentos Tericos
2.3.4 Operador de Compromisso
Alguns dos temas deste trabalho empregam em seu desenvolvimento o conceito de Operador de
Compromisso. Este conceito denido da seguinte forma (Klement et al., 2000):
Denio 2.6 (Operador de Compromisso) Uma funo

C
u
: [0, 1] [0, 1] dada por

C
u
(a) = (1 u)C(a) + uC(C(a))
= (1 u)C(a) + ua
(2.5)
chamada de operador de compromisso, onde u [0, 1] e

C
0
(a) = C(a) = 1 a.
Note que

C
1u
(a) =

C
u
(1 a) = 1

C
u
(a) e

C
u
(a) =

C(a) para u = 0
1
2
para u =
1
2
a para u = 1
(2.6)
A funo

C uma negao forte para u = 0 (Gomide & Pedrycz, 2007).
2.3.5 Relaes Nebulosas
Uma relao nebulosa Rexpande a noo de conjuntos nebulosos para umuniverso multi-dimensi-
onal e representa a noo de associao parcial entre os elementos dos universos. Por exemplo, um
grau de pertinncia R(x, y) representa o grau de associao entre o elemento x X e y Y (Go-
mide & Pedrycz, 2007). Formalmente, para um universo bidimensional, uma relao nebulosa pode
ser denida da seguinte forma:
Denio 2.7 (Relao Nebulosa) Sejam X e Y dois universos. Uma relao nebulosa R um
subconjunto nebuloso do produto cartesiano X Y
R : X Y [0, 1]
onde x X, y Y e R(x, y) o grau com que (x, y) so compatveis com a relao R.
Para exemplicar o conceito de relao nebulosa, considere d
fs
, d
nf
, d
ns
, d
gf
como sendo artigos
cientcos cujo assunto principal so sistemas nebulosos, sistemas neuro-nebulosos, sistemas neurais
e algoritmos genticos, com palavras-chave w
f
, w
n
e w
g
, respectivamente. Assim sendo, a relao R
2.3 Conceitos de Teoria de Conjuntos Nebulosos 17
em D W, D = d
fs
, d
nf
, d
ns
, d
gf
e W = w
f
, w
n
, w
g
pode, por exemplo, assumir a seguinte
forma matricial:
R =

1 0 0.6
0.8 1 0
0 1 0
0.8 0 1

Uma vez que os universos D and W so nitos e discretos, R pode ser representada por uma matriz
43 (4 artigos e 3 palavras-chave). Neste exemplo R(d
fs
, w
f
) = 1 signica que o contedo do artigo
d
fs
totalmente compatvel coma palavra-chave w
f
enquanto que R(d
fs
, w
n
) = 0 e R(d
fs
, w
g
) = 0.6
indicam que o artigo d
fs
no trata de sistemas neurais, mas parte de seu contedo est relacionado
com algoritmos genticos.
Relaes entre variveis podem ser denidas usando regras nebulosas na forma:
SE x
1
F
1
E x
2
F
2
E . . . E x
n
F
n
ENTO, z Z

. (2.7)
Regras nebulosas denem uma relao entre antecedentes (x
1
, x
2
, . . ., x
n
) e conseqentes (z) em
termos dos conjuntos nebulosos F
1
, F
2
, . . ., F
n
e Z

. Uma regra nebulosa (2.7) um exemplo de


relao nebulosa da forma R : F
1
F
2
. . . F
n
Z

[0, 1], onde R(x


1
,x
2
,...,z) representa o
grau de associao entre as variveis antecedentes e conseqentes.
2.3.6 Composio de Relaes Nebulosas
Relaes nebulosas podem ser compostas usando-se de diferentes operadores da teoria de conjun-
tos. De fato, diferentes famlias de operadores podem ser utilizados para compor relaes nebulosas,
dependendo da escolha de algumas t-normas e s-normas especcas.
Os dois mais importantes tipos de composio de relaes nebulosas so as composies do tipo
sup-t e inf-s. Para denir estes dois tipos de composio, considere X,Y e Z como universos distintos.
Assim sendo, pode-se apresentar as seguintes denies:
Denio 2.8 (Composio sup-t) A composio sup-t das relaes nebulosas G : X Z [0, 1]
e W : ZY [0, 1] uma relao nebulosa R : XY [0, 1] cuja funo de pertinncia R(x, y)
dada por:
R(x, y) = sup
zZ
G(x, z) t W(z, y) x X e y Y (2.8)
onde t uma t-norma. A composio sup-t de G e W denotada simbolicamente por R = G W.
Como exemplo, considere as relaes nebulosas G e W dadas pelas matrizes relacionais (3 4)
18 Fundamentos Tericos
e (4 2) apresentadas a seguir:
G =

1.0 0.6 0.5 0.5


0.6 0.8 1.0 0.2
0.8 0.3 0.4 0.3

W =

0.6 0.1
0.5 0.7
0.7 0.8
0.3 0.6

(2.9)
Neste caso, como se trata de universos nitos, o procedimento de se obter a composio das
relaes nebulosas G e W similar ao processo de multiplicao de matrizes, apenas substituindo-se
o somatrio pela funo mximo (uma vez que os universos so nitos, encontrar o mximo signica
tambm encontrar o supremo) e o produto algbrico pela t-norma correspondente. Tambm de forma
similar multiplicao de matrizes, a composio denida apenas quando o nmero de colunas da
primeira relao nebulosa o mesmo que o nmero de linhas da segunda relao. Assim, se G uma
relao mn e W uma relao np, a composio destas duas relaes R ser uma relao mp.
Por exemplo, tomando-se (2.8) e escolhendo o mnimo como t-norma, a composio sup-min
R = G W, R = [r
ij
] calculada da seguinte forma:
r
11
= sup(1.0 t 0.6, 0.6 t 0.5, 0.5 t 0.7, 0.5 t 0.3) = 0.6
r
21
= sup(0.6 t 0.6, 0.8 t 0.5, 1.0 t 0.7, 0.2 t 0.3) = 0.7
. . .
r
32
= sup(0.1 t 0.8, 0.3 t 0.7, 0.4 t 0.8, 0.3 t 0.6) = 0.4
R =

0.6 0.6
0.7 0.8
0.6 0.4

Denio 2.9 (Composio inf-s) A composio inf-s das relaes nebulosas G : X Z [0, 1] e
W : Z Y [0, 1] uma relao nebulosa R : X Y [0, 1] cuja funo de pertinncia R(x, y)
dada por:
R(x, y) = inf
zZ
G(x, z) s W(z, y) x X and y Y (2.10)
onde s uma s-norma. A composio inf-s de G e W denotada simbolicamente por R = G W.
O procedimento para se obter a composio inf-s o mesmo daquele utilizado para a composio
sup-t, substituindo-se o supremo pelo nmo e a t-norma por uma s-norma. Assim sendo, usando-se
(2.10) e escolhendo-se o mximo como s-norma, a composio inf-s R = G W, R = [r
ij
] para as
2.3 Conceitos de Teoria de Conjuntos Nebulosos 19
reles G e W denidas em (2.9) obtida da seguinte forma:
r
11
= inf(1.0 s 0.6, 0.6 s 0.5, 0.5 s 0.7, 0.5 s 0.3) = 0.5
r
21
= inf(0.6 s 0.6, 0.8 s 0.5, 1.0 s 0.7, 0.2 s 0.3) = 0.3
. . .
r
32
= inf(0.1 s 0.8, 0.3 s 0.7, 0.4 s 0.8, 0.3 s 0.6) = 0.6
R =

0.5 0.6
0.3 0.6
0.3 0.6

2.3.7 Equaes Relacionais Nebulosas


Equaes relacionais nebulosas esto relacionadas com a noo de composio nebulosa. De
fato, uma relao nebulosa R em X Y pode ser vista como um modelo de um sistema nebuloso
cuja entrada um conjunto nebuloso F em X e cuja sada um outro conjunto nebuloso H em Y
(Figura 2.3). A relao nebulosa R descreve a relao de dependncia entre as entradas e sadas do
sistema (Gomide & Pedrycz, 2007).
Figura 2.3: Sistema relacional nebuloso de uma entrada - uma sada
Considere o seguinte modelo relacional nebuloso:
H = F R (2.11)
onde o operador representa ou uma composio sup-t ou uma composio inf-s. Para uma dada
entrada F e uma relao R, a sada H encontrada utilizando-se a denio da composio escolhida.
Neste ponto, dois problemas fundamentais podem ser levantados com relao s equaes relacionais
nebulosas:
P1. Dados F e H, determine R (Problema de Estimao);
P2. Dados H e R, determine F (Problema Inverso);
Aqui ser abordada apenas a soluo para o problema de estimao, pois somente ele ser uti-
lizado na construo dos algoritmos que fazem parte deste trabalho. Para a soluo do problema
inverso ver (Gomide & Pedrycz, 2007).
20 Fundamentos Tericos
2.3.8 Soluo do Problema de Estimao (SPE)
Antes de introduzir a soluo para o problema de estimao, necessrio primeiro vericar a
existncia de soluo (ou solues), uma vez que, para alguns casos, este problema pode no ter
soluo.
Acondio de existncia de soluo para o problema de estimao depende do tipo de composio
escolhido. A seguir, so apresentadas as condies e as solues para os dois tipos de composio
discutidos anteriormente: sup-t e inf-s.
SPE para equaes relacionais com composio sup-t
Especicamente falando, o conjunto nebuloso de sada H de uma equao relacional nebulosa
com composio sup-t H = F R calculado da seguinte forma:
H(y) = sup
xX
F(x) t R(x, y) (2.12)
Uma condio para a existncia de uma soluo para a equao relacional apresentada em (2.12)
dada pelo seguinte Teorema (Lin & Lee, 1996):
Teorema 2.1 O Problema de Estimao (P1) para equaes relacionais com composio do tipo
sup-t possui soluo (ou solues) se e somente se a altura
2
do conjunto nebuloso F for maior ou
igual altura do conjunto nebuloso H, isto :
sup
xX
F(x) H(y) para todo y Y (2.13)
Demonstrao: Se a expresso (2.13) no for vlida, tem-se que:
sup
xX
F(x) < H(y) para algum y Y (2.14)
possvel vericar que, se a expresso (2.14) for verdadeira, torna-se claramente impossvel
obter uma soluo para a equao relacional em (2.12). Uma vez que no existe soluo para a
equao relacional (2.12), o problema P1 tambm infactvel.
Por outro lado, assuma que a expresso (2.13) vlida. Considere x

X como sendo o elemento


para o qual F(x

) mximo, isto , F(x

) = sup
xX
F(x). Se os valores de pertinncia da matriz
relacional R forem denidos de tal forma que R(x

, y) = H(y) y Y e R(x, y) = 0 x X
2
A Altura h de um conjunto nebuloso F corresponde ao seu maior grau de pertinncia, entre todos os elementos do
conjunto, isto , h(F) = sup
xX
F(x).
2.3 Conceitos de Teoria de Conjuntos Nebulosos 21
e x ,= x

e y Y , ento a matriz R claramente satisfaz a equao (2.13). fcil vericar


que R tambm uma soluo para o problema de estimao e pode-se concluir que existe soluo
(solues) para P1 se e somente se a condio (2.13) vlida.
Para encontrar a soluo do problema P1 para equaes relacionais com composio sup-t
necessrio primeiramente introduzir o operador . Este operador uma funo : [0, 1] [0, 1]
denida da seguinte forma:
a b = supc [0, 1] [ a t c b (2.15)
Assim sendo, a soluo maximal

R para o problema de estimao P1 relacionado equaes
relacionais nebulosas do tipo H = F R, se existe, dada por:

R = F

R(x, y) = F(x) H(y)


(2.16)
onde F

denota a transposta de F.
Como exemplo, considere F = (0.3, 0.8, 0.5) e H = (0.6, 0.3) como sendo dois conjuntos nebu-
losos discretos. possvel vericar que sup
xX
F(x) = 0.8 H(y) y Y e, portanto, existe SPE.
Assumindo uma composio sup-min (mnimo como t-norma) e usando (2.16), a relao

R = [ r
ij
],
tal que H = F

R, calculada como se segue.
r
11
= f
1
h
1
= sup (c [0, 1][ min(0.3, c) 0.6) = 1.0
r
21
= f
2
h
1
= sup (c [0, 1][ min(0.8, c) 0.6) = 0.6
. . .
r
32
= f
3
h
2
= sup (c [0, 1][ min(0.5, c) 0.3) = 0.3

R =

1.0 1.0
0.6 0.3
1.0 0.3

fcil vericar que a composio sup-t F



R tem como resultado o conjunto nebuloso H.
Este resultado ser utilizado mais adiante, na construo do algoritmo de treinamento baseado no
aprendizado participativo, proposto neste trabalho.
SPE para equaes relacionais com composio inf-s
Em uma equao relacional nebulosa com composio inf-s H = F R, o conjunto nebuloso de
sada H calculado da seguinte forma:
22 Fundamentos Tericos
H(y) = inf
xX
F(x) s R(x, y) (2.17)
Analogamente ao apresentado para as equaes relacionais nebulosas com composio sup-t,
preciso vericar a existncia de SPE para o caso de equaes relacionais com composio inf-s. Para
isso, considere o seguinte teorema:
Teorema 2.2 O Problema de Estimao (P1) para equaes relacionais com composio do tipo
inf-s possui soluo (ou solues) se e somente se o menor valor de pertinncia do conjunto nebuloso
F for menor ou igual ao menor valor de pertinncia do conjunto nebuloso H, isto :
inf
xX
F(x) H(y) para todo y Y (2.18)
Demonstrao: A demonstrao deste teorema similar quela apresentada no Teorema 2.1.
Da mesma forma que o apresentado para equaes relacionais comcomposio sup-t, necessrio
introduzir um operador para se encontrar a soluo do problema P1 para equaes relacionais com
composio inf-s. Desta forma, considere agora funo : [0, 1] [0, 1] denida da seguinte
forma:
a b = infc [0, 1] [ a s c b (2.19)
Ento, a soluo minimal

R para o problema de estimao P1 associado equaes relacionais
nebulosas do tipo H = F R, se existe, dada por:

R = F

R(x, y) = F(x) H(y)


. (2.20)
Mais uma vez, considere o exemplo em que F = (0.3, 0.8, 0.5) e H = (0.6, 0.3). Aqui, a
existncia de soluo tambm pode ser vericada, pois tem-se que inf
xX
F(x) = 0.3 H(y) y
Y . Assim, escolhendo-se o mximo como s-norma e usando a equao (2.20), tem-se que a relao

R = [ r
ij
] tal que H = F

R pode ser calculada da seguinte forma:
r
11
= f
1
h
1
= inf (c [0, 1][ max(0.3, c) 0.6) = 0.6
r
21
= f
2
h
1
= inf (c [0, 1][ max(0.8, c) 0.6) = 0
. . .
r
32
= f
3
h
2
= inf (c [0, 1][ max(0.5, c) 0.3) = 0
2.4 Neurnios e Redes Neurais Nebulosas 23

R =

0.6 0
0 0
0.6 0

possvel vericar que a composio F



R tem como resultado exatamente o conjunto nebuloso
H. Vale ressaltar que, tanto para composies inf-s quanto para composies sup-t, as equaes aqui
apresentadas fornecem apenas as solues minimais e maximais, respectivamente, e, portanto, no
garantem unicidade da soluo. Para exemplicar este fato, considere a seguinte matriz relacional:

R =

0.6 0.3
1.0 1.0
0.6 1.0

Calculando-se a composio F

R, tambm obtm-se o conjunto nebuloso H. Portanto, uma
vez encontrada a soluo atravs das equaes (2.16) e (2.20) ainda possvel fazer uso de outras
tcnicas de forma a se obter uma soluo mais adequada ao que se deseja, caso esta exista. Este
resultado tambm ser empregado mais adiante na formulao do algoritmo de treinamento proposto
neste trabalho.
2.4 Neurnios e Redes Neurais Nebulosas
Conforme mencionado anteriormente, a integrao entre redes neurais e teoria de conjuntos nebu-
losos atrativa na modelagem de sistemas dinmicos. Em particular, redes neurais nebulosas herdam
as caractersticas computacionais das redes neurais, suas arquiteturas e seus mtodos de aprendizagem
e adquirem dos sistemas nebulosos a capacidade de representao e processamento de conhecimento
lingstico, assim como os demais recursos oferecidos pela teoria de conjuntos nebulosos.
Sob esta perspectiva, trs categorias de combinaes foram propostas na literatura (Lin & Lee,
1996), traduzindo-se, cada uma delas, em:
Redes neurais baseadas em neurnios nebulosos;
Modelos neurais fuzzicados;
Redes neurais clssicas com treinamento nebuloso.
Os modelos propostos neste trabalho so englobados pela primeira categoria, o das redes neurais
baseadas em neurnios nebulosos e, portanto, esta ser discutida com mais detalhes a seguir.
24 Fundamentos Tericos
2.4.1 Neurnios Nebulosos
Um neurnio nebuloso um neurnio articial muito semelhante ao modelo clssico proposto
por McCulloch-Pitts que reete a natureza nebulosa de um neurnio biolgico (Rocha, 1987). Este
neurnio possui a habilidade de tratar informaes imprecisas e/ou incertas pois sua formulao
baseada na teoria de conjuntos nebulosos.
Apesar de um grande nmero de neurnios nebulosos j terem sido propostos, estes podem ser
classicados em trs tipos distintos (Lin & Lee, 1996): (a) neurnios nebulosos com entradas no-
nebulosas combinadas com pesos nebulosos (Tipo I), (b) neurnios nebulosos com entradas nebu-
losas que so combinadas com os pesos nebulosos (Tipo II) e (c) neurnios nebulosos descritos por
equaes lgicas nebulosas (Tipo III). A seguir, estes trs tipos de neurnios nebulosos so breve-
mente apresentados.
Neurnios Nebulosos do Tipo I
O neurnio nebuloso do tipo I, apresentado na Figura 2.4, aquele no qual as entradas so no-
nebulosas, ou seja, as entradas so nmeros reais e os pesos de conexo conjuntos nebulosos chama-
dos de pesos nebulosos.
Assim, para n entradas no nebulosas x
1
, x
2
, . . . , x
n
existem n, conjuntos nebulosos A
i
, i =
1, . . . , n, sendo que as operaes de ponderao atravs dos pesos so substitudas por operaes
com funes de pertinncia, tambm conhecidas como operaes de fuzzicao. O resultado de
cada operao de fuzzicao, denotado por A
i
(x
i
), o grau de pertinncia (ou valor de associao)
da entrada x
i
no conjunto nebuloso A
i
.
Formalmente, um neurnio nebuloso do tipo I um mapeamento N
1
: R
n
[0, 1] denido da
seguinte forma:
N
1
(x
1
, x
2
, . . . , x
n
) = A
1
(x
1
) A
2
(x
2
) . . . A
n
(x
n
) (2.21)
onde o operador de agregao pode ser qualquer mecanismo de agregao tais como os operadores
min, max ou qualquer outra t-norma ou s-norma discutidas anteriormente.
Neurnios Nebulosos do Tipo II
Este tipo de neurnio nebuloso, denotado por N
2
e apresentado na Figura 2.5, similar aos do
tipo I, exceto pelo fato de que todas as entradas e sadas so conjuntos nebulosos ao invs de val-
ores no-nebulosos. Cada uma das entradas no nebulosas X
i
composta com seu respectivo peso
nebuloso A
i
atravs de umoperador de ponderao , que pode ser, por exemplo, a multiplicao en-
tre dois conjuntos nebulosos, composies nebulosas, entre outros (veja (Gomide & Pedrycz, 2007)
2.4 Neurnios e Redes Neurais Nebulosas 25
x
1
x
2
x
n
A
1
A
2
A
n
N
1
A
1
(x
1
)
A
2
(x
2
)
A
n
(x
n
)
.
.
.
y = N
1
(x
1
, x
2
, . . . , x
n
)
Figura 2.4: Neurnio nebuloso do tipo I
para mais detalhes). O resultado desta ponderao um outro conjunto nebuloso X

i
= A
i
X
i
,
i = 1, . . . , n. Todos os conjuntos nebulosos X

i
so ento agregados atravs de um operador de
agregao para produzir o conjunto nebuloso de sada Y .
X
1
X
2
X
n
A
1
A
2
A
n
N
2
X

1
X

2
X

n
.
.
.
Y
Figura 2.5: Neurnio nebuloso do tipo II
Este neurnio produz um mapeamento N
2
: [0, 1]
n
[0, 1], e pode ser matematicamente
descrito da seguinte forma:
X

i
= A
i
X
i
, i = 1, 2, . . . , n
Y = N
2
(X

1
, X

2
, . . . , X

n
) = X

1
X

2
. . . X

n
. (2.22)
Neurnios Nebulosos do Tipo III
A relao de entrada/sada de neurnio nebuloso do tipo III, apresentado na Figura 2.6, repre-
sentada por uma regra nebulosa se-ento da forma:
SE X
1
E X
2
E . . . E X
n
, ENTO Y (2.23)
onde X
1
, X
2
, . . . , X
n
so as entradas e Y a sada. Um neurnio nebuloso do tipo III pode tambm
ser descrito por uma relao nebulosa R, por exemplo:
26 Fundamentos Tericos
R = X
1
X
2
. . . X
n
Y, (2.24)
ou, no caso geral,
R = f(X
1
, X
2
, . . . , X
n
, Y ), (2.25)
onde f() representa uma funo de implicao. Assim, a partir das entradas x
1
, x
2
, . . . , x
n
(nebulosas
ou no), e de acordo com a regra de inferncia composicional adotada, o neurnio nebuloso do tipo
III fornece uma sada da forma:
Y = x
1
(x
2
(. . . (x
n
R) . . .) . . .), (2.26)
onde representa um tipo de composio nebulosa como, por exemplo, uma composio sup-t ou
inf-s. Para este neurnio, as entradas podem ser tanto nebulosas quanto no-nebulosas, sendo que
um neurnio nebuloso do tipo III com entradas no-nebulosas pode ser visto como um caso especial
deste neurnio com entradas nebulosas. Uma rede neural nebulosa composta por neurnios do tipo
III aparece como uma excelente arquitetura para extrao de regras a partir de dados de treinamento.
X
1
X
2
X
n
.
.
.
Y R
Figura 2.6: Neurnio nebuloso do tipo III
H ainda uma variao do neurnio nebuloso do tipo III, chamado de neurnio lgico, proposto
em (Pedrycz & Rocha, 1993), que pode ser visto como uma combinao dos neurnios do tipo II
e III. A estrutura deste neurnio muito similar apresentada para os neurnios nebulosos do tipo
III, exceto pelo fato de que pesos de conexo w
i
so associados a cada uma das entradas x
i
. Desta
forma, um neurnio lgico executa um mapeamento do espao formado pelo produto cartesiano entre
o espao de entrada e o espao dos pesos no intervalo unitrio, isto , X W [0, 1].
Aforma comque entradas e pesos so agregados denemdois tipos de neurnios lgicos: neurnios
lgicos do tipo AND e neurnios lgicos do tipo OR. De fato, o nome neurnio lgico est associado
s operaes lgicas de disjuno (or) e conjuno (and) executadas por estes neurnios, e que, aqui,
2.4 Neurnios e Redes Neurais Nebulosas 27
conforme mencionado anteriormente, so implementadas atravs de suas generalizaes nebulosas,
as t-normas e s-normas. As implementaes para os dois tipos de neurnios lgicos so apresentadas
a seguir.
Neurnio Lgico AND
O neurnio lgico do tipo AND obtido escolhendo-se uma s-norma como operador de ponder-
ao * na expresso (2.22), enquanto o operador de agregao implementado atravs de uma
t-norma. Isto faz com que, para este caso particular, a equao (2.22) possa ser reescrita da seguinte
forma:
X

i
= A
i
s X
i
, i = 1, 2, . . . , n
Y = X

1
t X

2
t . . . t X

n
, (2.27)
ou, de uma forma mais concisa
y = and(x, w) =
n
T
i=1
(x
i
s w
i
) (2.28)
onde x = [x
1
, x
2
, . . . , x
n
] o vetor de entradas, w = [w
1
, w
2
, . . . , w
n
] o vetor de pesos, y [0, 1]
o valor de sada e
n
T
i=1
() representa uma t-norma, ou seja,
n
T
i=1
(z
i
) = z
1
t z
2
t . . . t z
n
.
Sob a tica do neurnio nebuloso do tipo III, o neurnio lgico AND tambm pode ser visto
como uma relao nebulosa entre entradas e sada. Em particular, se o operador min for escolhido
para implementar a t-norma na equao (2.28), a sada deste neurnio pode ser vista como uma
composio min-s (inf-s) entre entradas e pesos, ou seja:
y = x w
Conseqentemente, cada neurnio lgico do tipo AND representa uma regra nebulosa da forma:
SE (x
1
OU w
1
) E (x
2
OU w
2
) E . . . E (x
n
OU w
n
), ENTO Y (2.29)
A gura 2.7 apresenta a estrutura para o neurnio lgico do tipo AND.
Em geral, associada sada deste neurnio uma funo de ativao
and
(), tomada como sendo
um mapeamento no-linear monotonicamente crescente. Entretanto, neste trabalho, esta funo foi
escolhida como sendo a funo identidade, isto ,
and
(y) = y.
28 Fundamentos Tericos
x
1
x
2
x
n
w
1
w
2
w
n
.
.
.
y
and
Figura 2.7: Neurnio nebuloso lgico do tipo AND
Neurnio Lgico OR
A obteno do neurnio lgico do tipo OR feita escolhendo-se uma t-norma como operador de
ponderao e uma s-norma como operador de agregao. Assim, a sada deste tipo de neurnio
calculada da seguinte forma:
y = or(x, w) =
n
S
i=1
(x
i
t w
i
), (2.30)
onde
n
S
i=1
() representa uma s-norma, ou seja,
n
S
i=1
(z
i
) = z
1
s z
2
s . . . s z
n
.
Da mesma forma que para o neurnio lgico do tipo AND, o neurnio lgico do tipo OR tambm
pode ser visto como uma relao nebulosa entre entradas e sada. Aqui, o caso particular aquele em
que se escolhe o operador max para implementar a t-norma em (2.30), o que faz com que a sada y
possa ser vista como uma composio max-t (sup-t) entre entradas e pesos, ou seja:
y = x w
Portanto, cada neurnio lgico do tipo OR representa uma regra nebulosa da forma:
SE (x
1
E w
1
) OU (x
2
E w
2
) OU . . . OU (x
n
E w
n
), ENTO Y (2.31)
A gura 2.8 apresenta a estrutura do neurnio lgico do tipo OR.
Da mesma forma que para o neurnio AND, neste neurnio a funo de ativao associada sada
do neurnio (
or
()) tambm foi escolhida como sendo a identidade, isto ,
or
(y) = y.
possvel vericar que os neurnios lgicos dos tipos AND e OR realizam operaes lgicas
puras entre os valores de pertinncia, sendo que o propsito dos pesos de conexo diferenciar os
diferentes nveis de impacto que cada entrada individual deve ter no resultado nal da agregao.
Este tipo de neurnio apresenta uma forte semelhana com os modelos clssicos de neurnio, o
que os torna particularmente atrativos para a construo de redes neurais nebulosas que herdem as
2.4 Neurnios e Redes Neurais Nebulosas 29
x
1
x
2
x
n
w
1
w
2
w
n
.
.
.
y
or
Figura 2.8: Neurnio nebuloso lgico do tipo OR
capacidades de treinamento das redes neurais clssicas. Alm disso fornecem uma forma intuitiva
para a extrao de regras nebulosas a partir dos modelos treinados, tornando-os lingisticamente
interpretveis.
Na seo a seguir, so apresentadas as principais estruturas de redes neurais nebulosas baseadas
nos neurnios lgicos dos tipos AND e OR, e que serviro de base para os modelos propostos neste
trabalho.
2.4.2 Redes Neurais Nebulosas
Diversas estruturas de rede neurais nebulosas foram propostas na literatura (Buckley & Hayashi,
1994; Lin & Lee, 1996). Em particular, esta seo trata das redes formadas por neurnios lgicos
AND e OR (Pedrycz, 1993), apresentando algumas das estruturas de redes j propostas na literatura
(Pedrycz et al., 1995; Caminhas et al., 1999; Ballini & Gomide, 2002; Figueiredo et al., 2004) nas
quais ser fundamentada a estrutura utilizada neste trabalho.
As primeiras estruturas a utilizar os neurnios AND e OR foram propostas por Pedrycz em 1995
(Pedrycz et al., 1995). Estas estruturas, denominadas de processadores lgicos, demonstram certas
analogias com as funes Booleanas da lgica clssica.
Oprimeiro tipo de processador lgico, ilustrado na Figura 2.9, formado por h neurnios ANDem
sua camada intermediria e por um nico neurnio OR na camada de sada. A funo dos neurnios
AND fornecer uma seqncia de mintermos generalizados dos sinais de entrada. Esses mintermos
generalizados so ento combinados atravs da unio lgica fornecida pelo neurnio OR situado na
camada de sada. Desta forma, a rede resultante fornece um tipo de aproximao lgica das relaes
entre o vetor de entrada e sua respectiva sada conhecida, como soma de mintermos.
O segundo tipo de processador lgico proposto por Pedrycz, apresentado na Figura 2.10, fornece
uma estrutura dual apresentada anteriormente e fornece uma relao lgica conhecida como pro-
duto de maxitermos. Nesta topologia, a camada intermediria fornece uma famlia de maxitermos
30 Fundamentos Tericos
x
1
x
2
x
i
x
n
x
1
x
2
x
n
y
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
V
ji
W
j
Z
1
Z
j
Z
j+1
Z
h
and
and
and
and
or
Mintermos
Soma de Mintermos
Figura 2.9: Processador lgico do tipo Soma de Mintermos
generalizados das entradas. A camada de sada, composta por um nico neurnio AND, tem a funo
de agregar os maxitermos generalizados fornecidos pela camada anterior.
Para ambas as redes, as entradas x
i
so entradas nebulosas, sendo que as entradas x
i
representam o
complemento das entradas x
i
. Os pesos de conexo dados por V
ji
[0, 1] representam a importncia
individual da entrada x
i
no processamento do j-simo neurnio da camada intermediria, enquanto
os pesos de conexo W
j
[0, 1] representam a importncia individual da sada do j-simo neurnio
da camada intermediria na composio nal da sada.
Outra importante estrutura de rede neural nebulosa composta por neurnios lgicos AND e OR
foi proposta por Caminhas et. al. em 1999 para resolver o problema de classicao de padres
(Caminhas et al., 1999). Esta estrutura, ilustrada na Figura 2.11, possui a caracterstica de representar
o conhecimento de forma explcita, apresentando duas diferenas importantes com relao classe
anterior. Alm de possibilitarem a insero e/ou extrao de conhecimento na forma de regras nebu-
losas do tipo se-ento, so tambm capazes de projetar sistemas nebulosos denindo seus parmetros
medida que adquirem conhecimento durante o perodo de aprendizagem.
Nesta arquitetura, as entradas x
i
so variveis no-nebulosas que so fuzzicadas na primeira
camada da rede, onde cada neurnio representa um conjunto nebuloso, sendo que A

i
i
representa o

i
-simo conjunto nebuloso da i-sima entrada. Estes neurnios podem ser vistos como neurnios
nebulosos do tipo I que possuem apenas uma entrada.
As sadas dos neurnios da primeira camada so combinadas com seus respectivos pesos w
ki

2.4 Neurnios e Redes Neurais Nebulosas 31
x
1
x
2
x
i
x
n
x
1
x
2
x
n
y
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
V
ji
W
j
Z
1
Z
j
Z
j+1
Z
h
or
or
or
or
and
Maxitermos
Produto de Maxitermos
Figura 2.10: Processador lgico do tipo Produto de Maxitermos
[0, 1] pelos neurnios AND que formam a primeira camada intermediria da rede. A sada de cada
um destes neurnios AND y
k
pode ser vista como a sada de uma regra nebulosa do tipo se-ento. A
segunda camada intermediria da rede executa a agregao das regras nebulosas representadas pela
primeira camada intermediria. Desta forma, as sadas y
k
da regras nebulosas so agregadas com seus
respectivos pesos v
j
[0, 1] atravs dos neurnios OR.
A sada de cada um destes neurnios OR representam o grau de certeza com que a entrada x =
[x
i
], i = 1, . . . , n pertence a uma determinada classe, isto , Z

o grau de certeza com que x pertence


classe C

. A sada nal da rede dada por uma funo competitiva MAX, sendo que a classe a qual
pertence a entrada x ser aquela que apresentar o maior valor de Z

associado a ela.
Por m, pode-se ainda apresentar a estrutura de rede neural nebulosa recorrente proposta em
(Ballini & Gomide, 2002). Nesta estrutura, a funo de agregao das sadas das regras nebu-
losas feita atravs de uma rede neural clssica, formando assim a estrutura hbrida apresentada
na Figura 2.12.
Esta estrutura apresenta duas partes distintas. A primeira delas formada por duas camadas de
neurnios nebulosos e representa um sistema de inferncia nebuloso. A primeira destas duas camadas
formada pelos mesmos neurnios de fuzzicao usados na estrutura da Figura 2.11. A segunda
camada desta parte da rede pode ser formada por neurnios AND ou neurnios OR. O processamento
nas duas primeiras camadas desta rede muito similar ao da estrutura anterior. Entretanto, aqui so
associadas recorrncias locais e globais aos neurnios AND/OR, fazendo com que a entrada destes
neurnios seja acrescida das sadas dos prprios neurnios AND/OR no instante anterior, sendo estas
32 Fundamentos Tericos
x
1
x
i
x
n
A
1
1
A

1
1
A

1
1
A
1
i
A

i
i
A

i
i
A
1
n
A
n
n
A
n
n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
11
a
1
a
L1
a
1i
a
ki
a
Li
a
1n
a
kn
a
Ln
w
11
w
k1
w
L1
w
1i
w
ki
w
Li
w
1n
w
kn
w
Ln
and
and
and
or
or
or
v
11
v
1
v
j1
v
1L
v
j
v
m1
v
jL
v
m
v
mL
y
1
y
k
y
L
Z
1
Z

Z
N
C
1
C

C
N
Zq
Cq
MAX
Fuzzicao
Agregao dos
Antecedentes
Agregao dos Regras Defuzzicao
Figura 2.11: Modelo de rede neural nebulosa para classicao de padres
sadas ponderadas pelos pesos de conexo r
k
(peso de recorrncia entre os neurnios lgicos k, k =
1, . . . , L e , = 1, . . . , L na segunda camada da rede).
A segunda parte formada por uma rede neural clssica de uma camada e funciona como um
agregador no-linear, agregando a sada das regras nebulosas da primeira parte da rede e fornecendo
uma sada global para a rede. A sada desta parte da rede dada por y
j
= f
_

L
k=1
v
jk
z
k
_
, onde
f() uma funo de ativao monotnica contnua.
O aprendizado desta rede feita em trs etapas. Na primeira etapa, um algoritmo de agrupamento
utilizado para granularizar o espao de entrada. Na segunda etapa o mtodo do gradiente utilizado
para corrigir os pesos relacionados aos neurnios clssicos na camada de sada. Por m, na terceira
etapa aplica-se uma regra de reforo associativo para corrigir os pesos relacionados aos neurnios
nebulosos na camada intermediria. Maiores detalhes so apresentados em (Ballini & Gomide, 2002).
Da mesma forma que a estrutura anterior, esta rede permite a representao do conhecimento na
forma de regras se-ento. Alm disso, a incorporao das recorrncias nos neurnios nebulosos na
camada intermediria da rede faz com que esta seja capaz de capturar as relaes temporais entre
entradas/sadas distintas, tornando-se assim uma alternativa na modelagem de sistemas dinmicos.
2.5 O Espao Neural Multidimensional 33
x
1
x
i
x
n
A
1
1
A

1
1
A

1
1
A
1
i
A

i
i
A

i
i
A
1
n
A
n
n
A
n
n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
11
a
1
a
L1
a
1i
a
ki
a
Li
a
1n
a
kn
a
Ln
w
11
w
k1
w
L1
w
1i
w
ki
w
Li
w
1n
w
kn
w
Ln
and/or
and/or
and/or v
11
v
1k
v
j1
v
1L
v
jk
v
m1
v
jL
v
mk
v
mL
r
11
r
k1 r
1k
r
kk
r
Lk
r
kL
r
LL
r
L1
r
1L

f()
f()
f()
z
1
z
k
z
L
y
1
y
j
ym
Sistema de Inferncia Nebuloso
Rede Neural de Agregao
Figura 2.12: Modelo de rede neural nebulosa recorrente
2.5 O Espao Neural Multidimensional
O espao neural multidimensional ^ proposto por Figueiredo surge como uma forma de se
obter uma realizao estrutural e paramtrica para uma classe de modelos qualitativos implemen-
tados atravs de redes neurais clssicas (Figueiredo, 2003).
Este espao denido como sendo um espao separvel de Hilbert de mapeamentos no-lineares
f, que mapeiam um dado vetor x a partir de um espao de dados X (o qual tambm um espao
separvel de Hilbert ou um espao Euclidiano) para um vetor m-dimensional y composto por m
sadas da forma y
j
= f
j
(x), onde f
j
() so funcionais analticos expressos como sries funcionais de
Volterra em X (Volterra, 1959). Os funcionais f
j
pertencem a um espao de Hilbert apropriadamente
construdo, denotado por F, tambm introduzido por De Figueiredo (Figueiredo & DwyerIII, 1980),
como uma generalizao de um espao de Fock simtrico. Uma vez denido o espao F possvel
denir o Espao Neural ^ como um produto direto do espao F, isto :
34 Fundamentos Tericos
^ =
m
..
F F . . . F, (2.32)
o que faz com que os membros de ^ tenham um domnio comum (X). De Figueiredo mostra que os
membros de ^ so otimamente implementados como uma rede neural. Portanto, o produto escalar
em^ mede a similaridade entre duas redes neurais que representam os mapeamentos f e g, e a norma
em ^, quando usada como |f g|
N
expressa a distncia mtrica entre essas duas redes.
Estes conceitos se apresentaram como altamente promissores na modelagem de sistemas dinmi-
cos e inspiraram estudos no sentido de estender estas idias para tratar tambm redes neurais nebu-
losas, tornando-se inicialmente um dos principais objetivos deste trabalho. Entretanto, anlises exper-
imentais demonstraram que para fornecer uma realizao estrutural e paramtrica para um problema
especco, a abordagem de De Figueiredo exige que os vetores que formam o conjunto de dados de
treinamento sejam todos linearmente independentes entre si, sendo que o nmero de neurnios na
camada intermediria das redes geradas por este mtodo exatamente igual ao nmero destes vetores
de treinamento.
Estas anlises levaram a crer que, apesar de fornecer uma formulao matemtica adequada
implementao de redes neurais clssicas, o espao ^ possui desvantagens com relao complexi-
dade dos algoritmos utilizados se comparado s redes neurais nebulosas apresentadas anteriormente,
fazendo com que esta abordagem no fosse considerada neste trabalho.
2.6 Aprendizado Participativo
A caracterstica principal do aprendizado participativo que o impacto de uma observao no
aprendizado ou na reviso das convices depende de sua compatibilidade com as convices atuais.
Em particular, uma observao conitante com as convices atuais desconsiderada (Yager, 1990).
Este modelo de aprendizado captura muitas das caractersticas inerentes ao aprendizado humano,
uma vez que, quando j possuem algum conhecimento a respeito de determinado assunto, os seres
humanos tendem a no aceitar de imediato novos conceitos que no estejam de acordo com aquilo
que j aprenderam sobre tal assunto at o presente momento.
Para exemplicar este conceito, considere v como sendo uma varivel que representa o que j se
aprendeu a respeito de um determinado ambiente. O objetivo do aprendizado participativo estimar o
valor desta varivel baseado em uma seqncia de observaes x
k
[0, 1], k = 1, 2, . . . , que codi-
cam o conhecimento a respeito do valor da varivel v [0, 1]. Neste sentido, x
k
uma manifestao
do valor de v na k-sima observao. Assim, usa-se o vetor x
k
como um meio para "aprender"o
valor de v. O processo de aprendizado participativo se a contribuio de cada observao x
k
para
2.6 Aprendizado Participativo 35
o processo de aprendizado depende de sua aceitao pelos valores correntes de v (Yager, 1990). Isto
signica que, para ser relevante para o processo de aprendizagem, x
k
deve estar prximo de v. Um
mecanismo para atualizao dos valores de v (chamados genericamente de crenas ou convices,
por Yager) :
v
k+1
= v
k
+
k

k
(x
k
v
k
) (2.33)
onde k = 1, . . . , P e P o nmero de observaes; v
k+1
[0, 1] a nova convico a respeito
do sistema; v
k
[0, 1] a convico corrente; x
k
a observao corrente;
k
[0, 1] a taxa de
aprendizado (que pode ser constante ou varivel); e
k
[0, 1] o grau de compatibilidade entre x
k
e
v
k
. Uma das formas de se calcular
k
:

k
= 1
1
n
n

i=1
d
k
i
(2.34)
sendo d
k
i
=

x
k
i
v
k
i

. Quando
k
= 0, tem-se que a observao muito diferente da convico
corrente pois, como d
k
i
[0, 1] para que
k
seja igual a zero necessrio que cada uma dos elementos
x
k
i
e v
k
i
devem estar em extremos opostos, ou seja, se x
k
i
= 0 ento v
k
i
= 1 ou se x
k
i
= 1 ento v
k
i
= 0
para todo i = 1, . . . , n. Neste caso tem-se que, a partir de (2.33) que v
k+1
= v
k
e o sistema est
totalmente fechado para o aprendizado.
Por outro lado, se
k
= 1 tem-se a partir de (2.33) que v
k+1
= v
k
+
k
(x
k
v
k
), e portanto o
sistema est totalmente aberto para o aprendizado. Entretanto, para que
k
seja igual a 1 preciso
que x
k
i

k
i
= 0 para todo i. Esta condio implica que v
k
= x
k
e assim tem-se que v
k+1
= v
k
, o
que implica que no ocorre nenhum aprendizado (Yager & Filev, 1993a).
Estes fatos implicam que quando uma nova observao muito distinta do que j se sabe a re-
speito do ambiente ela considerada como incompatvel e no entra no processo de aprendizado.
Por outro lado, quando uma nova observao igual ao conhecimento que j se tem a respeito do
ambiente, no necessrio mais aprender j que esta observao no contribui com o aprendizado.
Assim, o comportamento da atualizao das convices se d de acordo com um compromisso entre
observaes muito prximas da convico atual e de observaes conitantes com tal convico. Esta
idia pode ser visualizada na Figura 2.13, que apresenta um exemplo deste comportamento para um
espao bidimensional, onde a convico atual se encontra no centro do espao.
Um ponto que pode ser levantado a respeito do processo de treinamento descrito que este ignora
a situao em que uma seqncia de baixos valores de
k
s so observados durante um longo perodo
de tempo. Neste caso, o sistema deve se tornar mais aberto para aprender com as novas observaes,
uma vez que para este caso a convico que se tem a respeito do sistema que pode estar errada e
no as novas observaes. Esta situao pode ser traduzida em um ndice de alerta, usado para
36 Fundamentos Tericos
convico ()
x
1
x
2

0
00
0.25
0.25
0.50
0.50
0.50
0.75
0.75
1.00
1.00
0.10
0.20
0.30
0.40
(a)
0
convico ()
x
1
x
2
0
0.25
0.25
0.50
0.50
0.75
0.75
1.00
1.00
(b)
Figura 2.13: Comportamento da aprendizagem participativa
inuenciar o processo de aprendizado, como mostra a Figura 2.14. Quanto maior o ndice de alerta,
menor a conana que se tem a respeito da convico atual do sistema e observaes conitantes se
tornam importantes no processo de atualizao das convices.
Processo de
Aprendizado
Mecanismo de
Alerta


Observaes (x
k
)
Convices ()
Figura 2.14: Aprendizado participativo com alerta
Assim, considere
k
[0, 1] como sendo o ndice de alerta. Quanto mais alto for o valor de
k
mais alerta esta o sistema. Um mecanismo para determinar o ndice de alerta :

k+1
=
k
+ ((1
k+1
)
k
) (2.35)
onde [0, 1] uma constante que controla a taxa com a qual o ndice de alerta ajustado; quanto
mais prximo est de 1, mais sensvel ca o sistema variaes de compatibilidade. O ndice
de alerta pode ser visto como o complemento da conana na convico atualmente presente no
sistema. A Figura 2.15 ilustra o comportamento do ndice de alerta e da atualizao das convices
para diferentes seqncias de ndices de compatibilidade.
2.6 Aprendizado Participativo 37

0
0
0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
1.0
1.0
20
20
20
40
40
40
60
60
60
80
80
80
100
100
100
120
120
120
(a)
(b)
(c)
Figura 2.15: Comportamento do ndice de alerta e da variao das convices: (a) ndice de compat-
ibilidade (b) ndice de alerta (c) Variao das convices.
A expresso (2.33) pode ento ser reescrita de forma a incorporar o mecanismo de alerta da
seguinte forma:
v
k+1
= v
k
+
k

1
k
k
(x
k
v
k
) (2.36)
ou na forma completa:
v
k+1
= x
k
+
k
_
1
1
n
n

i=1

x
k
i
v
k
i

_
1
k
(x
k
v
k
) (2.37)
Como pode ser vericado em (2.36) e (2.37), enquanto
k
mede o quanto o sistema muda sua
credibilidade em suas prprias convices, o ndice de alerta
k
atua como um crtico que avisa
quanto uma convico deve ser modicada frente a novas evidncias.
Este paradigma de aprendizado pode ser visto como uma base para o desenvolvimento de algorit-
mos de treinamento para sistemas baseados em inteligncia computacional, tais como redes neurais,
sistemas fuzzy e suas hibridizaes. De fato, o aprendizado participativo foi utilizado para desen-
volver um eciente algoritmo de agrupamento fuzzy no supervisionado (Silva et al., 2005) e, tam-
bm, para encontrar estruturas de base de regras em procedimentos de modelagem fuzzy evolutiva
38 Fundamentos Tericos
(Lima et al., 2006).
Uma das propostas deste trabalho a utilizao do aprendizado participativo na sntese de um
algoritmo de treinamento para uma classe de redes neurofuzzy, conforme apresentado no prximo
captulo.
2.7 Resumo
O objetivo deste captulo foi descrever em linhas gerais o contexto de modelagem de sistemas
dinmicos, foco do presente trabalho. Inicialmente apresentou-se as principais propriedades de mod-
elos matemticos, apontando quais destas propriedades esto presentes nos modelos propostos nesta
tese. Em suma, os modelos aqui propostos podem ser classicados como modelos no-lineares, dis-
cretos, determinsticos, a parmetros concentrados, no autnomos e paramtricos.
Alm disso, foram descritos neste captulo os conceitos gerais da teoria de conjuntos nebulosos,
com nfase nas equaes relacionais nebulosas e as solues para o problema de estimao nebuloso.
Redes neurais nebulosas baseadas em neurnios lgicos do tipo AND/OR tambm foram introduzi-
dos para servir de motivao para uma nova classe de redes neurais nebulosas que ser objeto do
captulo 4.
Por m, este captulo apresentou os conceitos bsicos a respeito do paradigma do aprendizado
participativo, com a nalidade de facilitar a compreenso do algoritmo de treinamento para redes
neurais nebulosas proposto no captulo seguinte.
Captulo 3
Redes Neurais Nebulosas com Aprendizado
Participativo
3.1 Introduo
Neste captulo prope-se um novo procedimento para se treinar redes neurais nebulosas, tomando-
se como base o paradigma do aprendizado participativo (AP) apresentado no captulo anterior.
Conforme mencionado, os mtodos de treinamento existentes, tanto para redes neurais clssicas
quanto para redes neurais nebulosas, apresentam uma forte dependncia no que diz respeito quali-
dade da base de dados utilizada para o treinamento. De fato, possvel obter bons resultados com os
mtodos de treinamento apenas nos casos em que os dados de treinamento sejam representativos do
comportamento que se deseja aprender (Yager, 1990).
Apesar de o AP apresentar claros indcios de que sua aplicao seria vantajosa para se melhorar
tais caractersticas dos processos de treinamento existentes, at o momento nenhum algoritmo ecaz
baseado nesse paradigma foi proposto na literatura. A vantagem do AP se deve, em parte, ao fato de
que uma das suas principais caractersticas a comparao entre a informao que chega ao sistema
e o conhecimento j armazenado, a m de se calcular o quanto essa nova informao compatvel
com as convices atuais e, assim, atualizar ou no o conhecimento (Seo 2.6).
Na maioria das redes neurais, nebulosas ou no, o conhecimento que j se tem a respeito do
meio ou do processo sob estudo ca armazenado nos pesos de conexo, ou, mais especicamente,
nas matrizes onde so armazenados tais pesos. Portanto, para aplicar o AP a estas redes, torna-se
necessrio traduzir a nova informao (em geral na forma de um par de treinamento entrada/sada)
para um formato matricial que possa ser comparado com as matrizes de pesos.
Para se entender melhor este problema, considere a rede neural clssica de 3 entradas e 2 sadas
apresentada na Figura 3.1.
39
40 Redes Neurais Nebulosas com Aprendizado Participativo
x
1
x
2
x
3
y
1
y
2
w
11
w
12
w
13
w
21
w
22
w
23

f()
f()
Figura 3.1: Exemplo de Rede Neural Clssica de 3 entradas e 2 sadas.
Para esta rede tem-se que o vetor de entrada x R
3
, o vetor de sada y [0, 1]
2
e a matriz de
peso W = [w
ij
] (onde est armazenado o conhecimento que esta rede j possui) pertence ao R
23
. De
forma geral, pode-se obter uma sada y = [ y
i
], i = 1, 2, para esta rede a partir de uma determinada
entrada x, da seguinte forma:
y
i
= f
_
3

j=1
x
j
w
ij
_
, i = 1, 2. (3.1)
Considere agora um par formado por uma entrada e uma sada na forma [x, y]. Para que o AP
possa ser aplicado no treinamento desta rede, seria necessrio encontrar, a partir de um par [x, y] uma
matriz G = [g
ij
]i = 1, 2, j = 1, 2, 3, de tal forma que, substituindo-se w
ij
na equao (3.1) por g
ij
, o
resultado obtido fosse exatamente o vetor y, ou seja:
y
i
= f
_
3

j=1
x
j
g
ij
_
, i = 1, 2. (3.2)
Desta forma, a matriz G = [g
ij
] representaria a informao que est sendo trazida para a rede
atravs do par entrada/sada [x,y] e, portanto, poderia ser utilizada no clculo do ndice de compati-
bilidade para o AP, conforme mencionado no captulo anterior.
Apesar de existirem alguns mtodos (Stewart, 1973; Bjrck, 1996) que permitem encontrar a
matriz G para o exemplo da Figura 3.1, estes mtodos so, em geral, computacionalmente onerosos,
o que inviabilizaria a aplicao do AP para problemas com dimenses mais elevadas. Por outro
lado, considere a rede neural nebulosa apresentada na Figura 3.2, onde representa ou a funo and
3.1 Introduo 41
denida em (2.28) ou a funo or denida em (2.30).
A

1
1
A

1
2
A

1
3
x
1
x
2
x
3
y
1
y
2
a
1
a
2
a
3
w
11
w
12
w
13
w
21
w
22
w
23

Figura 3.2: Exemplo de Rede Neural Nebulosa de 3 entradas e 2 sadas.


Conforme visto no captulo anterior, dependendo da escolha dos operadores que representam as
t-normas e s-normas nas funes and e or, o mapeamento entrada/sada dado pela rede da Figura 3.2
pode ser visto como uma relao nebulosa da forma:
y = a W, (3.3)
onde a = [a
i
] (a
i
= A

1
1
(x
1
)) o vetor que armazena as sadas dos neurnios nebulosos da primeira
camada da rede (que podem ser vistos como neurnios nebulosos do tipo I com uma nica entrada) e
o operador representa uma composio inf-s (para o caso em que = and e a t-norma = min) ou
uma composio sup-t (para o caso em que = or e a s-norma = max).
Considere novamente o par entrada/sada dado por [x, y]. Como o vetor a pode ser facilmente
obtido atravs da propagao de x atravs da primeira camada de neurnios nebulosos (N
1
), a matriz
G que representa a informao trazida pelo par [x, y] deve ser tal que:
y = a G. (3.4)
Neste caso, G pode ser obtida a partir da soluo do problema de estimao nebuloso, conforme
seo 2.3.8 do captulo anterior. Este mtodo fornece uma forma simples e rpida de se obter a
informao que est sendo trazida pela nova observao que chega rede, viabilizando, assim, o uso
do aprendizado participativo para esta classe de redes neurais nebulosas.
Umdos objetivos deste trabalho justamente utilizar esta idia para a formulao de umalgoritmo
42 Redes Neurais Nebulosas com Aprendizado Participativo
de aprendizado para redes neurais nebulosas baseado no AP. Antes, porm, torna-se necessria uma
anlise da estabilidade e convergncia do AP.
3.2 Anlise de Convergncia do Aprendizado Participativo
Para que um algoritmo seja considerado como um potencial candidato ao treinamento de sistemas
baseados em inteligncia computacional, ele deve ser, antes de mais nada, um mtodo estvel (o que
garante que, se o valor inicial do problema sucientemente prximo da soluo, ento o algoritmo
converge para algum ponto tambm prximo da soluo) e convergente (o que garante que, se o valor
inicial do problema sucientemente prximo da soluo, ento o algoritmo caminha para a soluo).
Tanto o conceito de estabilidade quanto o de convergncia, quando demonstrados para um mtodo
numrico, mostram que este mtodo converge para uma determinada soluo aps um determinado
nmero de iteraes. Desta forma, possvel vericar que o AP um mtodo convergente analisando-
se o seguinte lema (Yager & Filev, 1993b), que os autores chamam de lema de estabilidade do AP:
Lema 3.1 (Estabilidade do Aprendizado Participativo) Considere o algoritmo do aprendizado par-
ticipativo
1
:
v
k+1
= v
k
+
k

k
(x
k
v
k
) (3.5)
onde
k
[0, 1] a taxa de aprendizado (que pode ser constante
k
= ou varivel). Se o ndice de
compatibilidade
k
for denido de tal forma que este pertena ao intervalo [0, 1], ento o algoritmo
(3.5) estvel.
Demonstrao:
A expresso(3.5) pode ser vista como um sistema dinmico e re-escrita como:
v
k+1
= (1
k

k
)v
k
+ (
k

k
)x
k
. (3.6)
Se o termo
k

k
uma constante, i.e.,
k

k
= , ento o sistema (3.6) estacionrio e ser
estvel se e somente se todos os seus plos forem localizados no crculo unitrio, ou seja:
[1 [ < 1,
ou ento 1 < 1 < 1. Assim, para ser estvel o termo deve satisfazer a seguinte condio:
0 < < 2.
1
Note que a equao (3.5) apenas uma transcrio da equao (2.33).
3.2 Anlise de Convergncia do Aprendizado Participativo 43
Como, por denio, a taxa de aprendizado pertence ao intervalo [0, 1], para garantir estabil-
idade o ndice de compatibilidade deve pertencer ao intervalo:
0 < < 2,
o que torna o sistema estvel se denido como pertencente ao intervalo [0, 1]. Entretanto, o
aprendizado participativo um processo dinmico, e o ndice de compatibilidade, em geral, no
uma constante, mas sim uma varivel. Para o caso em que o ndice de compatibilidade no
considerado como uma constante, possvel se utilizar a recurso na expresso (3.6) para se obter:
v
k+1
=
k

i=0
_
(1
i

i
)v
0
_
+ f(
0
, . . . ,
k
,
0
, . . . ,
k
, x
0
, . . . , x
k
) (3.7)
onde f() uma funo no-linear. Pode-se vericar em (3.7) que a condio 0 <
k
< 2 para cada
k tambm implica na estabilidade do sistema (3.6) para qualquer condio inicial
0
no caso em que
no uma constante.
Portanto, denindo o ndice de compatibilidade
k
no intervalo [0, 1], garante que o algoritmo
estvel.
O lema 3.1 demonstra que o algoritmo AP converge para alguma soluo prxima soluo
desejada (denio de estabilidade), apesar de no dizer nada a respeito da soluo encontrada. Para
que se possa analisar o algoritmo AP no sentido de dizer onde se encontra a soluo obtida por ele,
necessrio demonstrar o conceito de convergncia para este algoritmo. Este conceito ainda no foi
demonstrado na literatura, porm isso pode ser feito analisando-o como um mtodo de aproximao
estocstica (Robbins & Monro, 1951).
Oproblema de aproximao estocstica originalmente trata da estimao das razes de uma funo
desconhecida atravs de aproximaes sucessivas baseadas em observaes com rudo (Kushner &
Yin, 2003). A aproximao estocstica pode ser interpretada como uma equao a diferenas es-
tocstica onde ajustes recursivos nos parmetros, dadas algumas condies, fazem com que o sistema
apresente uma convergncia assinttica. Esta abordagem utilizada na anlise de convergncia de
algoritmos recursivos, como o caso do AP.
Considere o seguinte lema (Dvoretzky, 1956; Saridis, 1970):
Lema 3.2 (Aproximao Estocstica) Considere o algoritmo de aproximao estocstica:
v
k+1
= v
k
+
k
_
z
k
v
k
_
, (3.8)
onde
k
uma seqncia de ganhos e z
k
a observao da varivel v (que se deseja aproximar)
corrompida por um rudo nito de mdia zero e
k
, no instante k, isto :
44 Redes Neurais Nebulosas com Aprendizado Participativo
z
k
= v + e
k
. (3.9)
Re-escrevendo-se a equao (3.8) utilizando (3.9), obtm-se:
v
k+1
= v
k
+
k
(F
k
+ e
k
) , (3.10)
onde F
k
= v v
k
um termo de correo e e
k
o termo associado ao rudo. Se a seqncia de
ganho
k
em (3.10) satisfaz
lim
k

k
= 0,

k=1

k
= ,

k=1

2
k
< (3.11)
e a seqncia de correo F
k
satisfaz
E
_
_
_
v
k+1
+
k+1
(F
k
+ e
k
)
_
_
2
/v
k+1
_
< E
_
_
_
v
k+1
+
k+1
F
k
_
_
2
/v
k+1
_
+
2
k+1
E
_
|e
k
|
2
/v
k+1
_
E
_
|v
0
|
2
_
< ; E
_
|e
k
|
2
_

2
< 0,
(3.12)
onde E representa o valor. Ento:
Pr
_
lim
k
_
_
v
k
v
_
_
= 0
_
= 1 (3.13)
onde Pr a funo probabilidade, e
lim
k
E
_
_
_
v
k
v
_
_
2
_
= 0. (3.14)
Ademonstrao deste lema pode ser obtido em(Dvoretzky, 1956). A condio (3.11), sob o ponto
de vista prtico, a mais relevante (Spall, 2003). Esta condio fornece um balanceamento cuidadoso
no decaimento do ganho
k
, fazendo com que este no decaia nem muito rpido nem muito devagar.
A primeira parte desta condio (lim
k

k
= 0) pode ser interpretada com um efeito suave no termo
de correo aleatrio. A segunda parte (

k=1

k
= ) fornece um esforo de correo ilimitada e a
terceira parte (

k=1

2
k
< ) garante cancelamento mtuo de erros individuais para grandes nmeros
de iteraes (Saridis, 1974).
Em particular, a primeira e a segunda partes da condio (3.11) garantem que o ganho se aproxime
de zero sucientemente rpido para eliminar os efeitos do rudo quando as iteraes se aproximam da
soluo v, enquanto a terceira parte garante que esta aproximao sucientemente lenta para evitar
convergncias prematuras (falsas) do algoritmo (Spall, 2003). A condio (3.12) signica que no
3.2 Anlise de Convergncia do Aprendizado Participativo 45
existe acoplamento cruzado ente F
k
e e
k
e que a busca no inicializada em uma incerteza innita
sobre os parmetros (Saridis, 1974).
As expresses (3.13) e (3.14) do lema 3.2 implicam que a seqncia v
k
converge em mdia
quadrtica e com probabilidade 1 para v quando k .
Utilizando o Lema 3.2 possvel obter o seguinte resultado:
Teorema 3.1 (Convergncia do Aprendizado Participativo) Considere o algoritmo de aprendizado
participativo:
v
k+1
= v
k
+
k

k
(x
k
v
k
), (3.15)
onde
k
[0, 1] e
k
tal que:

k
=

k + 1
, (3.16)
onde > 0 uma constante.
Se x
k
em (3.15) uma observao de v em um determinado instante k tal que:
x
k
= v + e
k
, (3.17)
onde e
k
um rudo aleatrio nito de mdia zero independente de v, ento v
k
converge em mdia
quadrtica e com probabilidade 1 para v quando k .
Demonstrao:
possvel vericar que o mecanismo de ajuste de crenas dado em (3.15) possui todas as car-
actersticas da forma analtica de um algoritmo de aproximao estocstica apresentada em (3.8).
Alm disso, a seqncia de ganhos
k

k
, com
k
dado por (3.16) atende s condies (3.11)
do Lema 3.2, pois conforme citado em (Spall, 2003), seqncias harmnicas da forma l/(k +
c), (l, c) > 0 satisfazem estas condies.
Verica-se ainda que os termos e
k
e v v
k
so, por hiptese, totalmente desacoplados, o que
implica que (3.15) corresponde a um caso particular do teorema de aproximao estocstica de
Dvoretzky (Dvoretzky, 1956) e portanto
Pr
_
lim
k
_
_
v
k
v
_
_
= 0
_
= 1
lim
k
E
_
_
_
v
k
v
_
_
2
_
= 0
, (3.18)
o que conclui a prova.
46 Redes Neurais Nebulosas com Aprendizado Participativo
Colorrio 3.2 (Caso Particular de Convergncia do AP) Seja X uma varivel aleatria comfuno
de distribuio dada por P[X x] = H(x) tal que:
EX =
_

xdH(x) = , (3.19)
onde EX o valor esperado de X e um valor constante. Suponha que exista uma constante
positiva C tal que
Pr[[X[ C] =
_
C
C
dH(x) = 1. (3.20)
Seja x
k
uma seqncia de observaes de X. De acordo com (3.19) (que garante que o valor
esperado de X um valor xo nito ) e (3.20) (que mostra que existem limitantes superior e inferior
para os valores das observaes de X), cada observao x
k
pode ser vista como:
x
k
= EX +
k
= +
k
, (3.21)
onde
k
pode ser visto como um rudo aleatrio nito, com a mesma distribuio de X e com valor
esperado igual a zero.
Se a seqncia x
k
processada pelo algoritmo de aprendizado participativo (3.15), com
k
denido por (3.16), tem-se que v
k
converge em em mdia quadrtica e com probabilidade para o
valor esperado de X, i.e.,
Pr
_
lim
k
_
_
v
k
EX
_
_
= 0
_
= 1
lim
k
E
_
_
_
v
k
EX
_
_
2
_
= 0.
(3.22)
Demonstrao:
A partir de (3.21), a expresso (3.15) pode ser re-escrita da seguinte forma:
v
k+1
= v
k
+
k

k
_
EX +
k
v
k
_
= v
k
+
k

k
_
[EX v
k
] +
k
_
(3.23)
A expresso (3.23) pode ser vista como um mtodo de aproximao estocstica, onde o termo de
correo F
k
= EX v
k
, a seqncia de ganho
k
=
k

k
e o termo que representa o erro
estocstico e
k
=
k
.
Como j foi mencionado, o termo de ganho
k
=
k

k
, com
k
denido em (3.16), atende a
todas as condies impostas em (3.12). Tambm possvel vericar que no existe termo cruzado
entre F
k
= v v
k
com v = EX e e
k
=
k
satisfazendo, portanto, a condio (3.13).
Conforme demonstrado no Teorema 3.1, as crenas v
k
convergem em mdia quadrtica e com
3.2 Anlise de Convergncia do Aprendizado Participativo 47
probabilidade 1 para um valor v quando k . Como, para este caso em particular, tem-se que
v = EX, pode-se concluir que, se x
k
so observaes de uma varivel aleatria X conforme
denida em (3.19) e (3.20), ento v
k
converge para o valor esperado de X, em mdia quadrtica e
com probabilidade 1, quando k , concluindo assim a demonstrao do teorema.
Para ilustrar os resultados do Colorrio 3.2 so apresentados a seguir dois experimentos feitos
com variveis aleatrias com diferentes funes de distribuio e valores iniciais. No primeiro deles,
uma seqncia de valores x
k
foi gerada a partir de observaes de uma varivel aleatria X, com
distribuio normal e valor esperado EX = = 0.5. A seqncia x
k
foi apresentada ao AP,
para dois valores iniciais distintos, com a nalidade de mostrar que a dinmica do processo independe
do valor inicial. O resultado deste experimento mostrado na Figura 3.3.
0.0
0.0
0.2
0.2
0.4
0.4
0.5
0.5
0.6
0.6
0.8
0.8
1.0
1.0
50
50
100
100
150
150
200
200
250
250
300
300
v
k
v
k
observaes
observaes
(a)
(b)
k
k
Comportamento de v
k
Comportamento de v
k
Valor Esperado E{X}
Valor Esperado E{X}
Figura 3.3: Convergncia do Aprendizado Participativo para Varivel Aleatria com Distribuio
Normal: (a) Valor inicial v
0
= 0, (b) Valor inicial v
0
= 1.
No segundo experimento a seqncia x
k
foi gerada a partir de observaes de uma varivel
aleatria X, comdistribuio diamtrica no-central (noncentral chi-square) e valor esperado EX =
= 0.3, para vericar que o Teorema 3.2 vale para qualquer tipo de distribuio, inclusive as as-
simtricas. A seqncia x
k
foi novamente apresentada ao AP, para dois valores iniciais distintos.
O resultado deste experimento mostrado na Figura 3.4.
48 Redes Neurais Nebulosas com Aprendizado Participativo
0.0
0.0
0.2
0.2
0.3
0.3
0.4
0.4
0.6
0.6
0.8
0.8
1.0
1.0
50
50
100
100
150
150
200
200
v
k
v
k
observaes
observaes
(a)
(b)
k
k
Comportamento de v
k
Comportamento de v
k
Valor Esperado E{X}
Valor Esperado E{X}
Figura 3.4: Convergncia do Aprendizado Participativo para Varivel Aleatria com Distribuio
Diamtrica No-Central: (a) Valor inicial v
0
= 0, (b) Valor inicial v
0
= 1.
Uma vez demonstradas as propriedades de estabilidade e convergncia para o aprendizado partic-
ipativo, j possvel introduzir o procedimento de treinamento para redes neurais nebulosas baseado
neste paradigma. Antes, porm, necessrio apresentar a estrutura da rede neural utilizada neste
trabalho. Esta tarefa delegada prxima seo.
3.3 Estrutura da Rede Neural Nebulosa
Neste trabalho ser considerada uma verso esttica da estrutura recorrente proposta em (Ballini
& Gomide, 2002) e apresentada na seo 2.4 do Captulo 2, onde as recorrncias locais e globais so
desconsideradas.
Esta escolha faz com que a rede utilizada neste trabalho seja tambm um modelo hbrido, cuja
estrutura apresentada na gura 3.5.
A estrutura da rede da gura 3.5 composta por duas partes. A primeira parte possui duas ca-
madas de neurnios nebulosos e representa um sistema de inferncia nebuloso. A primeira destas
camadas formada por neurnios cujas funes de ativao so as funes de pertinncia dos con-
juntos nebulosos que formam uma partio do espao de entrada. Estes neurnios tambm podem
3.3 Estrutura da Rede Neural Nebulosa 49
x
1
x
i
x
n
A
1
1
A

1
1
A

1
1
A
1
i
A

i
i
A

i
i
A
1
n
A
n
n
A
n
n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
11
a
1
a
L1
a
1i
a
ki
a
Li
a
1n
a
kn
a
Ln
w
11
w
k1
w
L1
w
1i
w
ki
w
Li
w
1n
w
kn
w
Ln
and/or
and/or
and/or v
11
v
1k
v
j1
v
1L
v
jk
v
m1
v
jL
v
mk
v
mL

f()
f()
f()
z
1
z
k
z
L
y
1
y
j
ym
Sistema de Inferncia Nebuloso
Rede Neural de Agregao
Figura 3.5: Modelo de rede neural nebulosa
ser vistos como neurnios nebulosos do tipo I, sendo que cada um deles possui apenas uma entrada
e, portanto, a sada deste neurnio ser o grau de pertinncia da entrada no conjunto nebuloso que
representa o peso.
Para cada dimenso x
i
de um vetor de entrada n-dimensional x existem
i
neurnios nebu-
losos do tipo I, sendo que o peso nebuloso associado a esta entrada dado pelo conjunto nebuloso
A

i
i
,
i
= 1, . . . ,
i
cujas funes de pertinncia correspondem granularizao da varivel x
i
. As-
sim, as sadas da primeira camada intermediria so os graus de pertinncia associados aos valores
das entradas, isto , a
i
= A

i
i
(x
i
), i = 1, . . . , n e = 1, . . . , L; onde L o nmero de neurnios
na segunda camada de neurnios nebulosos.
Os neurnios nebulosos da segunda camada podem ser escolhidos como sendo um dos dois tipos
de neurnios lgicos apresentados na seo anterior. Caso sejam escolhidos neurnios lgicos do
tipo AND, a funo implementada nesta camada passa a ser a funo and e computada segundo a
expresso (2.28).
possvel vericar que, para esta escolha, a estrutura da rede codica um conjunto de regras
50 Redes Neurais Nebulosas com Aprendizado Participativo
nebulosas se-ento R = R

, = 1, . . . , L da forma:
R

: SE (x
1
A

1
1
OU w
1
) . . . E (x
i
A

i
i
OU w
i
) . . . E (x
n
A
n
i
OU w
n
) ENTO, z is z

.
(3.24)
J para o caso em que neurnios lgicos do tipo OR so escolhidos para implementar a segunda
camada da rede, a funo implementada a funo or, sendo que sada de cada um destes neurnios
passa a ser computada segundo a expresso (2.30). Desta forma, a rede passa a codicar o seguinte
conjunto de regras nebulosas se-ento R = R

, = 1, . . . , L:
R

: SE (x
1
A

1
1
E w
1
) . . . OU (x
i
A

i
i
E w
i
) . . . OU (x
n
A
n
i
E w
n
) ENTO, z is z

.
(3.25)
possvel vericar que existe uma forte correspondncia entre a estrutura da primeira parte da
rede neurofuzzy e um conjunto de regras fuzzy, ou alternativamente, uma base de regras fuzzy. Alm
disto, o processamento do esquema induzido pela estrutura da rede est de acordo com os princpios
da teoria de conjuntos fuzzy e de raciocnio aproximado (Gomide & Pedrycz, 2007), sendo que a
interpretao para este tipo de modelo amplamente conhecida e pode ser encontrada em (Lin &
Lee, 1996).
A segunda parte formada por uma rede neural clssica de apenas uma camada que, conforme
mencionado anteriormente, tem o propsito de agregar as sadas do sistema de inferncia nebuloso,
fornecendo uma sada para a rede. Assim, a sada do j-simo neurnio de sada dada por:
y
j
= f
_
L

=1
z

v
j
_
, (3.26)
onde f() uma funo de ativao monotnica contnua. Neste trabalho tomou-se como funo de
ativao dos neurnios da camada de sada a funo sigmoidal, i.e., f() = (1 + exp())
1
.
Assim sendo, a dinmica da rede neural nebulosa apresentada na Figura 3.5 pode ser resumida da
seguinte forma:
Passo 1: Calcula-se a matriz A = [a
i
], = 1, . . . , L, i = 1, . . . , n, onde a
i
= A

i
i
(x
i
) a sada
do
i
-simo neurnio nebuloso do tipo I da entrada x
i
que vai na direo do -simo neurnio
lgico na segunda camada;
3.4 Treinamento de Redes Neurais Nebulosas com AP 51
Passo 2: Calcule-se o vetor z = [z

], = 1, . . . , L da seguinte forma:
z

=
n
T
i=1
(a
i
s w
i
) Para neurnios do tipo AND, ou (3.27)
z

=
n
S
i=1
(a
i
t w
i
) para neurnios do tipo OR; (3.28)
Passo 3: Finalmente calcula-se o vetor de sada y = [y
j
], j = 1, . . . , m atravs da expresso (3.26).
Para o caso especial, onde se escolhe a funo min para representar a t-norma na expresso (3.27),
esta pode ser re-escrita na forma:
z

= a

w
T

, (3.29)
onde a

= [a
1
, . . . , a
n
] o vetor contendo a -sima linha da matriz A, w

= [w
1
, . . . , w
n
] o vetor
contendo a -sima linha da matriz W e w
T

denota o transposto de w

. Da mesmo forma, se a funo


max for escolhida para representar a s-norma na equao (3.28), esta pode ser re-escrita na forma:
z

= a

w
T

. (3.30)
A prxima seo apresenta o algoritmo de treinamento com aprendizado participativo para a
classe de redes neurais nebulosas apresentadas nesta seo.
3.4 Treinamento de Redes Neurais Nebulosas com AP
Esta seo prope um novo algoritmo de treinamento baseado no aprendizado participativo (AP)
para a classe de redes neurais nebulosas hbridas da Figura 3.5, apresentadas na seo anterior. Vale
ressaltar que o algoritmo aqui apresentado pode ser estendido para uma grande variedade de classes
de redes neurais nebulosas, bem como para alguns sistemas neuro-nebulosos.
O algoritmo proposto dividido em trs etapas:
Fase 1: Gerao das funes de pertinncia que representamos pesos nebulosos associados primeira
camada de neurnios;
Fase 2: Atualizao dos pesos associados rede neural clssica que representa o agregador no-
linear de sada;
Fase 3: Atualizao dos pesos relacionados aos neurnios lgicos AND/OR que representam o sis-
tema de inferncia nebuloso da rede.
Cada uma destas etapas descrita nas sees a seguir.
52 Redes Neurais Nebulosas com Aprendizado Participativo
3.4.1 Gerao das Funes de Pertinncia
A gerao das funes de pertinncia que implementam os pesos dos neurnios nebulosos do
tipo I na primeira camada da rede apresentada na Figura 3.5 se d por meio do uso do algoritmo
de agrupamento nebuloso fuzzy c-means (Bezdek, 1981), sendo que tanto informaes relativas ao
espao de entrada quanto ao espao de sada so includas neste agrupamento. De forma geral, se
o espao de entrada tem dimenso n e o espao de sada tem dimenso m, o agrupamento feito
no espao n + m-dimensional, sendo que cada um dos centros de grupo encontrados neste espao
projetado no espao de entrada. O resultado desta projeo o valor modal das funes de pertinncia
nos seus respectivos universos de discurso.
Um exemplo da gerao das funes de pertinncia para um problema onde o espao de entrada
bidimensional, x = [x
1
, x
2
] R
2
, e o espao de sada unidimensional, y = y [0, 1], com funes
de pertinncia Gaussianas apresentado na Figura 3.6. As disperses das Gaussianas so ajustadas
de forma a se obter um quadro cognitivo no espao de entrada.
1
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
x
1
x
2
y
Centros dos Grupos
Funes de Pertinncia Geradas
Figura 3.6: Exemplo de Gerao das Funes de Pertinncia para x R
2
e y [0, 1].
3.4 Treinamento de Redes Neurais Nebulosas com AP 53
3.4.2 Atualizao dos Pesos Associados Rede Neural de Agregao
Assim como no captulo anterior, aqui os pesos associados rede neural de agregao (uma rede
neural clssica que faz a agregao ponderada das sadas do sistema de inferncia nebuloso repre-
sentado pela primeira parte da rede) so ajustados atravs do mtodo do gradiente. Assim sendo, a
variao dos pesos v
k
j
associados esta camada para um dado par de treinamento [x
k
, y
k
] em um
determinado instante k, pode ser calculada da seguinte forma:
v
k
j
=
1
(y
k
j
y
k
j
)f

(
k
j
)z
k

(3.31)
onde y
k
j
a sada obtida para o j-simo neurnio na camada de sada, y
k
j
a sada desejada para este
mesmo neurnio, z
k

a sada obtida para o -simo neurnio lgico na segunda camada de neurnios


nebulosos, v
k
j
o peso de conexo entre a j-sima unidade de sada e a -sima unidade na segunda
camada de neurnios nebulosos, f

(
k
j
) = f(
k
j
)(1 f(
k
j
)) a derivada da funo de ativao
dos neurnios na camada de sada avaliada em
k
j
,
k
j
=

L
=1
(v
k
j
z
k

), e
1
[0, 1] a taxa de
aprendizado relativa a esta rede.
Assim, a atualizao dos pesos calculada utilizando v
k
j
para o instante k + 1 de acordo com a
seguinte expresso:
v
k+1
j
= v
k
j
+ v
k
j
(3.32)
3.4.3 Atualizao dos Pesos Associados ao Sistema de Inferncia Nebuloso
Um aspecto importante no desenvolvimento do algoritmo de treinamento proposto neste trabalho
est relacionado com a forma de se ajustar os pesos referentes aos neurnios lgicos AND/OR na
parte da rede que representa o sistema de inferncia nebuloso da rede da Figura 3.5. Nesta seo,
desenvolve-se uma forma alternativa s propostas da literatura para se proceder os ajustes dos pesos
w
i
s, utilizando-se o aprendizado participativo.
Considerando-se as idias apresentadas no incio deste captulo, para que o AP possa ser aplicado
no ajuste dos pesos w
i
s, necessrio encontrar inicialmente uma matriz G
k
= [g
k
i
], associada a
um par de treinamento [x
k
, y
k
], de tal forma que, propagando-se a entrada x
k
atravs da rede, a sada
obtida y
k
para esta rede seja exatamente o vetor y
k
.
Conforme mencionado anteriormente, quando o operador min escolhido para implementar a
t-norma nos neurnios AND ou o operador max utilizado como s-norma nos neurnios OR, a
matriz G
k
pode ser vista como uma matriz relacional (expresses (3.29) e (3.30), respectivamente),
e possvel encontr-la utilizando-se para isso a soluo do problema de estimao apresentada na
seo 2.3.8.
54 Redes Neurais Nebulosas com Aprendizado Participativo
Para isso, necessrio inicialmente se obter os valores de sada z
k

dos neurnios lgicos na


segunda camada da rede, associados com a sada desejada y
k
, de tal forma que, quando propagados
atravs desta camada (expresso (3.26)), se obtenha como sada da rede novamente o vetor y
k
. Assim,
a estimao do vetor z
k
= [z
k

], = 1, . . . , L, deve ser feita a partir de y


k
e da matriz de pesos V
k+1
da
camada de sada , j atualizada conforme apresentado na seo anterior (expresso 3.32), resolvendo-
se o problema de mnimos quadrticos linear restrito:
min
z
k

_
1
2
_
_
_
_
V
k+1
_
T
z
k
f
1
(y
k
)
_
_
_
2
_
sujeito a 0 z
k

1 (3.33)
onde
_
V
k+1
_
T
denota a transposta de V
k+1
e f
1
() a inversa da funo f em (3.26).
A matriz G
k
pode ento ser calculada atravs da soluo do problema de estimao visto anterior-
mente. Este clculo depende da escolha do tipo de neurnio lgico que ir compor a segunda camada
da rede. Assim, se neurnios lgicos do tipo AND forem escolhidos para implementar esta camada, a
matriz G
k
calculada da seguinte forma:
g
k

=
_
a
k

z
k

_
= inf
_
c [0, 1][ a
k

s c z
k

_
, (3.34)
onde a
k

= [a
k
1
, . . . , a
k
n
] a -sima linha da matriz A
k
(obtida atravs da propagao do vetor de
entrada x
k
atravs da primeira camada de neurnios nebulosos) e g
k

= [g
k
1
, . . . , g
k
n
] a -sima linha
da matriz G
k
. O operador denido em (2.19).
Vale relembrar que a soluo dada por (3.34) uma soluo minimal. Isto implica que quando a
equao (3.34) associa um valor igual a zero para um dos elementos da matriz G
k
, isto , g
k
i
= 0, este
elemento pode ser substitudo por qualquer valor no intervalo [0, 1] que o resultado da composio
inf-s a
k

g
k

continuar sendo igual a z


k

, conforme j foi discutido anteriormente. Isto acontece


porque g
k
i
= 0 implica que a
k
i
z
k

e, portanto, o resultado da composio inf-s para este elemento


independe do valor de g
k
i
.
No mbito do processo de treinamento, este fato pode ser interpretado como uma forma de se
dizer que o peso w
k
i
associado ao elemento g
k
i
= 0 j est ajustado para o par de treinamento [x
k
, y
k
]
e, portanto, no deve ser modicado. Para garantir que isto acontea, cria-se uma nova matriz para
representar a informao que chega rede, denotada por

G
k
, onde associa-se o valor do peso w
k
i
ao
elemento g
k
i
quando g
k
i
= 0, ou seja:
g
k
i
=
_
w
k
i
, se g
k
i
= 0
g
k
i
, caso contrrio
(3.35)
J para o caso em que neurnios do tipo OR so escolhidos para implementar a segunda camada
da rede, o clculo de G
k
feito de forma similar, segundo a equao:
3.4 Treinamento de Redes Neurais Nebulosas com AP 55
g
k

=
_
a
k

z
k

_
= sup
_
c [0, 1][ a
k

t c z
k

_
, (3.36)
onde o operador denido em (2.15).
Para este caso, a soluo obtida em (3.36) maximal e, portanto, quando g
k
i
= 1 o peso associado
a este elemento no precisa ser ajustado. A matriz

G
k
pode ento ser calculada da seguinte forma:
g
k
i
=
_
w
k
i
, se g
k
i
= 1
g
k
i
, caso contrrio
(3.37)
possvel vericar que, se a matriz de pesos W
k
= [w
k
i
], = 1, . . . , L, i = 1, . . . , n for sub-
stituda pela matriz

G
k
calculada conforme apresentado e o vetor de entrada x
k
for propagado por
toda a rede, a sada obtida y
k
ser exatamente igual a sada desejada y
k
, o que indica que a matriz

G
k
tambm codica a informao que o par de treinamento [x
k
, y
k
] fornece para a rede. Assim, o grau
de compatibilidade
k
associado observao [x
k
, y
k
] pode ser calculado da seguinte forma:

k
=
1
L n
L

=1
n

i=1
[ g
k
i
w
k
i
[. (3.38)
Aps ser calculado o ndice de compatibilidade
k
associado ao par de treinamento [x
k
, y
k
], pode-
se calcular a variao dos pesos relacionados ao sistema de inferncia nebuloso representado pela
primeira parte da rede, de acordo com a seguinte regra:
w
k
i
=
2
(
k
)
1
k
( g
k
i
w
k
i
), (3.39)
onde
k
o ndice de alerta calculado conforme a expresso (2.35) e
2
a taxa de aprendizado.
Por m, a atualizao dos pesos desta parte da rede feita utilizando-se w
k
i
de acordo com:
w
k+1
i
= w
k
i
+ w
k
i
. (3.40)
A prxima seo fornece uma viso geral dos procedimentos de treinamento propostos, tanto para
redes com neurnios lgicos do tipo AND quanto do tipo OR na segunda camada.
3.4.4 Procedimentos de Treinamento com AP
Considere uma seqncia de pares de treinamento da por [x
k
, y
k
], k = 1, . . . , P, onde P o
nmero total de pares. A seguir, so apresentados os procedimentos gerais para o processo de treina-
mento proposto neste trabalho, para os dois tipos de neurnios lgicos apresentados anteriormente.
Vale ressaltar que, para ser possvel a aplicao do AP a este tipo de rede, necessrio utilizar-se
56 Redes Neurais Nebulosas com Aprendizado Participativo
a funo min para implementar a t-norma nos neurnios AND e a funo max para implementar a
s-norma nos neurnios OR.
Algoritmo de treinamento baseado no AP para redes baseadas em neurnios lgicos do tipo
AND
Oprocedimento completo baseado no aprendizado participativo para redes onde neurnios lgicos
do tipo AND utilizados para implementar a segunda camada de neurnios nebulosos o seguinte:
1. Granularizar o espao de entrada e obter as funes de pertinncia conforme seo 3.4.1;
2. Inicializar os pesos w
i
= 1, . . . , L, i = 1, . . . , n aleatoriamente, no intervalo [0, 1] ;
3. Inicializar os pesos v
j
, j = 1, . . . , m aleatoriamente, no intervalo [0.1, 0.1]
2
;
4. Inicializar o ndice de alerta em
k
= 1
1
;
5. Para cada um dos pares de treinamento [x
k
, y
k
] fazer:
5.1. Calcular os valores a
k
i
, = 1, . . . , L, i = 1, . . . , n propagando-se o vetor de entrada x
k
atravs da primeira camada de neurnios nebulosos;
5.2. Obter o vetor z
k
= [ z
k

], = 1, . . . , L, cujas componentes so as sadas obtidas para os


neurnios lgicos tipo AND atravs da equao relacional:
z
k

= a
k


_
w
k

_
T
; (3.41)
onde w
k

, = 1, . . . , L a -sima linha da matriz de pesos relacionados primeira parte


da rede da Figura 3.5.
5.3. Calcular a sada da rede y
k
= [y
k
j
], utilizando a equao:
y
k
j
= f
_
L

=1
z
k

v
k
j
_
, j = 1, . . . , m.; (3.42)
2
A inicializao dos pesos no intervalo [0.1, 0.1] tem o propsito de evitar o problema de paralisia da rede neural,
pois caso o resultado da ponderao entre pesos e entradas seja um valor muito alto, este coincide com a regio linear da
funo de transferncia do neurnio. Como nesta regio a derivada em qualquer ponto igual a zero, o gradiente tambm
torna-se nulo e conseqentemente no h ajuste de pesos
1
Como a rede ainda no possui crenas a respeito do ambiente, a inicializao de
k
em 1 faz com que esta aprenda
com tudo que lhe ensinado, at que um conhecimento seja obtido.
3.4 Treinamento de Redes Neurais Nebulosas com AP 57
5.4. Calcular o erro de aproximao e
k
= [e
k
j
] j = 1, . . . , m, de acordo com:
e
k
j
= y
k
j
y
k
j
, (3.43)
onde y
k
j
a j-sima componente do vetor de sadas desejadas y
k
;
5.5. Calcular o vetor gradiente de erro da seguinte forma:

k
j
= e
k
j
f

(
k
j
), j = 1, . . . , m, = 1, . . . , L, (3.44)
onde f

(
k
j
) a derivada de f() em
k
j
=

m
j=1
(v
k
j
z
k

);
5.6. Calcular a variao dos pesos relacionados camada de sada v
k
j
de acordo com:
v
k
j
=
1

k
j
z
k

, j = 1, . . . , m, = 1, . . . , L, (3.45)
onde
1
a taxa de treinamento para a camada de sada;
5.7. Atualizar os pesos da camada de sada de acordo com:
v
k+1
j
= v
k
j
+ v
k
j
; (3.46)
5.8. Calcular a sada desejada para os neurnios lgicos AND z
k
= [z
k

], = 1, . . . , L rela-
cionada com a sada desejada desejada da rede y
k
= [y
k
j
], j = 1, . . . , m resolvendo o
seguinte problema de otimizao:
min
z
k

_
1
2
_
_
_
_
V
k+1
_
T
z
k
f
1
(y
k
)
_
_
_
2
_
sujeito a 0 z
k

1, (3.47)
onde V
k+1
= [v
k+1
j
], j = 1, . . . , m, = 1, . . . , L;
5.9. Calcular a matriz G
k
encontrando a soluo do problema de estimao dado por:
g
k

= a
k

z
k

; (3.48)
5.10. Determinar a matriz

G
k
que representa a informao que chega na rede trazida pela obser-
vao [x
k
, y
k
] de acordo com:
g
k
i
=
_
w
k
i
, se g
k
i
= 0
g
k
i
, caso contrrio
, = 1, . . . , L, i = 1, . . . , n; (3.49)
58 Redes Neurais Nebulosas com Aprendizado Participativo
5.11. Calcular o ndice de compatibilidade
k
entre as matrizes W
k
= [w
k
i
] e

G
k
= [ g
k
i
], =
1, . . . , L, i = 1, . . . , n, de acordo com:

k
=
1
L n
L

=1
n

i=1
[ g
k
i
w
k
i
[; (3.50)
5.12. Calcular a variao dos pesos relacionados segunda camada da rede w
k
i
de acordo com:
w
k
i
=
2
(
k
)
1
k
( g
k
i
w
k
i
), (3.51)
onde
2
a taxa de treinamento para esta camada, = 1, . . . , L, i = 1, . . . , n;
5.13. Atualizar os pesos relacionados ao sistema de inferncia nebuloso de acordo com a regra:
w
k+1
i
= w
k
i
+ w
k
i
, = 1, . . . , L, i = 1, . . . , n; (3.52)
5.14. Atualizar o ndice de alerta
k
de acordo com a expresso (3.53) ,onde [0, 1] uma
constante que controla a taxa com a qual a alerta ajustada,

k+1
=
k
+ ((1
k+1
)
k
); (3.53)
6. Repetir os passos 5.1 - 5.14 at que uma tolerncia de erro ou um nmero mximo de iteraes
seja atingido.
Algoritmo de treinamento baseado no AP para redes baseadas em neurnios lgicos do tipo OR
O procedimento baseado no aprendizado participativo para redes compostas por neurnios lgicos
do tipo OR muito similar ao apresentado anteriormente para redes com neurnios AND, sendo que
para obter-se este novo algoritmo necessrio apenas proceder as seguintes alteraes:
1. Substituir a equao utilizada no clculo de z
k

(3.41) por:
z
k

= a
k


_
w
k

_
T
; (3.54)
2. Substituir a equao utilizada para calcular os elementos da matriz G (3.48) por:
g
k

= a
k

z
k

; (3.55)
3.5 Resumo 59
3. Substituir a equao condicional utilizada na determinao da matriz G (3.49) por:
g
k
i
=
_
w
k
i
, se g
k
i
= 1
g
k
i
, caso contrrio
, = 1, . . . , L, i = 1, . . . , n; (3.56)
possvel vericar que nos algoritmos apresentados nesta seo o conhecimento que j se tem a
respeito do problema que est sendo tratado (armazenado nos pesos w
i
) levado em considerao
no ajuste dos pesos da rede da Figura 3.5. Assim, quando um par de treinamento [x, y] fornece rede
uma informao conitante com o conhecimento j armazenado, estes dados tero pouca inuncia
no ajuste dos pesos w
i
. Por outro lado, se o conhecimento fornecido por [x, y] (codicado pela matriz
G) for prxima o suciente do conhecimento j adquirido, ento os dados [x, y] tero forte inuncia
no ajuste dos pesos w
i
. Estes algoritmos podem ser, portanto, classicados como algoritmos de
aprendizado participativo.
Para vericar a eccia dos algoritmos propostos estes foram utilizados no treinamento de redes
neurais nebulosas da Figura 3.5 com o intuito de resolver problemas de modelagem de sistemas
dinmicos no-lineares, bem como de previso de sries temporais. As vantagens da caracterstica
participativa do algoritmo foram vericadas atravs da utilizao de dados no-ideais no treinamento
e posterior anlise de estudos comparativos desta abordagem com mtodos alternativos propostos na
literatura. Os resultados destas anlises so apresentados no Captulo 5.
3.5 Resumo
Este captulo apresentou o procedimento de treinamento proposto neste trabalho, o qual baseado
no aprendizado participativo para uma classe de redes hbridas neurais nebulosas. Inicialmente foi
feita uma anlise sobre os critrios de estabilidade do aprendizado participativo para, em seguida,
se discutir a respeito da convergncia do mtodo. Os algoritmos propostos para redes baseadas em
neurnios lgicos do tipo AND quanto do tipo OR foram detalhados e discutidos.
Captulo 4
Generalizao de Neurnios Nebulosos
4.1 Introduo
Este captulo apresenta o desenvolvimento estrutural para uma nova classe de redes neurais nebu-
losas baseada em generalizaes dos neurnios lgicos apresentados no Captulo 2. O objetivo destas
generalizaes dotar os neurnios nebulosos propostos neste trabalho de uma importante caracters-
tica anloga a dos neurnios biolgicos, a plasticidade neuronal. Esta caracterstica, muito til ao
sistema nervoso, permite o desenvolvimento de alteraes funcionais e estruturais em resposta ex-
perincia e de adaptao a condies mutantes e a estmulos repetidos. Com isso o neurnio biolgico
capaz modicar a forma de processamento de seus circuitos internos dependendo da necessidade
ou da situao em que se encontra (Kandel et al., 2000).
At onde vai o conhecimento do autor, a literatura no sugere um tipo de neurnio articial capaz
de emular esta caracterstica do neurnio biolgico. Assim, os desenvolvimentos propostos neste
captulo visam gerar neurnios nebulosos que possam assumir diferentes formas de processar sinais
de entrada e adaptar seus pesos de conexo, dependendo da necessidade do problema. Estes novos
neurnios podem ser vistos como generalizaes dos neurnios lgicos AND e OR onde a insero de
mais um parmetro, ajustado pelo algoritmo de treinamento, faz com o tipo de processamento interno
do neurnio possa variar de um neurnio puramente AND a um neurnio puramente OR, incluindo
realizaes entre estes dois extremos, a m de melhor se adaptar aos dados de treinamento.
Conforme foi visto na seo 2.4 do captulo 2, os neurnios lgicos AND e OR podem ser
vistos como transformaes no-lineares multivariveis entre hipercubos unitrios, i.e., [0, 1]
n

[0, 1], onde o processamento ocorre em dois nveis. No primeiro nvel, os sinais de entrada (graus
de pertinncia) a = [a
1
, a
2
, . . . , a
n
] so individualmente combinados com os pesos de conexo
w = [w
1
, w
2
, . . . , w
n
], a,w [0, 1]
n
, ou seja, no primeiro nvel so realizadas transformaes
L
1
: (a
i
, w
i
) [0, 1], i = 1, . . . , n. No segundo nvel, uma gerao de agregao global L
2

61
62 Generalizao de Neurnios Nebulosos
feita sobre todos os resultados da combinao das transformaes do primeiro nvel, isto :
z = L
2
[L
1
(a
1
, w
1
), L
1
(a
2
, w
2
), . . . , L
1
(a
n
, w
n
)] . (4.1)
Em um neurnio lgico do tipo AND L
1
executada atravs da realizao do operador lgico or
atravs de uma s-norma, L
1
= or enquanto L
2
executada atravs da realizao do operador lgico
and atravs de uma t-norma, L
2
= and. J a estrutura do neurnio lgico do tipo OR possui uma
estrutura dual ao do neurnio AND, ou seja, para um neurnio OR tem-se que L
1
= and e L
2
= or.
Neste captulo, sugerem-se neurnios nebulosos utilizando os conceitos de uninormas e nullnor-
mas na implementao das transformaes L
1
e/ou L
2
, a m de que uma rede neural nebulosa que
utilize este tipo de neurnio seja mais geral do que quelas que os utilizem neurnios clssicos e
lgicos discutidos anteriormente.
Conforme ser apresentado, estes novos neurnios so capazes de se comportar como qualquer
um dos dois tipos de neurnios lgicos AND e OR, dependendo da necessidade do problema a ser
tratado, a partir do ajuste de um parmetro adicional que controla o tipo que o neurnio assume na
rede. Isto faz com que, para uma rede formada por estes novos tipos de neurnios, o conhecimento
a respeito do problema que se deseja tratar seja armazenado no somente nos pesos de conexo, mas
tambm na prpria forma dos neurnios e, conseqentemente, na estrutura da rede.
Os neurnios nebulosos propostos neste trabalho so mais gerais que os neurnios nebulosos
alternativos discutidos na literatura. A rede neural considerada espelha em sua estrutura um conjunto
de regras se-ento que usam diferentes conectivos em seus antecedentes, diferentemente de todas
as abordagens propostas at o momento, em que s possvel representar um sistema de inferncia
nebuloso que utilize apenas um tipo de conectivo nos antecedentes (Rutkowski & Cpalka, 2005; Hell
et al., 2007b, 2008a).
Nas duas prximas sees deste captulo, desenvolvem-se os procedimentos atravs dos quais
possvel construir as duas unidades de processamento propostas neste trabalho: os Unineurons e os
Nullneurons. Como o prprio nome j diz, os unineurons so baseados no conceito de uninorma
enquanto os nullneurons no conceito de nullnorma. Aps o detalhamento dos processos construtivos,
as sees seguintes se encarregam de sugerir estruturas de redes baseadas nos unineurons e null-
neurons, assim como algoritmos de treinamento para estas redes, provendo assim um novo tipo de
sistema baseado em inteligncia computacional para modelagem de sistemas dinmicos no-lineares,
principal foco deste trabalho.
4.2 Neurnio Nebuloso Baseado em Uninormas: O Unineuron 63
4.2 Neurnio Nebuloso Baseado em Uninormas: O Unineuron
Conforme discutido anteriormente, as uninormas apresentadas na denio 2.4 podem ser uti-
lizadas para implementar a transformao local L
1
e/ou a agregao global L
2
em (4.1). Dependendo
da escolha dos operadores na implementao de L
1
e L
2
, possvel ressaltar trs tipos de possveis
realizaes para um neurnio lgico baseado em uninormas:
I. Agregao baseada em normas triangulares e transformao baseada em uninorma em nvel
local L
1
;
II. Agregao baseada em uninorma em nvel global L
2
e transformao local baseada em normas
triangulares;
III. Transformao e agregao baseada em uninorma em ambos os nveis L
1
e L
2
;
Os casos I e II so discutidos em (Pedrycz, 2006), onde duas categorias de processamento (tipo-
and e tipo-or) so denidas para cada caso, de acordo com o mecanismo de agregao usado no nvel
global no caso I e local no caso II. No caso I, o neurnio tipo-and gerado chamado de neurnio
AND-UNI enquanto que o tipo-or chamado de neurnio OR-UNI. J para o caso II, os neurnios
tipo-and e tipo-or so chamados de neurnio UNI-AND e neurnio UNI-OR, respectivamente.
O caso III no foi discutido na literatura, pois, apesar de seu alto nvel de exibilidade, a inter-
pretao deste tipo de neurnio pode ser extremamente complexa, dada a semntica das uninormas.
Alm disso, segundo (Pedrycz, 2006), o desenvolvimento de algoritmos de treinamento para este tipo
de sistema poderia trazer grandes diculdades. Assim sendo, o objetivo desta seo desenvolver um
neurnio nebuloso baseado na implementao do caso III, de tal forma a preservar a interpretabili-
dade de um modelo nebuloso baseado neste neurnio alm de tornar possvel o desenvolvimento de
um algoritmo de treinamento.
Para construir este neurnio, que pela nomenclatura dada em(Pedrycz, 2006) poderia ser chamado
de neurnio UNI-UNI, mas que aqui ser chamado simplesmente de Unineuron, necessrio ini-
cialmente propor-se uma pequena modicao na uninorma apresentada em (2.3) da seguinte forma:

U(x, y; g) =

g T
_
x
g
,
y
g
_
, se x, y [0, g]
g + (1 g) S
_
xg
1g
,
yg
1g
_
, se x, y [g, 1]
(x, y), caso contrrio.
(4.2)
onde a funo () denida como:
(x, y) =
_
max(x, y) se g [0, 0.5)
min(x, y) se g [0.5, 1]
64 Generalizao de Neurnios Nebulosos
possvel observar em (4.2) que a dominncia da uninorma

U controlada pelo valor do elemento
identidade g.
O processamento do unineuron dado pela funo uni(x, w; g), onde x [0, 1]
n
e w [0, 1]
n
,
assim denido:
uni(a, w; g) =

U
_

U(a
1
, w
1
; (1 g)),

U(a
2
, w
2
; (1 g)), . . . ,

U(a
n
, w
n
; (1 g)); g
_
=
n

U
i=1
_

U(a
i
, w
i
; (1 g)); g
_
(4.3)
Uma caracterstica importante a se observar em (4.3) que a utilizao do termo 1 g como ele-
mento de identidade da uninorma que implementa as transformaes locais L
1
associado utilizao
da varivel g como elemento de identidade da uninorma que representa L
2
faz com que exista uma
espcie de dualidade entre estes operadores, exatamente como acontece com os neurnios lgicos
AND e OR.
De fato possvel demonstrar que, se T e S em (4.2) so duais no sentido de De Morgan (Gomide
& Pedrycz, 2007), ento duas uninormas com elemento de identidade g e 1 g tambm so duais.
Para isso, considere seguinte resultado:
Teorema 4.1 (Dualidade de Uninormas:) Duas uninormas denidas conforme (4.2), onde T e S
so normas triangulares duais no sentido de De Morgan, e com elementos de identidade g e 1 g,
respectivamente, tambm so duais no sentido de De Morgan, isto :

U(x, y; g) = 1
_

U((1 x), (1 y); (1 g))


_
. (4.4)
Demonstrao:
Considere inicialmente que x, y [0, g]. Portanto tem-se que x g e y g e a uninorma

U(x, y; g) computada por:

U(x, y; g) = g T
_
x
g
,
y
g
_
. (4.5)
Por outro lado, se x g e y g, tem-se que (1 x) (1 g) e (1 y) (1 g) e portanto
(1x), (1y) [(1g), 1]. Assim, a uninorma

U((1x), (1y); (1g)) calculada da seguinte
forma:

U((1x), (1y); (1g)) = (1g)+(1(1g))S


_
(1 x) (1 g)
1 (1 g)
,
(1 y) (1 g)
1 (1 g)
_
. (4.6)
4.2 Neurnio Nebuloso Baseado em Uninormas: O Unineuron 65
O clculo do segundo termo da expresso (4.4) pode ser feito da seguinte forma:
1
_

U((1 x), (1 y); (1 g))


_
=
= 1
_
(1 g) + (1 1 + g)S
_
1x1+g
11+g
,
1y1+g
11+g
__
= 1
_
(1 g) + gS
_
gx
g
,
gy
g
__
= 1 1 + g gS
_
1
x
g
, 1
y
g
_
= g
_
1 S
_
1
x
g
, 1
y
g
__
(4.7)
Uma vez que T e S so duais pode-se aplicar a lei de De Morgan para obter-se:
1
_

U((1 x), (1 y); (1 g))


_
= gT
_
x
g
,
x
g
_
, (4.8)
A partir de (4.5) e (4.8) pode-se concluir que:

U(x, y; g) = 1
_

U((1 x), (1 y); (1 g))


_
o que implica que se x, y [0, g] a expresso (4.4) vlida.
Considere agora que x, y [g, 1]. Tem-se que x g e y g e a uninorma

U(x, y; g) calculada
da seguinte forma:

U(x, y; g) = g + (1 g)S
_
x g
1 g
,
x g
1 g
_
. (4.9)
Neste caso, tem-se que (1x) (1g) e (1y) (1g) e portanto (1x), (1y) [0, (1g)].
A uninorma

U((1 x), (1 y); (1 g)) ento computada como:

U((1 x), (1 y); (1 g)) = (1 g)T


_
(1 x)
1 g)
,
(1 y)
1 g)
_
. (4.10)
Procedendo-se um clculo semelhante ao realizado para o caso anterior, tem-se que:
1
_

U((1 x), (1 y); (1 g))


_
=
66 Generalizao de Neurnios Nebulosos
= 1
_
(1 g)T
_
1x
1g
,
1y
1g
__
= 1
_
(1 g)
_
1 S
_
1
gx
1g
, 1
gy
1g
___
= 1
_
(1 g)
_
1 S
_
xg
1g
,
gy
1g
___
(4.11)
o que implica que:
1
_

U((1 x), (1 y); (1 g))


_
= g + (1 g)S
_
x g
1 g
,
y g
1 g
_
. (4.12)
A partir de (4.9) e (4.12) tambm pode-se concluir que:

U(x, y; g) = 1
_

U((1 x), (1 y); (1 g))


_
e portando a expresso (4.4) tambm vlida quando x, y [g, 1].
Para quaisquer outros valores de x e y, a uninorma (4.2) implementada atravs ou do operador
min ou do operador max. Como estes operadores so normas triangulares clssicas e as leis de
De Morgan so vlidas para eles, a expresso (4.4) tambm vlida para estes casos, o que conclui
a demonstrao.
Uma vez que a dualidade vlida para uninormas que utilizam elementos identidade g e 1g, um
unineuron dado por (4.3) que utilize elemento do identidade g dual a um unineuron com elemento
de identidade 1 g, assim como ocorre com os neurnios AND e OR.
Alm disso, quando 0 g < 0.5 a transformao local L
1
se torna uma uninorma and-dominada,
enquanto que a agregao global L
2
se torna uma uninorma or-dominada. Esta situao prov um
neurnio fortemente relacionado a um neurnio do tipo or-and que, sob certos aspectos, se assemelha
a um neurnio lgico do tipo OR. Em particular, quando g = 0 tem-se que o unineuron proposto em
(4.3) equivale a um neurnio lgico do tipo OR, isto , uni(x, w; 0) or(x; w).
Por outro lado, para o caso em que 0.5 g 1 a expresso (4.3) fornece um neurnio fortemente
relacionado a um neurnio do tipo and-or que se assemelha a um neurnio lgico do tipo AND. Neste
caso, quando g = 1 tem-se que o unineuron equivale a um neurnio lgico do tipo AND, isto ,
uni(x, w; 1) and(x; w).
Estes fatos evidenciam a caracterstica de generalizao com relao aos neurnios lgicos AND
e OR dada pelo unineuron aqui proposto.
Um outro aspecto a ser observado que, em geral, a estrutura de neurnio proposta em (4.3) no
requer nenhum tipo de relao (dualidade, por exemplo) entre as realizaes especcas das t-normas
e s-normas, o que pode trazer uma exibilidade ainda maior na construo de uma rede composta por
4.3 Neurnio Nebuloso Baseado em Nullnormas: O Nullneuron 67
estas unidades.
As Figuras 4.2, 4.3 e 4.4 mostram exemplos da superfcie de deciso dada pelo unineuron,
Figura 4.1, para um problema bi-dimensional, ou seja, x, w [0, 1]
2
.
x
1
x
2
w
1
w
2
y = uni(x, w; g) uni
Figura 4.1: Unineuron Aplicado a um Problema Bi-dimensional.
Nestes exemplos, os valores dos pesos foram xados em w
1
= 0.3 e w
2
= 0.8, e o valor do
elemento identidade g foi sendo alterado de forma a mostrar como o comportamento do neurnio
afetado. Cada uma das guras apresenta uma realizao distinta do unineuron, que depende da
escolha das t-normas e s-normas especcas da implementao. Especicamente, na Figura 4.2 foram
escolhidos os operadores min e max para implementar a t-norma e a s-norma, respectivamente. J
na Figura 4.3, as funes escolhidas foram o produto algbrico como t-norma e a soma probabilstica
como s-norma, enquanto que na Figura 4.4, a escolha recaiu sobre o produto limitado como t-norma
e a soma limitada como s-norma.
Pode-se observar nas guras 4.2-4.4 que o comportamento do unineuron abruptamente alterado
quando o valor do elemento identidade g modicado. Observa-se que, quando g = 0, a superfcie de
deciso do unineuron exatamente igual a de um neurnio OR. A medida que o valor de g vai sendo
aumentado, a superfcie de deciso do unineuron vai sendo recortada at assimir a mesma forma da
superfcie de deciso de um neurnio AND.
4.3 Neurnio Nebuloso Baseado em Nullnormas: O Nullneuron
Da mesma forma que para as uninormas, as nullnormas tambm podem ser utilizadas para imple-
mentar as transformaes locais e os agregadores globais (L
1
e L
2
) em (4.1), fornecendo assim uma
outra classe de neurnios nebulosos que neste trabalho so chamados de nullneurons.
Mais uma vez, ser tratado o caso em que nullnormas so utilizadas na implementao da transfor-
mao no nveil local e agregao no nvel global, mantendo entre eles a mesma relao de dualidade
como nos unineurons. Para isso, possvel utilizar a nullnorma apresentada em (2.4) de forma similar
68 Generalizao de Neurnios Nebulosos
Neurnio OR
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
u
n
i
(
x
,
w
;
g
)
(a)
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
u
n
i
(
x
,
w
;
g
)
(b)
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
u
n
i
(
x
,
w
;
g
)
(c)
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
u
n
i
(
x
,
w
;
g
)
(d)
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
u
n
i
(
x
,
w
;
g
)
(e)
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
u
n
i
(
x
,
w
;
g
)
(f)
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
u
n
i
(
x
,
w
;
g
)
(g)
Neurnio AND
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
u
n
i
(
x
,
w
;
g
)
(h)
Figura 4.2: Superfce de Deciso do Unineuron para w=[0.3 0.8], t-norma = min, s-norma = max e:
(a) g = 0, (b) g = 0.1, (c) g = 0.3, (d) g = 0.4, (e) g = 0.5, (f) g = 0.7, (g) g = 0.8, (h) g = 1
4.3 Neurnio Nebuloso Baseado em Nullnormas: O Nullneuron 69
Neurnio OR
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
u
n
i
(
x
,
w
;
g
)
(a)
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
u
n
i
(
x
,
w
;
g
)
(b)
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
u
n
i
(
x
,
w
;
g
)
(c)
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
u
n
i
(
x
,
w
;
g
)
(d)
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
u
n
i
(
x
,
w
;
g
)
(e)
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
u
n
i
(
x
,
w
;
g
)
(f)
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
u
n
i
(
x
,
w
;
g
)
(g)
Neurnio AND
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
u
n
i
(
x
,
w
;
g
)
(h)
Figura 4.3: Superfce de Deciso do Unineuron para w=[0.3 0.8], t-norma = produto algbrico, s-
norma = soma probabilstica e: (a) g = 0, (b) g = 0.1, (c) g = 0.3, (d) g = 0.4, (e) g = 0.5, (f)
g = 0.7, (g) g = 0.8, (h) g = 1
70 Generalizao de Neurnios Nebulosos
Neurnio OR
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
u
n
i
(
x
,
w
;
g
)
(a)
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
u
n
i
(
x
,
w
;
g
)
(b)
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
u
n
i
(
x
,
w
;
g
)
(c)
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
u
n
i
(
x
,
w
;
g
)
(d)
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
u
n
i
(
x
,
w
;
g
)
(e)
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
u
n
i
(
x
,
w
;
g
)
(f)
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
u
n
i
(
x
,
w
;
g
)
(g)
Neurnio AND
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
u
n
i
(
x
,
w
;
g
)
(h)
Figura 4.4: Superfce de Deciso do Unineuron para w=[0.3 0.8], t-norma = produto limitado, s-
norma = soma limitada e: (a) g = 0, (b) g = 0.1, (c) g = 0.3, (d) g = 0.4, (e) g = 0.5, (f) g = 0.7,
(g) g = 0.8, (h) g = 1
4.3 Neurnio Nebuloso Baseado em Nullnormas: O Nullneuron 71
da seo anterior. Entretanto, com a nalidade de se obter um neurnio em que a variao entre
os dois tipos de neurnios lgicos ocorresse de forma mais suave, resolveu-se propor uma forma al-
ternativa de construo. De fato, esta seo mostra como possvel construir um neurnio nebuloso
que varia suavemente (ao invs de abruptamente como ocorre com os unineurons) de um neurnio
lgico do tipo AND para um neurnio lgico do tipo OR a medida que o parmetro u (elemento de
absoro) varia de 0 para 1, utilizando-se para isso uma nova nullnorma, baseada na denio geral
de nullnorma (Denio 2.5) e no operador de compromisso (Denio 2.6). Esta nova nullnorma
dada por:

N(x, y; u) =

C
u
_
S
_

C
u
(x),

C
u
(y)
__
=

C
1u
_
T
_

C
1u
(x),

C
1u
(y)
__
(4.13)
A expresso (4.13) fornece uma realizao contnua para uma famlia de nullnormas. Entretanto,
nesta construo, h uma necessidade de que T e S sejam duas normas triangulares duais com relao
ao complemento nebuloso clssico C(x) = 1 x.
fcil vericar que

N uma nullnorma, pois tem-se que:

N(x, y; u) =

Tx, y para u = 0
1
2
para u =
1
2
Sx, y para u = 1
(4.14)
Alm disso, tem-se tambm que para 0 < u < 0.5, a funo

N se assemelha a uma t-norma,
enquanto, para 0.5 < u < 1, esta funo se assemelha a uma s-norma. Estas semelhanas so mais
visveis quando o parmetro u est mais prximo de 0 ou de 1, respectivamente.
Assim, utilizando-se a expresso (4.13) para implementar os nveis de transformao e agregao
do neurnio, de forma similar ao apresentado para o unineuron, denem-se os nullneurons pela funo
null(x, w; u) da seguinte forma:
null(a, w; u) =

N
_

N(a
1
, w
1
; (1 u)),

N(a
2
, w
2
; (1 u)), . . . ,

N(a
n
, w
n
; (1 u)); u
_
=
n

N
i=1
_

N(a
i
, w
i
; (1 u)); u
_
(4.15)
A principal caracterstica do nullneuron em (4.15) a habilidade de mudar suavemente de um
neurnio lgico do tipo AND para um neurnio lgico do tipo OR. De fato, a caracterstica contnua
e a ausncia de dominnica na funo

N fazem com que as mudanas impostas pela variao do
72 Generalizao de Neurnios Nebulosos
elemento de absoro u ocorra de forma suave. Alm disso, fcil vericar que, quando u = 0, o
nullneuron equivale a um neurnio lgico AND, ou seja, null(x, w; 0) and(x; w), enquanto, para
u = 1, o nullneuron equivale a um neurnio lgico OR, isto , uni(x, w; 1) or(x; w).
Com relao dualidade, possvel vericar diretamente em (4.13) que duas nullnormas que
utilizem elementos de abosoro u e 1 u so duais no sentido de De Morgan, e portanto, de forma
similar ao que ocorre para os unineurons, dois nullneurons com elementos de abosoro u e 1u so
duais, da mesma forma que para os neurnios AND e OR.
Para ilustrar estas propriedades, considere o nullneuron com x, w [0, 1]
2
conforme Figura 4.5,
onde xou-se os valores dos pesos em w
1
= 0.3 e w
2
= 0.8 e variou-se o valor do elemento de
absoro u para 3 diferentes realizaes do nullneuron.
x
1
x
2
w
1
w
2
y = null(x, w; u) null
Figura 4.5: Nullneuron Aplicado Problema Bi-dimensional.
As Figuras 4.6, 4.7 e 4.8 mostam as superfcies de deciso do nullneuron. Em particular, a
Figura 4.6 mostra as superfcies de deciso do nullneuron para valores distintos de u e quando os
operadores min e max so escolhidos para implementar a t-norma e a s-norma em (4.15), respecti-
vamente. Na Figura 4.7 a funo escolhida como t-norma foi o produto algbrico e como s-norma a
soma probabilstica. Por m, na Figura 4.8, a escolha recaiu sobre o produto limitado como t-norma
e a soma limitada como s-norma.
Note que, apesar de, nos pontos extremos u = 0 (g = 1) e u = 1 (g = 0), as superfcies de deciso
serem idnticas para ambos os neurnios, entre estes dois pontos a variao da superfcie dada pelo
nullneuron se d de uma forma mais suave quando comparada com quela dada pelo unineuron.
Conforme pde ser vericado nas duas ltimas sees, unineurons e nullneurons so unidades
de processamento altamente no-lineares que, da mesma forma que os neurnios lgicos AND e
OR, dependem das realizaes especcas dos conectivos utilizados em sua construo, ou seja, das
t-normas e s-normas escolhidas. Estes novos neurnios apresentam tambm um alto potencial de
plasticidade que pode se tornar extremamente til no treinamento de redes neurais nebulosas que
envolvem este tipo de neurnio em sua estrutura.
4.3 Neurnio Nebuloso Baseado em Nullnormas: O Nullneuron 73
Neurnio AND
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
n
u
l
l
(
x
,
w
;
u
)
(a)
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
n
u
l
l
(
x
,
w
;
u
)
(b)
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
n
u
l
l
(
x
,
w
;
u
)
(c)
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
n
u
l
l
(
x
,
w
;
u
)
(d)
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
n
u
l
l
(
x
,
w
;
u
)
(e)
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
n
u
l
l
(
x
,
w
;
u
)
(f)
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
n
u
l
l
(
x
,
w
;
u
)
(g)
Neurnio OR
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
n
u
l
l
(
x
,
w
;
u
)
(h)
Figura 4.6: Superfce de Deciso do nullneuron para w=[0.3 0.8], t-norma = min, s-norma = max e:
(a) u = 0, (b) u = 0.1, (c) u = 0.3, (d) u = 0.4, (e) u = 0.5, (f) u = 0.7, (g) u = 0.8, (h) u = 1
74 Generalizao de Neurnios Nebulosos
Neurnio AND
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
n
u
l
l
(
x
,
w
;
u
)
(a)
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
n
u
l
l
(
x
,
w
;
u
)
(b)
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
n
u
l
l
(
x
,
w
;
u
)
(c)
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
n
u
l
l
(
x
,
w
;
u
)
(d)
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
n
u
l
l
(
x
,
w
;
u
)
(e)
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
n
u
l
l
(
x
,
w
;
u
)
(f)
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
n
u
l
l
(
x
,
w
;
u
)
(g)
Neurnio OR
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
n
u
l
l
(
x
,
w
;
u
)
(h)
Figura 4.7: Superfce de Deciso do nullneuron para w=[0.3 0.8], t-norma = produto algbrico, s-
norma = soma probabilstica e: (a) u = 0, (b) u = 0.1, (c) u = 0.3, (d) u = 0.4, (e) u = 0.5, (f)
u = 0.7, (g) u = 0.8, (h) u = 1
4.3 Neurnio Nebuloso Baseado em Nullnormas: O Nullneuron 75
Neurnio AND
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
n
u
l
l
(
x
,
w
;
u
)
(a)
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
n
u
l
l
(
x
,
w
;
u
)
(b)
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
n
u
l
l
(
x
,
w
;
u
)
(c)
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
n
u
l
l
(
x
,
w
;
u
)
(d)
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
n
u
l
l
(
x
,
w
;
u
)
(e)
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
n
u
l
l
(
x
,
w
;
u
)
(f)
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
n
u
l
l
(
x
,
w
;
u
)
(g)
Neurnio OR
0.0
0.0
0.2
0.2
0.2
0.4
0.4
0.4
0.6
0.6
0.6
0.8
0.8
0.8
1.0
1.0
1.0
x
1
x
2
y
=
n
u
l
l
(
x
,
w
;
u
)
(h)
Figura 4.8: Superfce de Deciso do nullneuron para w=[0.3 0.8], t-norma = produto limitado, s-
norma = soma limitada e: (a) u = 0, (b) u = 0.1, (c) u = 0.3, (d) u = 0.4, (e) u = 0.5, (f) u = 0.7,
(g) u = 0.8, (h) u = 1
76 Generalizao de Neurnios Nebulosos
4.4 Redes Neurais Nebulosas baseadas emNullneurons e Unineu-
rons
Os dois neurnios propostos nas sees anteriores podem ser utilizados nos mais diversos tipos
de estruturas neurais nebulosas existentes. Em particular, todas as estruturas que utilizam neurnios
lgicos em sua composio tambm podem ser construdas utilizando-se unineurons e nullneurons,
em substituio aos neurnios AND e OR. Exemplos destas estruturas podem ser encontrados em
(Pedrycz, 1993; Lin & Lee, 1996; Figueiredo et al., 2004) entre outros.
Neste trabalho, a estrutura escolhida para vericar a aplicao destes novos neurnios lgicos
foi a classe de redes hbridas apresentadas na seo 2.4.2 do Captulo 2. Desta forma, tomou-se a
estrutura mostrada na Figura 3.5, reproduzida na Figura 4.9, e substituiu-se os nernios lgicos na
segunda camada de neurnios nebulosos ora por unineurons ora por nullneurons, obtendo-se assim
dois novos tipos de redes neurais nebulosas a serem aplicadas modelagem de sistemas dinmicos
no lineares.
x
1
x
i
x
n
A
1
1
A

1
1
A

1
1
A
1
i
A

i
i
A

i
i
A
1
n
A
n
n
A
n
n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
11
a
1
a
L1
a
1i
a
ki
a
Li
a
1n
a
kn
a
Ln
w
11
w
k1
w
L1
w
1i
w
ki
w
Li
w
1n
w
kn
w
Ln
uni/null
uni/null
uni/null v
11
v
1k
v
j1
v
1L
v
jk
v
m1
v
jL
v
mk
v
mL

f()
f()
f()
z
1
z
k
z
L
y
1
y
j
ym
Sistema de Inferncia Nebuloso
Rede Neural de Agregao
Figura 4.9: Modelo de rede neural nebulosa recorrente com unineurons e nullneurons
4.4 Redes Neurais Nebulosas baseadas em Nullneurons e Unineurons 77
O processamento para cada uma destas novas redes pode ser resumido conforme apresentado a
seguir.
Processamento da Rede Neural Nebulosa baseada em Unineurons
Passo 1: Calcula-se a matriz A = [a
i
], = 1, . . . , L, i = 1, . . . , n, onde a
i
= A

i
i
(x
i
) a sada
do
i
-simo neurnio nebuloso do tipo I da entrada x
i
que vai na direo do -simo neurnio
lgico na segunda camada;
Passo 2: Calcule-se o vetor z = [z

], = 1, . . . , L da seguinte forma:
z

= uni(a

, w

; g

) =
n

U
i=1
_

U(a
i
, w
i
; (1 g

)); g

_
(4.16)
onde a

um vetor igual linha da matriz A e w

um vetor igual linha da matriz W.


Passo 3: Calcula-se o vetor de sada y = [y
j
], j = 1, . . . , m atravs da expresso:
y
j
= f
_
L

=1
z

v
j
_
, (4.17)
onde f() a funo de ativao dos neurnios da camada de sada. Aqui tambm utilizou-se a
funo sigmoidal, i.e., f() = (1 + exp())
1
.
Processamento da Rede Neural Nebulosa baseada em nullneurons
Passo 1: Calcula-se a matriz A = [a
i
], = 1, . . . , L, i = 1, . . . , n, onde a
i
= A

i
i
(x
i
) a sada
do
i
-simo neurnio nebuloso do tipo I da entrada x
i
que vai na direo do -simo neurnio
lgico na segunda camada;
Passo 2: Calcule-se o vetor z = [z

], = 1, . . . , L da seguinte forma:
z

= null(a

, w

; g

) =
n

N
i=1
_

N(a
i
, w
i
; (1 g

)); g

_
(4.18)
onde a

um vetor igual linha da matriz A e w

um vetor igual linha da matriz W.


Passo 3: Calcula-se o vetor de sada y = [y
j
], j = 1, . . . , m atravs da expresso:
y
j
= f
_
L

=1
z

v
j
_
. (4.19)
78 Generalizao de Neurnios Nebulosos
Vale notar que cada umdos unineurons e nullneurons da rede proposta possui seu prprio parmetro
de plasticidade (elemento de identidade g para unineurons e elemento de absoro u para nullneu-
rons). Este fato, aliado um processo de treinamento que ajuste tais elementos de forma individual,
faz com que cada um dos neurnios que compe a rede possa processar entradas e pesos de conexo
de sua prpria maneira, independente do estado dos demais neurnios.
Em particular, se restries forem impostas de tal forma que, aps o trmino do processo de
treinamento, o valor nal do parmetro de plasticidade pertena ao conjunto 0, 1, tem-se que cada
um dos neurnios na segunda camada de neurnios nebulosos da rede ter se transformado ou em um
neurnio lgico do tipo AND ou em um neurnio lgico do tipo OR.
Tanto o caso em que os parmetros de plasticidade pertencem ao conjunto 0, 1 quanto para
os casos em que estes pertenam ao intervalo [0, 1], a primeira parte da rede hbrida sob estudo
possa representar um sistema de inferncia nebuloso que utiliza mais de um conectivo no antecedente
das regras nebulosas, diferentemente de todos os modelos existentes na literatura, onde apenas um
conectivo pode ser utilizado em cada sistema.
Desta forma, cada um dos neurnios na segunda camada de neurnios nebulosos da rede codi-
caria uma regra nebulosa da forma:
R

: SE (x
1
A

1
1
OU/E w
1
) E/OU (x
2
A

2
2
OU/E w
2
) . . .
. . . E/OU (x
n
A
n
i
OU/E w
n
) ENTO, z is z

,
(4.20)
sendo que a forma exata de cada regra denida pelo processo de treinamento, conforme ser apre-
sentado na seo a seguir.
4.5 Aprendizado para Redes Baseadas em Unineurons e Null-
neurons
Aps a denio da estrutura, o prximo passo se denir a forma com que ser feito o ajuste dos
parmetros dos neurnios que formam a rede. Especial ateno deve ser dada aos novos neurnios
nebulosos propostos neste captulo, pois cada um deles equipado com um signicante grau de
exibilidade paramtrica, que reside tanto em seus pesos de conexo w
i
quanto nos parmetro de
plasticidade g ou u.
Diversos paradigmas de aprendizado podem ser usados no processo de ajuste dos parmetros da
rede. Entre eles, podemos citar, por exemplo, mtodos baseados no gradiente, otimizao por exames
de partculas, algoritmos genticos e regras reforo associativo. O procedimento proposto neste tra-
balho um mtodo hbrido que se baseia no gradiente descendente para fazer o ajuste dos pesos na
camada de sada da rede e em uma regra de reforo associativo para ajustar os pesos associados ao
4.5 Aprendizado para Redes Baseadas em Unineurons e Nullneurons 79
sistema de inferncia nebuloso na primeira parte da rede, bem como os parmetros de plasticidade dos
unineurons e nullneurons. Este procedimento pode ser visto como uma extenso daquele apresentado
em (Ballini & Gomide, 2002), onde uma nova equao baseada na regra de reforo adicionada ao
procedimento para a correo individual dos parmetros g e u.
Neste trabalho, a m de se manter a interpretabilidade do modelo nal, que uma das principais
vantagens da estrutura neural nebulosa proposta, implementou-se ainda uma funo que faz com que
os parmetros de plasticidade g e u convirjam ou para 0 ou para 1, dependendo da necessidade do
problema. Esta convergncia se faz de forma individual nos parmetros, ou seja, no nal da fase
de treinamento, cada um dos neurnios nebulosos na segunda camada da rede ter o valor de seu
parmetro de plasticidade ajustado para 0 ou 1, independentemente do valor dos demais neurnios.
Esta funo dada por:
f
z
(g

) =
1
1 + exp((p
1
g

p
2
))
para unineurons, (4.21)
e
f
z
(u

) =
1
1 + exp((p
1
u

p
2
))
para nullneurons, (4.22)
onde p
1
e p
2
so parmetros da funo. Aqui assumiu-se que p
1
= 10 e p
2
= 5.
O algoritmo de treinamento detalhado a seguir. Para tanto, considere uma seqncia de pares de
treinamento da por [x
k
, y
k
], k = 1, . . . , P, onde P o nmero total de pares.
Aprendizado da Rede Neural Nebulosa baseada em Unineurons
O algoritmo para o aprendizado de redes onde unineurons so utilizados para implementar a
segunda camada de neurnios nebulosos descrito a seguir:
1. Granularizar o espao de entrada, gerando as funes de pertinncia conforme apresentado na
seo 3.4.1 do Captulo 3;
2. Inicializar os pesos w
i
, = 1, . . . , L, i = 1, . . . , n aleatoriamente, no intervalo [0, 1] ;
3. Inicializar os elementos identidade g

, = 1, . . . , L aleatoriamente, no intervalo [0, 1] ;


4. Inicializar os pesos v
j
, j = 1, . . . , m, = 1, . . . , L aleatoriamente, no intervalo [0.1, 0.1] ;
5. Para cada um dos pares de treinamento [x
k
, y
k
] faa:
5.1. Calcular a matriz A
k
propagando-se o vetor de entrada x
k
atravs da primeira camada de
neurnios nebulosos;
80 Generalizao de Neurnios Nebulosos
5.2. Calcular o vetor z
k
= [ z
k

], = 1, . . . , L, contendo as sadas obtidas para os unineurons


atravs da expresso:
z

= uni(a

, w

; g

) =
n

U
i=1
_

U(a
i
, w
i
; (1 g

)); g

_
; (4.23)
5.3. Calcular o vetor de sada obtida da rede y
k
= [y
k
j
], j = 1, . . . , m, utilizando a expresso:
y
k
j
= f
_
L

=1
z
k

v
k
j
_
; (4.24)
5.4. Determinar o vetor com o erro de aproximao e
k
= [e
k
j
], j = 1, . . . , m, de acordo com:
e
k
j
= y
k
j
y
k
j
, (4.25)
onde y
k
j
a j-sima componente do vetor de sadas desejadas y
k
;
5.5. Determinar o vetor gradiente de erro da seguinte forma:

k
j
= e
k
j
f

(
k
j
), (4.26)
onde f

(
k
j
) a derivada de f() em
k
j
=

m
j=1
(v
k
j
z
k

);
5.6. Calcular a variao dos pesos relacionados camada de sada v
k
j
de acordo com:
v
k
j
=
s

k
j
z
k

, (4.27)
onde
s
a taxa de treinamento para a camada de sada;
5.7. Atualizar os pesos da camada de sada de acordo com a regra:
v
k+1
j
= v
k
j
+ v
k
j
; (4.28)
5.8. Calcular a variao dos pesos relacionados segunda camada da rede w
k
i
de acordo com:
w
i
=
1
[1 w
i
] (1 )
2
w
i
, (4.29)
onde 0 <
1
<<
2
< 1 so taxas de aprendizado para os pesos desta camada e o
4.5 Aprendizado para Redes Baseadas em Unineurons e Nullneurons 81
sinal de reforo dado por = 1 , o erro que se deseja minimizar, calculado como:
=
1
2
m

j=0
(y
k
j
y
k
j
)
2
(4.30)
5.9. Atualizar os pesos relacionados ao sistema de inferncia nebuloso de acordo com a regra:
w
k+1
i
= w
k
i
+ w
k
i
; (4.31)
5.10. Calcular a variao dos elementos identidade g
k

de acordo com:
g

=
3
[1 g

] (1 )
4
g

, (4.32)
onde 0 <
3
<<
4
< 1 so taxas de aprendizado para os elementos identidade;
5.11. Atualizar os valores dos elementos identidade de acordo com a regra:
g
k+1

= g
k

+ g
k

; (4.33)
5.12. Aplica-se a funo dada em (4.21) para obter a interpretabilidade;
6. Repetir os passos 5.1 - 5.12 at que uma tolerncia de erro ou um nmero mximo de iteraes
seja atingido.
Treinamento da Rede Neural Nebulosa baseada em nullneurons
O algoritmo para o treinamento de redes onde nullneurons so utilizados para implementar a
segunda camada de neurnios nebulosos muito similar quele apresentado para redes com unineu-
rons, sendo que para obter-se este novo algoritmo necessrio apenas substituir a equao (4.23) pela
seguinte expresso:
z

= null(a

, w

; u

) =
n

N
i=1
_

N(a
i
, w
i
; (1 u

)); u

_
; (4.34)
Alm dos dois algoritmos apresentados, possvel ainda propor um outro processo de treinamento
para redes neurais nebulosas compostas por nullneurons, onde aproveita-se da caracterstica de con-
tinuidade do nullneuron, conforme discutido anteriormente, para se propor um novo procedimento
baseado inteiramente no mtodo do gradiente descendente.
Neste novo procedimento, a variao dos pesos relacionados segunda camada da rede passa
ento a ser calculada com base no gradiente, da seguinte forma:
82 Generalizao de Neurnios Nebulosos
w
i
=

w
i
[null(a

, w

; u

)]
m

j=1
v
j
(y
j
y
j
)f

(
j
) a
i
(4.35)
onde [null(a

, w

; u

)]/ w
i
a derivada parcial da funo null(a

, w

; u

) com relao aos pesos


w
i
. O clculo desta derivada depende da escolha da t-norma e da s-norma que sero usadas na
implementao dos nullneurons. Para exemplicar o processo de clculo, adotou-se aqui o produto
algbrico como t-norma e a soma probabilstica como s-norma. Para estas normas o clculo da
derivada mencionada acima dado por:

w
i
[null(a

, w

; u

)] = (1 2u

)
4

c=1

N
u

(a
c
)
n

=1
=c
_
1

N
u

(
c
)
_

(4.36)
onde
c
=

C
u

(

C
u

(a
c
)

C
u

(w
c
)).
Alm da variao dos pesos w
i
, a variao dos elementos de absoro u

tambm calculada
com base no mtodo do gradiente. Assim, de forma similar ao apresentado para os pesos, a variao
dos elementos de absoro calculada da seguinte forma:
u

=

u

[null(a

, w

; u

)]
m

j=1
v
j
(y
j
y
j
)f

(
j
) (4.37)
Uma vez que se utilizou a equao 4.22 para se manter a interpretabilidade do modelo, o operador
de compromisso dado em (2.5) toma a seguinte forma:

C
fz(u

)
(a) = (1 f
z
(u

))C(a) + f
z
(u

)a (4.38)
e a equao (4.36) pode ser re-escrita como

w
i
[null(a

, w

; u

)] = (1 2f
z
(u

))
4

c=1

C
fz(u

)
(a
c
)
n

=1
=c
_
1

C
fz(u

)
(

)
_

.
(4.39)
Desta forma, a derivada [null(a

, w

; u

)]/ u
k
pode ser calculada da seguinte forma:
4.6 Resumo 83

[null(a

, w

; u

)] = (1 2f
z
(u

))

u

f
z
(u

)
_
n

c=1
_

u

h(a
c
, w
c
, f
z
(u

))

=1
=c
(h(a

, w

, f
z
(u

))

+

u

f
z
(u

)
_
1 2
n

c=1
h(a
c
, w
c
, f
z
(u

))
_
(4.40)
onde
h(a
c
, w
c
, f
z
(u

)) = 1

C
fz(u

)
(q(a
c
, w
c
, f
z
(u

))) (4.41)
q(a
c
, w
c
, f
z
(u

)) =

C
fz(u

)
((a
c
, w
c
, f
z
(u

))) (4.42)
(a
c
, w
c
, f
z
(u

)) =

C
fz(u

)
(a
c
)

C
fz(u

)
(w
c
) (4.43)
e as derivadas das equaes (4.41)-(4.43) podem ser facilmente obtidas.
Note mais uma vez que, em todos os procedimentos apresentados, o ajuste dos parmetros de
plasticidade feito individualmente, permitindo assim que o modelo obtido no nal do processo de
treinamento seja mais geral do que se a rede neural nebulosa que o implementa fosse composta apenas
por neurnios do tipo AND ou OR.
Para vericar esta armao, as redes e procedimentos propostos neste captulo foram empre-
gadas na modelagem de sistemas dinmicos no-lineares, sendo que os resultados obtidos foram
comparados com os diversos tipos de modelos baseados em inteligncia computacional propostos na
literatura. Estes resultados so apresentados no prximo captulo.
4.6 Resumo
Neste captulo, introduziram-se duas novas classes de neurnios nebulosos baseadas nos conceitos
de uninormas e nullnormas. Estes neurnios, chamados respectivamente de unineurons e nullneu-
rons, apresentam uma importante caracterstica dos neurnios biolgicos, chamada de plasticidade
neuronal, atravs da qual um neurnio capaz de alterar seus mecanismos internos de processamento
dependendo da situao ou da necessidade de aprendizagem em que este se encontre.
Esta caracterstica, associada a um algoritmo de treinamento que ajusta individualmente a forma
com que cada neurnio processa os sinais de entrada e pesos de conexo, faz com que uma rede neural
nebulosa composta por estes novos tipos de neurnios se adapte melhor a um conjunto de dados de
84 Generalizao de Neurnios Nebulosos
treinamento, se tornando, assim, mais geral do que as alternativas propostas na literatura.
Alm disso, se algumas restries forem impostas durante o treinamento o modelo nal obtido,
alm de apresentar um alto grau de interpretabilidade, pode representar um sistema de inferncia
nebuloso que emprega mais de um conectivo lgico no antecedente das regras nebulosas, sendo que
o tipo de conectivo decidido pelo processo de treinamento.
Captulo 5
Resultados Experimentais e Aplicaes
5.1 Introduo
Este captulo apresenta resultados de simulaes e aplicaes a problemas de modelagem de sis-
temas dinmicos no-lineares. Coma nalidade de mostrar a abrangncia de aplicao dos algoritmos
propostos neste trabalho, foram abordadas duas classes de problemas, predio de sries temporais e
identicao de sistemas.
Para a primeira destas classes, considerou-se previso de carga de curto prazo, onde o objetivo
prever, com base em dados histricos, o consumo de energia eltrica para a prxima hora de operao
em uma determinada regio durante um perodo de 24 horas.
A segunda classe considera dois problemas. O primeiro deles o problema clssico do forno a
gs de Box & Jenkins (Box & Jenkins, 1994), onde, a partir de dados relativos ao uxo de metano
utilizado no forno, deseja-se estimar a concentrao de CO
2
na sada do forno. O segundo problema
consiste na modelagem do comportamento trmico de transformadores de potncia, sendo que, a
partir de dados relativos ao carregamento eltrico (em termos da corrente de carga) e da temperatura
externa, pretende-se inferir as temperaturas internas do equipamento.
Os algoritmos desenvolvidos neste trabalho foram empregados para construir os modelos de pre-
viso e do comportamento trmico de transformadores. Em particular, cinco modelos foram desen-
volvidos a partir dos algoritmos propostos neste trabalho, conforme descrito a seguir:
1. Rede neural nebulosa composta por neurnios AND na segunda camada da rede e treinada com
o aprendizado participativo (AND-AP);
2. Rede Neural Nebulosa composta por neurnios OR na segunda camada da rede e treinada acom
o aprendizado participativo (OR-AP);
85
86 Resultados Experimentais e Aplicaes
3. Rede Neural Nebulosa composta por unineurons na segunda camada da rede e treinada com o
algoritmo baseado no reforo associativo (UNI-R);
4. Rede Neural Nebulosa composta por nullneurons na segunda camada da rede e treinada com o
algoritmo baseado no reforo associativo (NULL-R);
5. Rede Neural Nebulosa composta por nullneurons na segunda camada da rede e treinada com o
mtodo do gradiente (NULL-G);
Para avaliar os cinco modelos desenvolvidos, estabeleceram-se as quatro mtricas de desempenho
que, geralmente, so empregadas na literatura para este tipo de avaliao. Estas mtricas so o Erro
Quadrtico Mdio (MSE
1
), a Raiz Quadrada do EQM (RMSE
2
), o ndice de Erro No-Dimensional
(NDEI
3
) e o erro percentual mdio (MAPE
4
). Estas mtricas so calculadas atravs das seguintes
expresses:
MSE =
1
P
P

k=1
(y
k
y
k
)
2
(5.1)
RMSE =

_
1
P
P

k=1
(y
k
y
k
)
2
(5.2)
NDEI =
RMSE
std(y
k
)
, k = 1, . . . , P (5.3)
MAPE =
1
P
P

k=1
[y
k
y
k
[
100
y
k
(5.4)
onde y
k
e y
k
so respectivamente a sada desejada e a sada obtida pela rede para a k-sima entrada,
std(y
k
) o desvio padro para os valores y
k
e P o nmero total de pares de treinamento considera-
dos.
Em todos os casos foram, feitas diversas realizaes de cada um dos modelos implementados,
incluindo os modelos de comparao MLP e ANFIS. Assim, os procedimentos de inicializao,
treinamento e teste foram executados dez vezes para cada um dos modelos em cada um dos problemas
apresentados, a m de se reduzir o efeito da aleatoriedade da inicializao. Os resultados obtidos por
1
do ingls Mean Square Error
2
do ingls Root Mean Square Error
3
do ingls Non-dimentional Error Index
4
do ingls Mean Average Percentage Error
5.2 Predio de Sries Temporais 87
este modelos com base nas mtricas estabelecidas acima para as melhores realizaes de cada modelo
so apresentados nas sees a seguir.
5.2 Predio de Sries Temporais
H, atualmente, uma vasta literatura que mostra a relevncia da previso de sries temporais
em diversos contextos, com exemplos que abrangem desde aplicaes em medicina, medindo as
irregularidade das batidas do corao; passam pelas pesquisas em hidrologia, prevendo variveis
de recursos hdricos; e chegam at as aplicaes em economia, observando o comportamento da
volatilidade do mercado nanceiro (Ballini et al., 2000). A predio de sries temporais permite que
valores futuros de uma varivel sejam previstos tomando-se por base apenas seus valores presentes e
passados.
Para vericar a eccia dos modelos propostos para esta classe de problemas, estes foram em-
pregados na previso de carga de curto prazo, que constitui um dos mais importantes problemas no
contexto do planejamento energtico brasileiro. Os resultados obtidos so apresentados a seguir.
5.2.1 Previso de Carga de Curto Prazo
Na operao de um sistema de energia eltrica, uma etapa importante a determinao da pro-
gramao da operao diria, a qual determina um plano de produo de energia eltrica para o(s)
prximos(s) dia(s) para cada uma das unidades geradoras do sistema, geralmente em base horria.
Esta operao feita a partir de previses de como ser o comportamento da consumo do sistema,
analisando-se umconjunto de dados que contmo histrico deste comportamento emumdeterminado
perodo de tempo.
Especicamente, no contexto do planejamento da operao de curto prazo de sistemas de energia
eltrica, a previso da carga importante na elaborao do programa de operao diria, em anlises
de segurana e estabilidade, pois erros na previso da carga podem ter conseqncias srias emtermos
da ecincia e segurana do sistema, como aumento de custos e no atendimento da demanda. Assim,
uma previso de boa qualidade essencial, pois melhora o atendimento da demanda, aumentando a
ecincia e a conabilidade do sistema (Gross & Galiana, 1987).
Diversos trabalhos na literatura sugerem que redes neurais nebulosas so alternativas promissoras
para obter modelos preditivos de curto prazo para previso de carga em sistemas eltricos de potncia
(Ling et al., 2003; Chauhan et al., 2005). Neste contexto, os algoritmos propostos neste trabalho foram
empregados a este problema e os resultados dos modelos so comparados entre si e com abordagens
alternativas sugeridas na literatura.
88 Resultados Experimentais e Aplicaes
Para realizar o treinamento de todos os modelos implementados, utilizou-se uma base de dados
composta por medies horrias do consumo de energia em uma regio residencial da cidade de So
Paulo, fornecida pela empresa Eletropaulo Metropolitana Eletricidade de So Paulo S.A., no perodo
compreendido entre abril de 2000 a abril de 2001. A Figura 5.1 ilustra um perodo da base de dados
de treinamento compreendido entre os dias 13/04/2001 e 19/04/2001.
20 40 60 80 100 120 140 160
2.5
3.0
3.5
4.0
4.5
5.0
5.5
6.0
6.5
7.0
7.5
Tempo (horas)
C
o
n
s
u
m
o
(
G
W
h
)
Figura 5.1: Curva de carga para o perodo de 13 a 19 de abril de 2001.
J a base de dados utilizada nos testes foi composta por medies horrias feitas para o dia 16 de
maio de 2001. A Figura 5.2 apresenta a curva de carga para a semana compreendida entre os dias 13
e 19 de maio de 2001, na qual esto inseridas as 24 horas que se deseja prever (16/05/2001).
Utilizando-se funes de auto-correlao parciais Ballini et al. (2000), foram adotadas duas var-
iveis de entrada para todos os modelos testados, sendo elas o valor da carga C com um e dois passos
atrs (uma e duas horas anteriores), ou seja, x = [q
1
C, q
2
C], onde q
s
o operador de atraso em
s passos. O valor da carga no instante atual C foi tomado como sendo a sada desejada de todas os
modelos implementados. Os dados de entrada e sada foram normalizados no intervalo [0,1].
Alm dos modelos de redes neurais nebulosas propostos neste trabalho, foram implementados
modelos de redes neurais propostos na literatura. A nalidade comparar os resultados aqui obti-
dos com abordagens alternativas que j se mostraram, em termos de performance de erro e custos
computacionais, superiores maioria dos modelos clssicos empregados para o mesmo m. Entre
os modelos propostos na literatura considerou-se uma rede Perceptron de mltiplas camadas (MLP)
(Haykin, 1998), um sistema de inferncia nebuloso neuro-adaptativo (ANFIS) (Jang, 1993) e duas
5.2 Predio de Sries Temporais 89
0 20 40 60 73 80 96 120 140 160
2.5
3.0
3.5
4.0
4.5
5.0
5.5
6.0
6.5
7.0
7.5
16/05/2001
Tempo (horas)
C
o
n
s
u
m
o
(
G
W
h
)
Figura 5.2: Curva de carga para o perodo de 13 a 19 de maio de 2001.
verses da rede neural nebulosa apresentada na seo 3.3, sendo que a primeira delas implementada
utlizando-se apenas neurnios AND na segunda camada da rede (NN-AND) e a segunda verso
implementada utilizando-se apenas neurnios OR nesta camada (NN-OR) (Hell et al., 2007a, 2008a).
Ambas as verses so treinadas atravs de uma regra de reforo associativo.
A previso feita aqui do tipo um passo a frente, na qual o valor estimado pelo modelo no instante
anterior no utilizado na previso do instante seguinte. A Tabela 5.1 apresenta a estrutura de cada
um dos modelos empregados ao problema de previso de carga, bem como o tipo de treinamento
utilizado com cada um deles.
Note que o modelo MLP o nico que tem uma estrutura diferenciada. Isto se deve ao fato
deste modelo tambm ser o nico a possuir uma estrutura totalmente conectada, o que faz com que,
mesmo com um nmero menor de neurnios por camada, este apresente o mesmo nmero de pesos de
conexo que os dos demais modelos. J o modelo ANFIS foi implementado com 64 regras nebulosas,
o que tambmfornece o mesmo nmero de parmetros a seremajustados, se comparado comos outros
modelos.
Com a nalidade de avaliar as caractersticas de todos os modelos, dois casos de previso so con-
siderados nesta seo. No primeiro caso (Caso 1), os dados utilizados durante a fase de treinamento
no contm nenhum dia especial presente nos pers de carga. Isto quer dizer que, em todo o perodo
no qual foram coletadas as informaes presentes na base de dados de treinamento (01/04/2000 a
01/04/2001), no ocorreu nenhum tipo de evento especial que pudesse modicar a caracterstica
90 Resultados Experimentais e Aplicaes
Tabela 5.1: Parmetros Estruturais dos Modelos Implementados - Previso de Carga
Modelo N

de Camadas Neurnios por Camada N

de Pesos Tipo de Treinamento


MLP 3 [15 10 1] 190 Gradiente (GD)
ANFIS 5 [16 64 64 1 1] 192 Gradiente (GD)
NN-AND 3 [16 64 1] 192 GD + Reforo (RA)
NN-OR 3 [16 64 1] 192 GD + RA
AND-AP 3 [16 64 1] 192 AP
OR-AP 3 [16 64 1] 192 AP
UNI-R 3 [16 64 1] 192 GD + RA
NULL-R 3 [16 64 1] 192 GD + RA
NULL-G 3 [16 64 1] 192 Gradiente (GD)
sazonal da carga.
De forma contrria ao primeiro caso, no segundo caso (Caso 2), foram introduzidos na base de
dados de treinamento os pers de carga de alguns dias especiais, nos quais algum tipo de evento
no sazonal altera de forma signicativa a demanda de energia nestes perodos. Como exemplo
gerais destes eventos no sazonais pode-se, citar um show musical realizado na praia de Copacabana
para aproximadamente 1.000.000 de pessoas, blackout locais (queda de energia em toda uma regio)
causada por descargas atmosferas ou por causas acidentais, entre outros. A Figura 5.3 apresenta
exemplos deste eventos anmalos, onde o crculo explicita a alterao causada por estes nos pers de
carga.
Assim, todos os modelos implementados foram treinados com as duas bases de dados descritas.
Os testes de desempenho foram ento realizados com base na previso do consumo de energia para
as 24 horas do dia 16/05/2001 (Quarta-Feira). Vale ressaltar que o perl de carga do dia 16/05/2001
um perl normal, ou seja, no ocorreu nenhum evento especial neste dia.
A Tabela 5.2 apresenta os resultados obtidos por todos os modelos para o Caso 1, enquanto as
Figuras 5.4 e 5.5 mostram gracamente o resultado da previso para o mesmo caso, tambm para
todos os modelos.
Analisando os resultados apresentados para o Caso 1, observa-se que todos os modelos propostos
neste trabalho apresentam uma performace superior, tanto em termos das mtricas de erro, quanto
com relao aos custos computacionais envolvidos, se comparados com os mtodos alternativos pro-
postos na literatura. Em particular, os modelos baseados no unineurons e nullneurons apresentaram
as melhores performances de erro com os mais baixos custos computacionais (quando associados
ao treinamento por reforo associativo). Este fato demonstra experimentalmente a caracterstica de
generalizao dos modelos baseados nestes novos neurnios, pois, se comparados com os demais
mtodos (incluindo-se a abordagens baseadas em redes nebulosas compostas exclusivamente por
5.2 Predio de Sries Temporais 91
0 50 100 150 200 250 300 350 400 450 500
2.5
3.0
4.0
5.0
6.0
7.0
8.0
9.0
Normal Show Musical Blackout Local
Tempo (horas)
C
o
n
s
u
m
o
(
G
W
h
)
Figura 5.3: Curva de carga com pers anmalos.
neurnios AND ou neurnios OR), estes modelos foram os que melhor se ajustaram ao conjunto
de dados de treinamento, conseguindo capturar uma maior quantidade de informao a respeito da
dinmica do sistema do que os seus pares.
Vale salientar tambm que, um dos maiores desaos em problemas de previso de carga est rela-
cionado previso dos picos de carga dirios, pois o rpido aumento no valor da carga apresentado
durante estes picos torna a previso uma tarefa complexa (Jin et al., 2005). Neste sentido, os mod-
elos baseados no unineurons e nullneurons tambm apresentam as melhores performances, sendo os
modelos que melhor aproximam os picos de carga.
J para o Caso 2, o cenrio diferente. Conforme pode ser observado nos resultados da Tabela 5.3
e nos grcos das Figuras 5.6 e 5.7, os nicos modelos capazes de manter um desempenho similar ao
apresentado para o Caso 1 foram aqueles que utilizam o algoritmo de treinamento baseado no apren-
dizado participativo (AND-AP e OR-AP). Isto se deve ao fato de que os pers anmalos introduzidos
na base de treinamento so vistos pelo algoritmo de treinamento destes modelos como sendo muito
distantes da crena que estes tem a respeito do ambiente e, portanto, no so levados em consider-
ao durante o aprendizado. Os demais modelos no possuem este discernimento a respeito do que
aprender, incorporando tudo o que lhes apresentado durante o treinamento, fazendo com que estes
no sejam robustos a dados no representativos daquilo que se deseja prever, como acontece com os
modelos baseados no AP.
De fato, sempre que erros de medio ou dados esprios esto presentes na base de dados de
92 Resultados Experimentais e Aplicaes
0 2 4 6 8 10 12 14 16 18 20 22 24
0.00
0.05
0.10
0.15
0.20
0.25
0.30
0.35
0.40
0.45
0.50
0.55
0.60
0.65
(a)
Sada Desejada
Sada MLP
Tempo (horas)
C
a
r
g
a
(
N
o
r
m
a
l
i
z
a
d
a
)
0
2 4 6 8 10 12 14 16 18 20 22 24
0.00
0.05
0.10
0.15
0.20
0.25
0.30
0.35
0.40
0.45
0.50
0.55
0.60
0.65
(b)
Sada Desejada
Sada ANFIS
Tempo (horas)
C
a
r
g
a
(
N
o
r
m
a
l
i
z
a
d
a
)
0
2 4 6 8 10 12 14 16 18 20 22 24
0.00
0.05
0.10
0.15
0.20
0.25
0.30
0.35
0.40
0.45
0.50
0.55
0.60
0.65
(c)
Sada Desejada
Sada NN-AND
Tempo (horas)
C
a
r
g
a
(
N
o
r
m
a
l
i
z
a
d
a
)
0
2 4 6 8 10 12 14 16 18 20 22 24
0.00
0.05
0.10
0.15
0.20
0.25
0.30
0.35
0.40
0.45
0.50
0.55
0.60
0.65
(d)
Sada Desejada
Sada NN-OR
Tempo (horas)
C
a
r
g
a
(
N
o
r
m
a
l
i
z
a
d
a
)
0
2 4 6 8 10 12 14 16 18 20 22 24
0.00
0.05
0.10
0.15
0.20
0.25
0.30
0.35
0.40
0.45
0.50
0.55
0.60
0.65
(e)
Sada Desejada
Sada AND-AP
Tempo (horas)
C
a
r
g
a
(
N
o
r
m
a
l
i
z
a
d
a
)
Figura 5.4: Resultados para previso de carga - Caso 1: (a) MLP, (b) ANFIS, (c) NN-AND, (d)
NN-OR, (e) AND-AP
5.2 Predio de Sries Temporais 93
0
2 4 6 8 10 12 14 16 18 20 22 24
0.00
0.05
0.10
0.15
0.20
0.25
0.30
0.35
0.40
0.45
0.50
0.55
0.60
0.65
(f)
Sada Desejada
Sada OR-AP
Tempo (horas)
C
a
r
g
a
(
N
o
r
m
a
l
i
z
a
d
a
)
0
2 4 6 8 10 12 14 16 18 20 22 24
0.00
0.05
0.10
0.15
0.20
0.25
0.30
0.35
0.40
0.45
0.50
0.55
0.60
0.65
(g)
Sada Desejada
Sada UNI-R
Tempo (horas)
C
a
r
g
a
(
N
o
r
m
a
l
i
z
a
d
a
)
0
2 4 6 8 10 12 14 16 18 20 22 24
0.00
0.05
0.10
0.15
0.20
0.25
0.30
0.35
0.40
0.45
0.50
0.55
0.60
0.65
(h)
Sada Desejada
Sada NULL-R
Tempo (horas)
C
a
r
g
a
(
N
o
r
m
a
l
i
z
a
d
a
)
0
2 4 6 8 10 12 14 16 18 20 22 24
0.00
0.05
0.10
0.15
0.20
0.25
0.30
0.35
0.40
0.45
0.50
0.55
0.60
0.65
(i)
Sada Desejada
Sada NULL-G
Tempo (horas)
C
a
r
g
a
(
N
o
r
m
a
l
i
z
a
d
a
)
Figura 5.5: Resultados para previso de carga - Caso 1: (f) OR-AP, (g) UNI-R, (h) NULL-R, (i)
NULL-G
94 Resultados Experimentais e Aplicaes
0 2 4 6 8 10 12 14 16 18 20 22 24
0.00
0.05
0.10
0.15
0.20
0.25
0.30
0.35
0.40
0.45
0.50
0.55
0.60
0.65
(a)
Sada Desejada
Sada MLP
Tempo (horas)
C
a
r
g
a
(
N
o
r
m
a
l
i
z
a
d
a
)
0
2 4 6 8 10 12 14 16 18 20 22 24
0.00
0.05
0.10
0.15
0.20
0.25
0.30
0.35
0.40
0.45
0.50
0.55
0.60
0.65
(b)
Sada Desejada
Sada ANFIS
Tempo (horas)
C
a
r
g
a
(
N
o
r
m
a
l
i
z
a
d
a
)
0
2 4 6 8 10 12 14 16 18 20 22 24
0.00
0.05
0.10
0.15
0.20
0.25
0.30
0.35
0.40
0.45
0.50
0.55
0.60
0.65
(c)
Sada Desejada
Sada NN-AND
Tempo (horas)
C
a
r
g
a
(
N
o
r
m
a
l
i
z
a
d
a
)
0
2 4 6 8 10 12 14 16 18 20 22 24
0.00
0.05
0.10
0.15
0.20
0.25
0.30
0.35
0.40
0.45
0.50
0.55
0.60
0.65
(d)
Sada Desejada
Sada NN-OR
Tempo (horas)
C
a
r
g
a
(
N
o
r
m
a
l
i
z
a
d
a
)
0
2 4 6 8 10 12 14 16 18 20 22 24
0.00
0.05
0.10
0.15
0.20
0.25
0.30
0.35
0.40
0.45
0.50
0.55
0.60
0.65
(e)
Sada Desejada
Sada AND-AP
Tempo (horas)
C
a
r
g
a
(
N
o
r
m
a
l
i
z
a
d
a
)
Figura 5.6: Resultados para previso de carga - Caso 2: (a) MLP, (b) ANFIS, (c) NN-AND, (d)
NN-OR, (e) AND-AP
5.2 Predio de Sries Temporais 95
0
2 4 6 8 10 12 14 16 18 20 22 24
0.00
0.05
0.10
0.15
0.20
0.25
0.30
0.35
0.40
0.45
0.50
0.55
0.60
0.65
(f)
Sada Desejada
Sada OR-AP
Tempo (horas)
C
a
r
g
a
(
N
o
r
m
a
l
i
z
a
d
a
)
0
2 4 6 8 10 12 14 16 18 20 22 24
0.00
0.05
0.10
0.15
0.20
0.25
0.30
0.35
0.40
0.45
0.50
0.55
0.60
0.65
(g)
Sada Desejada
Sada UNI-R
Tempo (horas)
C
a
r
g
a
(
N
o
r
m
a
l
i
z
a
d
a
)
0
2 4 6 8 10 12 14 16 18 20 22 24
0.00
0.05
0.10
0.15
0.20
0.25
0.30
0.35
0.40
0.45
0.50
0.55
0.60
0.65
(h)
Sada Desejada
Sada NULL-R
Tempo (horas)
C
a
r
g
a
(
N
o
r
m
a
l
i
z
a
d
a
)
0
2 4 6 8 10 12 14 16 18 20 22 24
0.00
0.05
0.10
0.15
0.20
0.25
0.30
0.35
0.40
0.45
0.50
0.55
0.60
0.65
(i)
Sada Desejada
Sada NULL-G
Tempo (horas)
C
a
r
g
a
(
N
o
r
m
a
l
i
z
a
d
a
)
Figura 5.7: Resultados para previso de carga - Caso 2: (f) OR-AP, (g) UNI-R, (h) NULL-R, (i)
NULL-G
96 Resultados Experimentais e Aplicaes
Tabela 5.2: Resultados para Previso de Carga - Caso 1
Modelo N

de pocas Tempo de Trein. (min.) MSE RMSE NDEI MAPE (%)


MLP 20000 29,56 0,0010 0,0318 0,2135 7,95
ANFIS 15000 26,06 0,0006 0,0251 0,1637 5,25
NN-AND 15000 19,77 0,0004 0,0199 0,1252 4,88
NN-OR 15000 19,61 0,0005 0,0225 0,1411 4,79
AND-AP 11000 22,57 0,0002 0,0138 0,0876 4,26
OR-AP 11000 22,21 0,0003 0,0161 0,1114 4,22
UNI-R 10000 19,39 0,0002 0,0143 0,0938 3,70
NULL-R 10000 19,25 0,0001 0,0103 0,0661 3,68
NULL-G 10000 21,89 0,0001 0,0099 0,0650 3,42
Tabela 5.3: Resultados para Previso de Carga - Caso 2
Modelo N

de pocas Tempo de Trein. (min.) MSE RMSE NDEI MAPE (%)


MLP 20000 29,15 0,0034 0,0582 0,3914 13,74
ANFIS 15000 25,87 0,0018 0,0425 0,3607 12,79
NN-AND 15000 19,09 0,0015 0,0387 0,3222 11,83
NN-OR 15000 18,91 0,0014 0,0376 0,2926 11,71
AND-AP 11000 22,24 0,0002 0,0128 0,1018 4,61
OR-AP 11000 22,01 0,0002 0,0147 0,1064 4,56
UNI-R 10000 18,13 0,0009 0,0292 0,2057 8,28
NULL-R 10000 18,65 0,0009 0,0300 0,2342 8,19
NULL-G 10000 21,19 0,0010 0,0309 0,2388 8,16
treinamento, os sistemas baseados no AP apresentam melhor desempenho na modelagem do com-
portamento normal do problema. Anlises similares realizadas nas prximas sees conrmaro esta
armao.
5.3 Aplicaes a Problemas de Identicao de Sistemas
O intuito dos estudos em identicao de sistemas dinmicos o de, considerando uma seqncia
de observaes a respeito de um sistema real, obter-se uma realizao paramtrica de um sistema
matemtico que consiga apresentar o mesmo comportamento dinmico do sistema real quando ambos
so submetidos s mesmas entradas.
Da mesma forma que para os problemas de previso de sries temporais, tambm existe uma vasta
literatura para problemas de identicao de sistemas, com aplicaes nos mais diversos campos da
5.3 Aplicaes a Problemas de Identicao de Sistemas 97
cincia. Neste trabalho, foram considerados dois problemas especcos a serem tratados pelos mod-
elos aqui propostos. O primeiro destes problemas o problema clssico do forno a gs de Box e
Jenkins. No segundo problema, deseja-se modelar o comportamento trmico de um transformador de
potncia a partir de leituras de sua corrente de carga e das condies climticas a que esse equipa-
mento est exposto.
As sees a seguir apresentam com mais detalhes estes problemas, bem como os resultados obti-
dos pelos modelos baseados nas redes neurais nebulosas aqui propostas.
5.3.1 Problema do Forno a Gs de Box&Jenkins
O problema de identicao do forno a gs proposto por Box e Jenkins um dos problemas mais
estudados na rea de modelagem e identicao de sistemas. O processo de identicao utiliza-se
de um total de 296 amostras para gerar 290 pares entrada/sada obtidos a partir de um forno a gs de
laboratrio (Box & Jenkins, 1994). Cada amostra consiste das taxas de uxo de metano (entradas x
k
do sistema) e a concentrao de CO
2
na sada do forno (sadas y
k
do sistema). Este um processo
dinmico com uma entrada x
k
e uma sada y
k
. O objetivo estimar a sada corrente y
k
a partir de
entradas e sadas em instantes anteriores, com o menor erro possvel.
Diferentes estudos ((Farag et al., 1998);(Xiao-Zhi & Ovaska, 2006);entre outros) indicam que a
melhor estrutura do modelo para este sistema :
y
k
= f
_
y
k1
, x
k4
_
. (5.5)
Emnossos experimentos foramdenidos, empiricamente, 3 conjuntos nebulosos para granularizar
cada varivel de entrada das redes neurais nebulosas que compem os modelos NN-AND, NN-OR,
AND-AP, OR-AP, UNI-R, NULL-R e NULL-G. Conseqentemente, estes modelos so compostos
por 9 unidades de processamento na segunda camada, representando um sistema de inferncia com 9
regras nebulosas. O sistema ANFIS tambm foi implementado como o mesmo nmero de regras neb-
ulosas e a estrutura da rede MLP foi formada por apenas uma camada intermediria com 9 neurnios
nesta camada.
Do total de amostras, 200 foram selecionadas para serem utilizadas no processo de treinamento.
As demais 90 amostras foram reservadas para os testes de validao dos modelos obtidos. A avaliao
dos modelos feita considerando-se as mesmas mtricas de erro usadas na seo anterior, conforme
expresses (5.1) a (5.4).
A Tabela 5.4 apresenta os resultados obtidos para os modelos aqui considerados. Alm dos re-
sultados da Tabela 5.4, outros obtidos por modelos alternativos propostos na literatura permitem
mostrar que os modelos propostos neste trabalho so competitivos no meio ao qual estes se inserem.
98 Resultados Experimentais e Aplicaes
A Tabela 5.5 mostra os resultados obtidos por cinco abordagens alternativas, juntamente com seus
autores e referncias, utilizando as mesmas mtricas de erro para comparao.
Tabela 5.4: Resultados para o Forno a Gs de Box&Jenkins
Modelo N

de pocas Tempo de Trein. (seg.) MSE RMSE NDEI MAPE (%)


MLP 10000 22,45 0,5817 0,7627 0,2389 1,25
ANFIS 5000 19,79 0,5112 0,7150 0,2240 1,22
NN-AND 10000 17,45 0,4766 0,6904 0,2162 1,05
NN-OR 10000 16,39 0,4899 0,6999 0,2192 1,02
AND-AP 8000 15,57 0,4493 0,6703 0,2100 0,98
OR-AP 8000 15,96 0,4528 0,6729 0,2108 0,96
UNI-R 10000 10,55 0,3974 0,6304 0,1975 0,85
NULL-R 10000 11,30 0,3861 0,6214 0,1946 0,83
NULL-G 10000 14,34 0,4034 0,6351 0,1989 0,87
Tabela 5.5: Resultados da Literatura para o Forno a Gs de Box&Jenkins
Modelo MSE RMSE NDEI
Pedrycz (Pedrycz, 1984) 0,5656 0,7521 0,2356
Xu e Lu (Xu & Lu, 1987) 0,5727 0,7568 0,2370
Delgado (Delgado et al., 1997) 0,4100 0,6403 0,2006
Yoshinari (Yoshinari et al., 1993) 0,5460 0,7389 0,2315
Rutkowski (Rutkowski & Cpalka, 2005) 0,4919 0,7014 0,2197
As Figuras 5.8 e 5.9 apresentam a sada obtida para os modelos implementados neste trabalho
quando se utilizam as amostras de teste. Estes resultados mostram que os modelos propostos so,
no mnimo, to bons quanto as melhores abordagens sugeridas na literatura. Em particular o modelo
NULL-R apresentou um desempenho muito satisfatrio, obtendo as menores de todas as taxas de
erro, com um dos menores custos computacionais. Este fato o torna um excelente candidato para
ser utilizado na modelagem de sistemas complexos, como tambm poder ser observado na seo
seguinte.
5.3.2 Modelagem Trmica de Transformadores de Potncia
Transformadores de potncia so equipamentos importantes na transmisso e distribuio de ener-
gia eltrica, e o seu correto funcionamento vital para a operao do sistema. A perda de uma unidade
5.3 Aplicaes a Problemas de Identicao de Sistemas 99
0 10 20 30 40 70 80 90
45
50
50
55
60
60
65
(a)
Sada Desejada
Sada MLP
Amostras
C
o
n
c
e
n
t
r
a

o
d
e
C
O
2
0 10 20 30 40 70 80 90
45
50
50
55
60
60
65
(b)
Sada Desejada
Sada ANFIS
Amostras
C
o
n
c
e
n
t
r
a

o
d
e
C
O
2
0 10 20 30 40 70 80 90
45
50
50
55
60
60
65
(c)
Sada Desejada
Sada NN-AND
Amostras
C
o
n
c
e
n
t
r
a

o
d
e
C
O
2
0 10 20 30 40 70 80 90
45
50
50
55
60
60
65
(d)
Sada Desejada
Sada NN-OR
Amostras
C
o
n
c
e
n
t
r
a

o
d
e
C
O
2
0 10 20 30 40 70 80 90
45
50
50
55
60
60
65
(e)
Sada Desejada
Sada AND-AP
Amostras
C
o
n
c
e
n
t
r
a

o
d
e
C
O
2
Figura 5.8: Resultados obtidos para o forno a gs de Box e Jenkins: (a) MLP, (b) ANFIS, (c) NN-
AND, (d) NN-OR, (e) AND-AP
100 Resultados Experimentais e Aplicaes
0 10 20 30 40 70 80 90
45
50
50
55
60
60
65
(f)
Sada Desejada
Sada OR-AP
Amostras
C
o
n
c
e
n
t
r
a

o
d
e
C
O
2
0 10 20 30 40 70 80 90
45
50
50
55
60
60
65
(g)
Sada Desejada
Sada UNI-R
Amostras
C
o
n
c
e
n
t
r
a

o
d
e
C
O
2
0 10 20 30 40 70 80 90
45
50
50
55
60
60
65
(h)
Sada Desejada
Sada NULL-R
Amostras
C
o
n
c
e
n
t
r
a

o
d
e
C
O
2
0 10 20 30 40 70 80 90
45
50
50
55
60
60
65
(i)
Sada Desejada
Sada NULL-G
Amostras
C
o
n
c
e
n
t
r
a

o
d
e
C
O
2
Figura 5.9: Resultados obtidos para o forno a gs de Box e Jenkins: (f) OR-AP, (g) UNI-R, (h)
NULL-R, (i) NULL-G
5.3 Aplicaes a Problemas de Identicao de Sistemas 101
estratgica pode ter um grande impacto na segurana, na conabilidade e no custo do fornecimento
de energia.
Um dos principais fatores na operao dos transformadores de potncia a temperatura de tra-
balho, mais especicamente a temperatura do ponto mais quente, ou temperatura de hot-spot, no topo
ou no centro dos enrolamentos de alta ou baixa tenso. Esta temperatura tem uma importante inun-
cia no envelhecimento do isolamento e, conseqentemente, na vida til do equipamento (Hell et al.,
2007c).
O valor desta temperatura pode ser calculado utilizando modelos derivados das equaes de trans-
ferncia de calor e caractersticas trmicas especcas do transformador. Um dos principais modelos
o seguinte (Swift, 2001):

TO
d
TO
dt
= [
TO,U
+
A
]
TO

H
d
H
dt
=
H,U

H

TO,U
=
TO,R
_
K
2
R+1
R+1
_
n

H,U
=
H,R
K
2m

H
=
TO
+
H
(5.6)
onde
TO
a constante de tempo da temperatura de topo de leo,
TO
a temperatura de topo de leo,

TO,U
a elevao mxima da temperatura de topo de leo,
A
a temperatura ambiente,
H
a
constante de tempo da temperatura de hot-spot,
H
a elevao da temperatura de hot-spot acima
da temperatura de topo de leo,
H,U
a elevao mxima da temperatura de hot-spot,
TO,R

a elevao nominal da temperatura de topo de leo acima da temperatura ambiente, K a corrente
de carga, R a razo entre perda de carga em relao a carga nominal e carga no perdida para
uma determinada posio de tap,
H,R
a elevao nominal da temperatura de hot-spot acima da
temperatura de topo de leo,
H
a temperatura de hot-spot no enrolamento e m e n so constantes
obtidas empiricamente que dependem do mtodo de refrigerao do equipamento.
A execuo destes clculos no apenas uma tarefa de grande complexidade, como tambm leva a
estimaes conservativas baseadas em algumas suposies das condies de operao. Neste clculo
so adotados fatores de segurana extremamente conservadores, visando proteger o equipamento,
fazendo com que a transferncia mxima de potncia seja de 20 a 30% menor que a sua capacidade
nominal, com a nalidade de se aumentar a sua vida til e reduzir os riscos durante a operao (Galdi
et al., 2000).
Neste sentido, a obteno de modelos mais precisos para simular o comportamento trmico destes
importantes equipamentos pode trazer grandes vantagens, tanto para a reduo de custos de operao,
quanto para o aumento da conabilidade do sistema. Assim, as redes neurais nebulosas propostas
102 Resultados Experimentais e Aplicaes
Tabela 5.6: Principais Caractersticas do Transformador a ser Modelado
Potncia Nominal 25 kVA
Vprimria / Vsecundria 10 kV / 380 V
Perdas no Ferro 195 W
Perdas no Cobre 776 W
Temp. de Topo de leo a Plena Carga 73.1 C
Comprimento x Largura x Profun- 64 x 16 x 80 cm
didade do tanque
Tipo de Refrigerao ONAN
Fabricante / ano MACE/87
neste trabalho foram empregadas com o intuito de modelar o comportamento da temperatura de hot-
spot
H
.
Diferentes estudos (Galdi et al., 2000; Villaci et al., 2005) e testes experimentais de tentativa e erro
indicamque as entradas mais relevantes para os modelos so a corrente de carga (K), a temperatura de
topo de leo (
TO
) e a corrente de carga atrasada em um passo (K q
1
). Esta escolha tem mostrado
uma reduo da sensibilidade dos modelos com relao a utuaes nos parmetros trmicos, que
podem variar consideravelmente de um transformador para outro.
Os dados utilizados em nossos experimentos so os mesmos reportados em (Galdi et al., 2000).
Estes dados foram coletados a partir de medies realizadas em um transformador experimental de
potncia, com enrolamentos em disco. As medies de temperatura utilizam sensores de bra tica
inseridos nos espaadores localizados entre os discos dos enrolamentos de alta e de baixa tenso bem
como no topo do tanque onde estes enrolamentos esto imersos. O sistema de aquisio de dados
coleta os valores de todos os sensores em intervalos de 5 minutos. Maiores informaes a respeito
da forma de aquisio dos dados podem ser encontradas em (Villaci et al., 2005). As principais
caractersticas do transformador utilizado neste trabalho so apresentadas na Tabela 5.6.
Da mesma forma que feito anteriormente, os sistemas so inicialmente treinados para um con-
junto de dados onde nenhum tipo de anomalia afeta os dados amostrados (Caso 1), isto , onde no
ocorrem erros de medio durante a aquisio de dados. Estes dados descrevem o comportamento da
temperatura de hot-spot do equipamento para um carregamento de 24 horas, com amostras registradas
a cada 5 minutos, como mostrado na Figura 5.10.
Aps o treinamento, os modelos neurais nebulosos so utilizados para estimar a temperatura de
hot-spot para dois conjuntos de dados (dados de teste), descrevendo duas situaes diferentes de
carregamento a que o transformador est sujeito durante operao normal. Na primeira situao
(DT1), as condies de carga no ultrapassam os valores nominais do transformador, ou seja, uma
condio sem sobrecargas. Na segunda situao (DT2), uma sobrecarga de 30% do valor nominal
5.3 Aplicaes a Problemas de Identicao de Sistemas 103
0 4 8 12 16 20 24
0.2
0.4
0.6
0.8
1.0
1.2
1.4
Corrente de Carga K
Temp. de Topo de leo
TO
Temp. de Hot-Spot
H
Tempo (horas)
T
e
m
p
e
r
a
t
u
r
a
(
p
.
u
.
)
,
C
o
r
r
e
n
t
e
(
p
.
u
.
)
Figura 5.10: Dados de treinamento - Caso 1.
observada durante um perodo de 4 horas. Os resultados para este caso (Caso 1) em ambas as
situaes de carregamento, so apresentados na Tabela 5.7. O resultado do modelo analtico descrito
por (5.6) tambm includo para comparao.
Tabela 5.7: Resultados da Modelagem da Transformadores - Caso 1
Modelo N

de pocas Tempo de Trein. (seg.) MSE - DT1 MSE - DT2


Analtico - - 17,3490 6,7822
MLP 22700 93,07 0,7901 0,2635
ANFIS 15000 84,71 0,2102 0,8168
NN-AND 11000 61,50 0,2689 0,2334
NN-OR 11000 60,94 0,2565 0,2591
AND-AP 11000 67,32 0,2104 0,2203
OR-AP 11000 68,03 0,2037 0,2535
UNI-R 10000 60,45 0,1109 0,1934
NULL-R 10000 61,74 0,0910 0,1885
NULL-G 10000 73,76 0,0907 0,1822
As Figuras 5.3.2 e 5.11 mostram os resultados gracamente para a situao de operao sem
sobrecarga (DT1), enquanto as Figuras 5.12 e 5.13 apresentam os grcos de resultado para a situao
com sobrecarga (DT2).
Em um segundo momento, com a nalidade de mais uma vez vericar a caracterstica do apren-
dizado participativo que faz com que os modelos baseados neste paradigma no sejam to inuenci-
ados por erros nos dados de treinamento, foi gerado um segundo caso (Caso 2). Agora, considera-se
que os dados de treinamento foram afetados por um mal funcionamento em um dos sensores de bra
104 Resultados Experimentais e Aplicaes

H
Desejada
H
- Analtico
H
- Predito
0 4 8 12 16 20 24
30
35
40
45
50
55
60
65
(a)
Tempo (horas)
T
e
m
p
e
r
a
t
u
r
a

C
0 4 8 12 16 20 24
30
35
40
45
50
55
60
65
(b)
Tempo (horas)
T
e
m
p
e
r
a
t
u
r
a

C
0 4 8 12 16 20 24
30
35
40
45
50
55
60
65
(c)
Tempo (horas)
T
e
m
p
e
r
a
t
u
r
a

C
0 4 8 12 16 20 24
30
35
40
45
50
55
60
65
(d)
Tempo (horas)
T
e
m
p
e
r
a
t
u
r
a

C
0 4 8 12 16 20 24
30
35
40
45
50
55
60
65
(e)
Tempo (horas)
T
e
m
p
e
r
a
t
u
r
a

C
caption Resultados da modelagem trmica de transformadores de potncia (Dados de Teste 1 - DT1):
(a) MLP, (b) ANFIS, (c) NN-AND, (d) NN-OR, (e) AND-AP, (f) OR-AP
5.3 Aplicaes a Problemas de Identicao de Sistemas 105
0 4 8 12 16 20 24
30
35
40
45
50
55
60
65
(f)
Tempo (horas)
T
e
m
p
e
r
a
t
u
r
a

C
0 4 8 12 16 20 24
30
35
40
45
50
55
60
65
(g)
Tempo (horas)
T
e
m
p
e
r
a
t
u
r
a

C
0 4 8 12 16 20 24
30
35
40
45
50
55
60
65
(h)
Tempo (horas)
T
e
m
p
e
r
a
t
u
r
a

C
0 4 8 12 16 20 24
30
35
40
45
50
55
60
65
(i)
Tempo (horas)
T
e
m
p
e
r
a
t
u
r
a

C
Figura 5.11: Resultados da modelagem trmica de transformadores de potncia (Dados de Teste 1 -
DT1): (f) OR-AP, (g) UNI-R, (h) NULL-R, (i) NULL-G
106 Resultados Experimentais e Aplicaes

H
Desejada
H
- Analtico
H
- Predito
0 4 8 12 16 20 24
35
40
45
50
55
60
65
70
75
80
85
90
95
100
(a)
Tempo (horas)
T
e
m
p
e
r
a
t
u
r
a

C
0 4 8 12 16 20 24
35
40
45
50
55
60
65
70
75
80
85
90
95
100
(b)
Tempo (horas)
T
e
m
p
e
r
a
t
u
r
a

C
0 4 8 12 16 20 24
35
40
45
50
55
60
65
70
75
80
85
90
95
100
(c)
Tempo (horas)
T
e
m
p
e
r
a
t
u
r
a

C
0 4 8 12 16 20 24
35
40
45
50
55
60
65
70
75
80
85
90
95
100
(d)
Tempo (horas)
T
e
m
p
e
r
a
t
u
r
a

C
0 4 8 12 16 20 24
35
40
45
50
55
60
65
70
75
80
85
90
95
100
(e)
Tempo (horas)
T
e
m
p
e
r
a
t
u
r
a

C
Figura 5.12: Resultados da modelagem trmica de transformadores de potncia (Dados de Teste 2 -
DT2): (a) MLP, (b) ANFIS, (c) NN-AND, (d) NN-OR, (e) AND-AP
5.3 Aplicaes a Problemas de Identicao de Sistemas 107
0 4 8 12 16 20 24
35
40
45
50
55
60
65
70
75
80
85
90
95
100
(f)
Tempo (horas)
T
e
m
p
e
r
a
t
u
r
a

C
0 4 8 12 16 20 24
35
40
45
50
55
60
65
70
75
80
85
90
95
100
(g)
Tempo (horas)
T
e
m
p
e
r
a
t
u
r
a

C
0 4 8 12 16 20 24
35
40
45
50
55
60
65
70
75
80
85
90
95
100
(h)
Tempo (horas)
T
e
m
p
e
r
a
t
u
r
a

C
0 4 8 12 16 20 24
35
40
45
50
55
60
65
70
75
80
85
90
95
100
(i)
Tempo (horas)
T
e
m
p
e
r
a
t
u
r
a

C
Figura 5.13: Resultados da modelagem trmica de transformadores de potncia (Dados de Teste 2 -
DT2): (f) OR-AP, (g) UNI-R, (h) NULL-R, (i) NULL-G
108 Resultados Experimentais e Aplicaes
tica que coletam as temperaturas internas do transformador. A partir desta premissa foram gerados
os dados mostrados na Figura 5.14.
0 4 8 12 16 20 24
0.2
0.4
0.6
0.8
1.0
1.2
1.4
Corrente de Carga K
Temp. de Topo de leo
TO
Temp. de Hot-Spot
H
Tempo (horas)
T
e
m
p
e
r
a
t
u
r
a
(
p
.
u
.
)
,
C
o
r
r
e
n
t
e
(
p
.
u
.
)
Figura 5.14: Dados de treinamento - Caso 2.
Os modelos MLP, ANFIS, NN-AND, NN-OR, AND-AP, OR-AP, UNI-R, NULL-R e NULL-
G so ento treinados com essa nova base de dados e posteriormente aplicados para estimar a temper-
atura de hot-spot para as mesmas duas situaes de carregamento (nominal e de sobrecarga) discutidas
anteriormente. Os resultados so apresentados na Tabela 5.8.
Tabela 5.8: Resultados da Modelagem de Transformadores - Caso 2
Modelo N

de pocas Tempo de Trein. (seg.) MSE - DT1 MSE - DT2


Analtico - - 17,3490 6,7822
MLP 22700 95,23 3,2103 1,2301
ANFIS 15000 83,55 2,6608 4,0151
NN-AND 11000 63,24 1,1025 1,2430
NN-OR 11000 61,32 1,1820 1,3063
AND-AP 11000 66,87 0,2197 0,2499
OR-AP 11000 68,51 0,2113 0,2917
UNI-R 10000 65,99 1,5342 1,8431
NULL-R 10000 64,83 1,5917 1,8974
NULL-G 10000 74,48 1,6195 1,9886
Mais uma vez, possvel observar que, para os casos em que a base de dados de treinamento no
corrompida por algum tipo de anormalidade, os modelos baseados nos unineurons e nullneurons
superam todos os demais, tanto em termos de performance de erro quanto em custos computacionais.
Por outro lado, na presena de dados de treinamento no ideais, os nicos modelos que so capazes
5.4 Resumo 109
de garantir um bom desempenho na soluo do problema em estudo so aqueles cujos processos de
treinamento so baseados no aprendizado participativo (Hell et al., 2008b). Portanto, observa-se que
a associao das duas tcnicas citadas poderia produzir um modelo de alto desempenho, baixo custo
computacional e robusto anomalias presentes na base de dados de treinamento.
Entretanto, para que tal associao fosse possvel, seria necessrio que uninormas e nullnormas
pudessem ser vistas como operadores relacionais nebulosos e, conseqentemente, pudessem ser uti-
lizadas na sntese de novas classes de composies de relaes nebulosas associadas uma soluo
de problema inverso nebuloso para tais composies.
A teoria de operadores residuais aplicados a uninormas e nullnormas (Baets & Fodor, 1999; Ruiz-
Aguilera & Torrens, 2007) fornece uma ferramenta que pode ser utilizada para este m. De fato, o
estudo de operadores residuais e sua aplicao a uninormas e nullnormas a m de se propor a soluo
de problema inverso para relaes nebulosas compostas por estas normas constituem uma proposio
para futuros trabalhos relacionados s redes neurais nebulosas propostas neste trabalho.
5.4 Resumo
Este captulo apresentou resultados de simulao obtidos utilizando as redes neurais nebulosas
na modelagem de sistemas dinmicos no-lineares, ilustrada com exemplos de previso de sries
temporais e modelagem trmica de transformadores.
Os resultados de simulao e comparaes com abordagens alternativas propostas na literatura
demonstram a capacidade dos modelos neurais nebulosos propostos neste trabalho de modelar os
sistemas dinmicos no-lineares, geralmente com um nmero reduzido de parmetros e iteraes,
acarretando em menores taxas de erros e tempo de processamento.
Emparticular, os modelos baseados emunineurons e nullneurons demonstraramuma performance
superior para os casos em que as bases de dados utilizadas nos processos de treinamento destes mod-
elos no continham nenhum tipo de anomalia. J os modelos cujos processos de treinamento so
baseados no aprendizado participativo se mostraram robustos perturbaes nos dados de treina-
mento, mantendo uma performance satisfatria quanto ao erro e sobressaindo-se assim em relao s
demais alternativas.
Captulo 6
Concluso
Sistemas neurais nebulosos tm demonstrado grande aplicabilidade nas mais diversas reas do
conhecimento, tais como economia, matemtica difusa, teoria de jogos, modelagem de sistemas, en-
tre tantas outras. Resultado da combinao natural de dois dos maiores paradigmas da inteligncia
computacional, estes sistemas permitem a construo de modelos robustos e ecientes para a res-
oluo de problemas de modelagem e mostram-se como uma opo atraente para diversos campos.
Em particular, a unicao das redes neurais com os sistemas nebulosos para a construo de mode-
los de sistemas dinmicos no-lineares se mostra promissora e constitui o principal motivo de estudo
deste trabalho.
Duas novas abordagens baseadas em redes neurais nebulosas foram desenvolvidas com a nali-
dade de obter modelos de sistemas dinmicos precisos e robustos, com baixo custo computacional.
A primeira destas abordagens constitui um novo algoritmo de aprendizado baseado no paradigma
do aprendizado participativo. Neste algoritmo de treinamento, o que o sistema j aprendeu a respeito
do problema que se deseja tratar visto como umconhecimento que levado emconsiderao durante
a atualizao do prprio conhecimento. De forma similar ao que ocorre no aprendizado humano, onde
no se assimila indiscrimidamente o que ensinado, o algoritmo aqui proposto avalia a informao
que chega ao sistema e a confronta com tudo aquilo que j se aprendeu a respeito do problema. Se
esta nova informao entrar em conito com as convices j formadas, ela desconsiderada.
Essa uma das formas com que os seres humanos assimilam o conhecimento. Na infncia,
quando crenas ainda no foram formadas, a criana aprende com tudo o que lhe ensinado. Aps
um determinado momento, o homem passa a duvidar de qualquer coisa que lhe parece estranha se
comparada as crenas que foram formadas no princpio de sua vida. Obviamente, o meio em que
vivemos est emconstante mudana, o que nos faz rever nossas crenas de tempos emtempos, quando
vemos que o mundo comea a mudar.
O algoritmo de treinamento proposto funciona de forma anloga. Durante as primeiras iteraes,
111
112 Concluso
como ainda no se aprendeu o suciente a respeito do sistema, ca-se totalmente aberto ao apren-
dizado. Aps os primeiros instantes, quando o conhecimento obtido, o aprendizado passa a ser se-
letivo, no levando em considerao informaes que sejam muito conitantes com o conhecimento
atual. A incorporao de um ndice de alerta no processo de treinamento faz com que o sistema se
torne novamente aberto ao aprendizado quando informaes conitantes se repetem em um determi-
nado intervalo de tempo, mostrando assim que as convices que se tem podem no mais reetir a
realidade e precisam ser adaptadas.
Resultados experimentais mostraram que redes neurais nebulosas que utilizam este novo algo-
ritmo de treinamento se tornam robustas a dados de treinamento com valores que se referem a com-
portamentos anmalos ou mesmo a erros durante a obteno destes dados. Estes sistemas se mostram
capazes de perceber que certos dados no fazem parte do comportamento do que se desejava modelar
e atenuam o efeito destes dados. De forma contrria, os sistemas que no utilizam do algoritmo de
treinamento baseado no aprendizado participativo levam em considerao tudo o que lhes apresen-
tado, sofrendo inuncia de erros contidos nos dados, o que faz com que o desempenho degrade.
A segunda abordagem apresentada neste trabalho prope a construo de duas novas classes de
neurnios articiais, os unineurons e os nullneurons, que incluem uma importante caracterstica dos
neurnios biolgicos que no se apresenta em nenhum modelo de neurnio articial proposto at o
momento. Esta caracterstica, conhecida como plasticidade neuronal, faz com que um neurnio possa
alterar seus mecanismos internos em resposta alteraes externas e a necessidade de adaptao a
condies mutantes e a estmulos repetidos.
Nos novos neurnios nebulosos, um parmetro adicional, chamado de parmetro de plasticidade,
adicionado ao modelo de neurnios lgicos. Este parmetro, que ajustado segundo a necessidade
do problema a ser resolvido atravs do algoritmo de treinamento, faz com que o neurnio altere a
forma com que os sinais de entrada e pesos sinpticos so processados, tornando o modelo composto
por tais neurnios melhor adaptado um problema especco.
Simulaes mostraram que modelos de sistemas dinmicos baseados em redes neurais nebulosas
compostas por essas duas novas classes de neurnios apresentam os melhores desempenhos, tanto em
termos de preciso quanto em termos de custos computacionais, quando comparados com modelos
gerados a partir de redes neurais nebulosas compostas pelos neurnios nebulosos clssicos AND e
OR, para os casos em que os dados de treinamento no apresentavam anormalidades ou erros.
As duas novas classes de neurnios nebulosos (unineurons e nullneurons), aliadas ao processo de
treinamento baseado no aprendizado participativo, poderiam gerar modelos de sistemas dinmicos
que apresentariam uma alta performance no que diz respeito a erros de aproximao e custos de
obteno e operao, bem como uma robustez no sentido de minimizar o efeito de dados no ideais
presentes nas bases de dados de treinamento.
113
Entretanto, para que se pudesse propor um modelo de sistema dinmico que utilizasse uma rede
neural nebulosa composta por unineurons ou nullneurons, e na qual o algoritmo de treinamento fosse
baseado no aprendizado participativo seria necessrio que uninormas e nullnormas pudessem ser vis-
tas como operadores relacionais nebulosos e, conseqentemente, pudessem ser utilizadas na sntese
de novas classes de composies de relaes nebulosas associadas a uma soluo de problema inverso
nebuloso para tais composies.
A teoria de operadores residuais fornece uma ferramenta que pode ser utilizada para este m. De
fato, operadores residuais para uma classe de uninormas j foram propostos na literatura. O estudo
destes operadores e sua extenso para nullnormas, bem como a proposio de equaes relacionais
nebulosas que utilizem uninormas e nullnormas (e a soluo de problema inverso para estas equaes
relacionais) constituem uma forte inspirao para futuros trabalhos relacionados aos desenvolvimen-
tos aqui propostos.
Outra sugesto para continuidade deste trabalho a utilizao de outras estruturas de redes neurais
nebulosas (como por exemplo redes que utilizam neurnios nebulosos na agregao das regras e
redes com estruturas recorrentes), a m de se vericar a aplicabilidade das tcnicas aqui propostas
a diferentes classes de redes neurais nebulosas. As estruturas aqui apresentadas podem, em alguns
casos, apresentar problemas de complexidade para problemas de dimenses elevadas. A proposio
de estruturas de redes que reduzam este risco pode ser um importante tpico para exploraes futuras.
E, por m, pode-se sugerir a incorporao de recorrncias locais e/ou globais nos neurnios que
compem os modelos aqui propostos. Redes recorrentes j se mostraram superiores na modelagem
de sistemas dinmicos, se comparados a estruturas estticas e, portanto, podem auxiliar na obteno
de um modelo ainda mais robusto e preciso do que os aqui sugeridos.
Referncias Bibliogrcas
Babuska, R. & Verbruggen, H. (1996). An overview of fuzzy modeling for control. Control Eng.
Practice, 4(11), 15931606.
Baets, B. D. & Fodor, J. (1999). Residual operators of uninorms. Soft Computing, 3, 89100.
Ballini, R. & Gomide, F. (2002). Learning in recurrent, hybrid neurofuzzy networks. In Proc. IEEE
International Conference on Fuzzy Systems (pp. 785791). Honolulu, HI.
Ballini, R., M. Figueiredo and, S. S., Andrade, M., & Gomide, F. (2000). A seasonal streamow
forecasting model using neurofuzzy network. Information, Uncertainty and Fusion, 1, 257276.
Bezdek, J. C. (1981). Pattern Recognition with Fuzzy Objective Function Algoritms. Plenum Press,
NJ, USA.
Bjrck, A. (1996). Numerical Methods for Least Squares Problems. SIAM, Philadelphia, USA.
Box, G. E. P. & Jenkins, G. M. (1994). Time Series Analysis- Forecasting and Control. Holden Day,
CA, USA, 3
a.
edio.
Buckley, J. J. & Hayashi, Y. (1994). Fuzzy neural networks: a survey. Fuzzy Sets and Systems, 66,
113.
Calvo, T., Baets, B. D., & Fodor, J. (2001). The functional equations of frank and alsina for uninorms
and nullnorms. Fuzzy Sets and Systems, 120, 385394.
Caminhas, W., Tavares, H., Gomide, F., & W.Pedrycz (1999). Fuzzy sets based neural networks:
Structure, learning and applications. Journal of Advanced Computational Intelligence, 3(3), 151
157.
Chauhan, B. K., Sharma, A., & Hanmandlu, M. (2005). Neuro-fuzzy approach based short term
electric load forecasting. In Proc. 2005 IEEE/PES Transmission and Distribution Conference (pp.
15). Dalian, China.
115
116 REFERNCIAS BIBLIOGRFICAS
Cybenko, G. (1989). Approximation by superpositons of a sigmoid function. Mathematics of Control,
Signals and Systems, 2, 303314.
Delgado, M., Gmez-Skarmeta, A. F., & Martin, F. (1997). Fuzzy clustering based rapid prototyping
for fuzzy rule-based modeling. IEEE Trans. on Fuzzy Systems, 5, 223233.
Dorf, R. C. & Bishop, R. H. (1998). Modern Control Systems. Addison-Wesley, MA, USA, 8
a.
edio.
Dvoretzky, A. (1956). On stochastic approximation. In Proc. Third Berkley Symp. Math. Stat. and
Provability (pp. 3955). CA, USA.
Espinosa, J., Vandewalle, J., & Wertz, V. (2004). Fuzzy Logic, Identication and Predictive Control.
Springer-Verlag, London, UK.
Farag, W. A., Quintana, V. H., & Lambert-Torres, G. (1998). A genetic-based neuro-fuzzy approach
for modeling and control of dynamical systems. IEEE Trans. on Neural Networks, 9(5), 756767.
Figueiredo, M., Ballini, R., Soares, S., Andrade, M., & Gomide, F. (2004). Learning algorithms for a
class of neurofuzzy network and application. IEEE Trans. on System, Man and Cybernetics - Part
C, 34(3), 293301.
Figueiredo, M. F. (2000). Redes neurais nebulosas aplicadas em problemas de modelagem e controle
autonomo. PhD thesis, Universidade Estadual de Campinas - UNICAMP, Campinas-SP.
Figueiredo, R. J. P. D. (2003). Beyond Volterra and Wiener: Optimal Modellinf of Nonlinear Dy-
namical Systems in a Neural Space for Applications in Computational Intelligence, chapter 6, (pp.
6598). IEEE Press, NY, USA.
Figueiredo, R. J. P. D. & DwyerIII, T. A. W. (1980). A best approximation framework and imple-
mentation for simulation of large-scale nonlinear systems. IEEE Trans. on Circuits and Systems,
CAS-27(11), 10051014.
Galdi, V., Ippolito, L., Piccolo, A., & Vaccaro, A. (2000). Neural diagnostic system for transformer
thermal overload protection. IEE Proceedings of Electric Power Applications, 147(5), 415421.
Giles, C. L., Sun, R., & Zurada, J. M. (1998). Neural networks and hybrid intelligent models: Foun-
dations, theory, and applications. IEEE Trans. on Neural Networks, 9(5), 721723.
Gomide, F. & Pedrycz, W. (2007). Fuzzy Systems Engineering: Toward Human-Centric Computing.
Wiley Interscience, NJ, USA.
REFERNCIAS BIBLIOGRFICAS 117
Gri, R., Cembrano, G., & Torras, C. (2000). Nonlinear system identication using additive dy-
namic neural networks - two on-line approaches. IEEE Trans. on Circuits and Systems - Part I:
Fundamental Theory and Applications, 47(2), 150165.
Gross, G. & Galiana, F. D. (1987). Short-term load forecasting. Proceedings of the IEEE, 75(12),
15581573.
Haykin, S. (1998). Neural networks: a comprehensive foundation. Prentice-Hall, NJ, USA, 2
a.
edio.
Hell, M., CostaJr., P., & Gomide, F. (2007a). New neurofuzzy training procedure based on partic-
ipatory learning paradigm. In Proc. 2007 IEEE International Conference on Fuzzy Systems (pp.
19521957). London, UK.
Hell, M., CostaJr., P., & Gomide, F. (2007b). Nullneurons-based hybrid neurofuzzy network. In Proc.
of Annual Meeting of the North American Fuzzy Information Processing Society, NAFIPS 07 (pp.
331336). San Diego-CA, USA.
Hell, M., CostaJr., P., & Gomide, F. (2007c). Recurrent neurofuzzy network in thermal modeling of
power transformers. IEEE Trans. on Power Delivery, 22(2), 904910.
Hell, M., CostaJr., P., & Gomide, F. (2008a). Hybrid neurofuzzy computing with nullneurons. In
Proc. of IEEE International Joint Conference on Neural Networks, IJCNN 08 (pp. 36523658).
Hong Kong-HK, China.
Hell, M., CostaJr., P., & Gomide, F. (2008b). Participatory learning in power transformers thermal
modeling. IEEE Trans. on Power Delivery, 23(4), 20582067.
Jang, R. (1993). Ans: Adaptive network based fuzzy inference system. IEEE Trans. on Systems
Man and Cybernetics, 23(3).
Jin, L., Ziyang, L., Jingbo, S., & Xinying, S. (2005). An efcient method for peak load forecasting.
In Proc. of 7th IEEE International Power Engineering Conference, 2005. IPEC 05 (pp. 152).
Niigata, Japan.
Jin, Y., Jiang, J., & Zhu, J. (1995). Neural network based fuzzy identication and its application to
modeling and control of complex systems. IEEE Trans. on Systems, Man and Cybernetics, 25(6),
990997.
Kandel, E. R., Schwartz, J. H., & Jessel, T. M. (2000). Principles of Neural Science. McGraw-Hill,
NY, USA, 4
a.
edio.
118 REFERNCIAS BIBLIOGRFICAS
Klement, E. P., Mesiar, R., & Pap, E. (2000). Triangular Norms. Kluwer Publishers, Dordrecht,
Netherlands.
Kosko, B. (1991). Neural Networks and fuzzy Systems: A Dynamical System Approach to Machine
Intelligence. Prentice-Hall, NJ, USA.
Kushner, H. J. & Yin, G. G. (2003). Stochastic approximation and recursive algorithms and applica-
tions. Springer-Verlag, NY, USA, 2
a.
edio.
Lima, E., Gomide, F., & Ballini, R. (2006). Participatory evolving fuzzy modeling. In Proc. 2006
International Symposium on Evolving Fuzzy Systems (pp. 3641). Lake district, UK.
Lin, C.-T. & Lee, C. S. G. (1996). Neural fuzzy systems: A neuro-fuzzy synergism to intelligent
systems. Prentice-Hall, NJ, USA.
Ling, S., Leung, F., Lam, H., & Tam, P. (2003). Short-term electric load forecasting based on a neural
fuzzy network. IEEE Trans. on Industrial Electronics, 50(6), 13051316.
Ljung, L. (1999). System identication: Theory for the user. Prentice-Hall, NJ, USA, 2
a.
edio.
McCulloch, W. S. & Pitts, W. H. (1943). A logical calculus of the ideas immanent in nervous activity.
Bulletin of Mathematical Biophysics, 5, 115133.
Narendra, K. S. & Parthasarathy, K. (1990). Identication and control of dynamical systems using
neural networks. IEEE Trans. on Neural Networks, 1(1), 427.
Norgaard, M., Ravn, O., Poulsen, N. K., & Hansen, L. K. (2000). Neural Networks for Modelling
and Control of Dynamic Systems. Springer-Verlag, London, UK.
Ouyang, C., Lee, W., & Lee, S. (2005). A tsk-type neurofuzzy network approach to system modeling
problems. IEEE Trans. on Systems, Man, and Cybernetics, Part B, 35(4), 751767.
Pedrycz, W. (1984). A identication algorithm in fuzzy relational systems. Fuzzy Sets and Systems,
13, 153167.
Pedrycz, W. (1993). Fuzzy neural networks and neurocomputations. Fuzzy Sets and Systems, 56(1),
128.
Pedrycz, W. (2006). Logic-based neurocomputing with unineurons. IEEE Trans. on Fuzzy Systems,
14(6), 860873.
REFERNCIAS BIBLIOGRFICAS 119
Pedrycz, W., Lam, P. C. F., & Rocha, A. F. (1995). Distributed fuzzy system modeling. IEEE Trans.
on Systems, Man and Cybernetics, 25(5), 769780.
Pedrycz, W. & Rocha, A. (1993). Fuzzy set based models of neuron and knowledge-based networks.
IEEE Trans. on Fuzzy Systems, 1(4), 254266.
Robbins, H. & Monro, S. (1951). A stochastic approximation method. Annals of Mathematical
Statistics, 22(3), 400407.
Rocha, A. F. (1987). Brain as fuzzy System, (pp. 507507). Pergamon Press, NY, USA.
Rocha, A. F. (1992). Neural Nets: A Theory for Brains and Machines. Springer-Verlag, NY, USA.
Rosenblatt, F. (1958). The perceptron: A probabilistic model for information storage and organization
in the brain. Psychological Review, 65(6), 386408.
Ruiz-Aguilera, D. & Torrens, J. (2007). Distributivity of residual implications over conjunctive and
disjunctive uninorms. Fuzzy Sets and Systems, 158, 2337.
Rutkowski, L. & Cpalka, K. (2005). Design and learning of adjustable quasi-triangular norms with
applications to neuro-fuzzy systems. IEEE Trans. on Neural Networks, 13(1), 140151.
Saridis, G. N. (1970). Learning applied to successive approximation algorithms. IEEE Trans. on
Systems Science and Cybernetics, SSC-6(2), 97103.
Saridis, G. N. (1974). Stochastic approximation methods for identication and control-a survey. IEEE
Trans. on Automatic Control, AC-19(6), 798809.
Silva, L., Gomide, F., & Yager, R. R. (2005). Participatory learning in fuzzy clustering. In Proc. 14th
IEEE International Conference on Fuzzy Systems (pp. 857861). Reno, USA.
Spall, J. (2003). Introduction to stochastic search and optimization : estimation, simulation, and
control. Wiley-Interseience, NJ, USA.
Stewart, G. W. (1973). Introduction to Matrix Computations. Academic Press, NY, USA.
Suykens, J. A. K., Vandewalle, J. P. L., & Moor, B. D. (1996). Articial Neural Networks for Mod-
elling and Control of Non-Linear Systems. Kluwer Academic Publishers, MA, USA.
Swift, G. W. (2001). Adaptative transformer thermal overload protection. IEEE Trans. on Power
Delivery, 16(4), 516521.
120 REFERNCIAS BIBLIOGRFICAS
Tsoukalas, L. H. & Uhrig, R. E. (1997). Fuzzy Neural Approaches in Engineering. Jhon Wiley and
Sons Inc., NY, USA.
Villaci, D., Bontempi, G., Vaccaro, A., & Birattari, M. (2005). The role of learning methods in the
dynamic assessment of power components loading capability. IEEE Trans. on Industrial Eletronics,
52(1), 280290.
Volterra, V. (1959). Theory of Functionals and of Integral and Integro-Differential Equations. Dover
Press, NY, USA.
Wang, L. X. (1998). Universal aproximation by hierarchical fuzzy systems. Fuzzy Sets and Systems,
93(2), 223230.
Xiao-Zhi, G. & Ovaska, S. J. (2006). Linguistic information feedforward-based dynamical fuzzy
systems. IEEE Trans. on Systems, Man and Cybernetics, Part C, 36(4), 453463.
Xu, W. & Lu, Y. Z. (1987). Fuzzy model identication and self-learning for dynamic systems. IEEE
Trans. on System, Man and Cybernetics, SMC-17, 683689.
Yager, R. R. (1990). A model of participatory learning. IEEE Trans. on System, Man and Cybernetics,
20(5), 12291234.
Yager, R. R. (2001). Uninorms in fuzzy systems modeling. Fuzzy Sets and Systems, 122, 167175.
Yager, R. R. & Filev, D. P. (1993a). A fuzzy logic controller view of participatory learning. In Proc.
Second IEEE International Conference on Fuzzy Systems, volume 2 (pp. 912917).
Yager, R. R. & Filev, D. P. (1993b). Modeling participatory learning as a control mechanism. Inter-
national Journal of Intelligent Systems, 8, 431450.
Yager, R. R. & Rybalov, A. (1996). Uninorm aggregation operators. Fuzzy Sets and Systems, 80,
111122.
Yoshinari, Y., Pedrycz, W., & Hirota, K. (1993). Construction of fuzzy models through clustering
techniques. Fuzzy Sets and Systems, 54, 157165.
Zadeh, L. A. (1965). Fuzzy sets. Information Control, 8(3), 338353.

Вам также может понравиться