Вы находитесь на странице: 1из 132

REDES NEURAIS ARTIFICIAIS APLICADAS NA DETECO,

CLASSIFICAO E LOCALIZAO DE DEFEITOS EM LINHAS DE


TRANSMISSO

NGELO ROCHA DE OLIVEIRA

DISSERTAO SUBMETIDA AO CORPO DOCENTE DA COORDENAO
DO PROGRAMA DE PS-GRADUAO EM ENGENHARIA ELTRICA DA
UNIVERSIDADE FEDERAL DE JUIZ DE FORA COMO PARTE DOS
REQUISITOS NECESSRIOS PARA A OBTENO DO GRAU DE MESTRE
EM ENGENHARIA ELTRICA.

Aprovada por:

_____________________________________________
Prof. Paulo Augusto Nepomuceno Garcia, D.Sc - UFJF


_____________________________________________
Prof
a
. Carmen Lcia Tancredo Borges, D.Sc - UFRJ


_____________________________________________
Prof. Hlio Antnio da Silva, D.Sc - UFJF


_____________________________________________
Prof. Mrcio de Pinho Vinagre, D.Sc - UFJF





JUIZ DE FORA, MG BRASIL.
AGOSTO DE 2005









ii








OLIVEIRA, NGELO ROCHA

Redes Neurais Artificiais Aplicadas na Deteco,
Classificao e Localizao de Defeitos em Linhas de
Transmisso [Juiz de Fora] 2005.
XI, 132 p. 29,7 cm. (UFJF, M. Sc, Engenharia Eltrica,
2005)
Tese Universidade Federal de Juiz de Fora
1. Redes Neurais Artificiais
2. Deteco, Classificao e Localizao de Defeitos em
Linhas de Transmisso
3. Proteo de Linhas de Transmisso
I. UFJF II. Ttulo (Srie)
















iii






























Aos meus pais, Maurilo e ngela,
ao meu irmo, Murilo
e minha noiva Marcella
com muito carinho.

iv
AGRADECIMENTOS

Primeiramente a Deus, a causa primria de todas as coisas.
Ao Professor Paulo Augusto Nepomuceno Garcia pela excelncia na orientao
e dedicao dispensadas para a realizao deste trabalho. Alm dos ensinamentos,
contribuies e segurana transmitida, fatores fundamentais no s para a realizao
desta dissertao, mas tambm para minha formao profissional.
Aos Professores Mrcio de Pinho Vinagre e Hlio Antnio da Silva pelos
conselhos, incentivos e ensinamentos passados durante o curso de ps-graduao.
Ao LABSPOT (Laboratrio de Sistemas de Potncia da Faculdade de
Engenharia Eltrica da Universidade Federal de Juiz de Fora), pela disponibilidade de
utilizao de recursos computacionais.
A todos os professores e colegas do curso de ps-graduao que direta ou
indiretamente contriburam para a realizao desta dissertao, em especial ao
acadmico Geano Elias Rocha pela fundamental ajuda na fase final dos trabalhos.
Ao meu pai Maurilo Marcelino de Oliveira, minha me ngela Maria Rocha de
Oliveira, meu irmo Murilo, minha noiva Marcella, minha madrinha Suely e todos os
meus familiares pelos incentivos e apoio, sem o qual seria impossvel a realizao desse
curso de ps-graduao.











v
Resumo da Dissertao apresentada UFJF como parte dos requisitos necessrios
para a obteno do grau de Mestre em Cincias (M. Sc.)

REDES NEURAIS ARTIFICIAIS APLICADAS NA DETECO,
CLASSIFICAO E LOCALIZAO DE DEFEITOS EM LINHAS DE
TRANSMISSO

ngelo Rocha de Oliveira

Agosto / 2005

Orientador: Paulo Augusto Nepomuceno Garcia, D. Sc.

Programa: Engenharia Eltrica

Este trabalho apresenta um sistema completo para deteco, classificao e
localizao de defeitos em linhas de transmisso, baseado em redes neurais artificiais
(RNA) diretamente alimentadas, por meio da anlise de tenses e correntes trifsicas
na freqncia fundamental, em somente um dos terminais na linha. Atravs de
simulaes de defeitos feitas com o software ATP, um banco de dados gerado. Os
dados so amostrados a uma freqncia de 960Hz e a rede de deteco de defeitos
recebe os sinais provenientes de um filtro de Fourier recursivo. Esta rede, que possui
12 entradas, as quais correspondem aos mdulos e ngulos das tenses e correntes
trifsicas e 1 sada, que tem a funo de, a cada milsimo de segundo, avaliar o
estado de operao da linha: normal ou sob defeito. Para que no haja atuao da
proteo de forma precipitada, o sinal para atuao da proteo somente enviado
aps dez sadas consecutivas indicando defeito. Quando a rede de deteco acusa
curto-circuito, o mdulo de classificao, que composto de uma rede neural com 12
entradas e 4 sadas, recebe os sinais do sistema na regio de defeito e identifica as
fases envolvidas no distrbio, bem como o envolvimento da terra. Com a
identificao das fases envolvidas, o mdulo de localizao de defeitos, que
composto por redes especialistas para cada tipo de defeito, recebe as mesmas
entradas apresentadas ao mdulo de classificao. Cada rede neural constituinte deste
mdulo possui 12 entradas e uma sada, que indica o local de ocorrncia do distrbio.

vi
Testes realizados mostram um sistema eficiente para deteco, classificao e
localizao de defeitos em linhas de transmisso.

vii
Abstract of Dissertation presented to UFJF as a partial fulfillment of the
requirements for a Master of Science degree (M. Sc.)


ARTIFICIAL NEURAL NETWORKS APPLIED IN FAULT DETECTION,
CLASSIFICATION AND LOCATION IN TRANSMISSION LINES

ngelo Rocha de Oliveira

August / 2005

Advisor: Paulo Augusto Nepomuceno Garcia, D. Sc.

Department: Electrical Engineering

This work presents a complete system to fault detection, classification and
location in transmission lines, based on Artificial Neural Networks (ANN), through
three-phase voltage and current analysis, in fundamental frequency, in only one end
of the line. Through fault simulations with software ATP, a data bank is generated.
The data is sampled in 960Hz and the detection neural network receives the signals
from a recursive Fourier filter. This net, that has 12 inputs, that correspond to the
modules and angles of three-phase voltage and current and 1 output, that has a
function to evaluate the operation status of the line: normal or under disturbance. In
order to avoid abrupt operation, the signal to protection is sent only after 10
consecutive output indicating fault.When the detection neural net detects a fault, the
classification module, that is composed by a neural net with 12 inputs and 4 outputs,
receives the signals from the line in the fault region and identifies the phases
involved in the disturbance, as well as earth involvement. With the identification of
the involved phases, the location module, that is composed by specialist neural nets
to each kind of fault, receives the same samples presented to the classification
module. Each neural network of this module has 12 inputs and 1 output, that indicate
the location of the disturbance. The simulation results show an efficient system to
fault detection, classification and location.

viii
Sumrio
Captulo I ......................................................................................................................1
I.1 Motivaes da Dissertao..................................................................................1
I.2 Objetivo da Dissertao ......................................................................................2
I.3 Reviso Bibliogrfica..........................................................................................2
I.4 Publicaes Decorrentes da Dissertao.............................................................6
I.5 Estrutura da Dissertao......................................................................................6
Captulo II.....................................................................................................................8
II.1 Consideraes Iniciais .......................................................................................8
II.2 O Crebro Humano............................................................................................9
II.3 Modelagem do Neurnio Artificial..................................................................11
II.3.1 Tipos de Funo de Ativao.................................................................... 13
II.3.2 Arquiteturas de Rede.................................................................................15
II.3.2.1 Redes Diretas de Uma Camada..........................................................15
II.3.2.2 Redes Diretas (feed-forward) de Camadas Mltiplas........................16
II.3.2.3 Redes Recorrentes (feed-backward) ..................................................17
II.3.3 Aprendizagem...........................................................................................18
II.3.3.1 Aprendizagem com Professor ............................................................19
II.3.3.2 Aprendizagem sem Professor ............................................................20
II.3.3.2.1 Aprendizagem por Reforo......................................................... 20
II.3.3.2.2 Aprendizagem No-Supervisionada ...........................................22
II.3.4 Tarefas de Aprendizagem.........................................................................22
II.3.5 Perceptrons de Uma Camada....................................................................24
II.3.5.1 Perceptron de Rosenblatt ...................................................................25
II.3.5.2 Adaline...............................................................................................27
II.3.6 Perceptrons de Mltiplas Camadas........................................................... 31
II.3.6.1 Algoritmo de Retropropagao (Backpropagation) ..........................32
II.3.6.2 Desempenho do Algoritmo de Retropropagao............................... 37
II.3.6.3 Generalizao do Conhecimento .......................................................37
II.3.6.4 Algoritmo de Treinamento Trainrp ................................................ 40
II.4 Concluses .......................................................................................................41
Captulo III .................................................................................................................42
III. 1 Consideraes Iniciais ...................................................................................42
III.2 Sistema Equivalente e Simulao de Defeitos ............................................... 42
III.3 Mdulo de Deteco de Defeitos....................................................................46
III.4 Mdulo de Classificao de Defeitos .............................................................49
III.5 Mdulo de Localizao de Defeitos ...............................................................51
III.6 Esquema Completo de Proteo de Linhas de Transmisso .......................... 52
III.7 Concluses......................................................................................................53
Captulo IV.................................................................................................................55
IV.1 Consideraes Iniciais....................................................................................55
IV.2 Sistema Teste I ...............................................................................................55
IV.2.1 Gerao de Dados....................................................................................56
IV.2.2 Definio da Topologia das RNA...........................................................58
IV.2.3 Rede de Deteco: Treinamento e Desempenho.....................................59
IV.2.4 Rede de Classificao: Treinamento e Desempenho ..............................61
IV.2.5 Rede de Localizao: Treinamento e Desempenho ................................63

ix
IV.2.5.1 Defeitos FASE-TERRA.......................................................................64
IV.2.5.2 Defeitos FASE-FASE ..........................................................................67
IV.2.5.3 Defeitos FASE-FASE-TERRA............................................................ 71
IV.2.5.4 Defeitos FASE-FASE-FASE ...............................................................73
IV.2.6 Esquema Completo de Deteco, Classificao e Localizao de
Defeitos: Teste de Desempenho. ........................................................................76
IV.3 Sistema Teste II ..............................................................................................79
IV.3.1 Rede de Deteco: Treinamento e Desempenho.....................................79
IV.3.2 Rede de Classificao: Treinamento e Desempenho ..............................81
IV.3.3 Rede de Localizao: Treinamento e Desempenho ................................83
IV.3.3.1 Defeitos FASE-TERRA...................................................................83
IV.3.3.2 Defeitos FASE-FASE ...................................................................... 85
IV.3.3.3 Defeitos FASE-FASE-TERRA........................................................ 87
IV.3.3.4 Defeitos FASE-FASE-FASE ...........................................................89
IV. 4 Concluses ....................................................................................................91
Captulo V ..................................................................................................................93
V.1 Concluses.......................................................................................................93
V.2 Propostas de Desenvolvimentos Futuros.........................................................95
Apndice A.................................................................................................................97
A.1 Consideraes Iniciais .....................................................................................97
A.2 Mtodo da Descida Mais ngreme...................................................................98
A.3 Mtodo de Newton ..........................................................................................99
Apndice B...............................................................................................................101
B.1 Consideraes Iniciais ...................................................................................101
B.2 Formulao Matemtica da Retropropagao ............................................... 101
Apndice C...............................................................................................................107
C.1 Consideraes Iniciais ...................................................................................107
C.2 Aliasing ..........................................................................................................107
Apndice D...............................................................................................................113
D.1 Consideraes Iniciais ...................................................................................113
D.2 Sistema Teste I..............................................................................................113
D.3 Sistema Teste II ............................................................................................114
Referncias Bibliogrficas........................................................................................116


















x
Lista de Figuras
Figura II.1 - Neurnio Humano. .................................................................................10
Figura II.2 - Modelo do Neurnio Artificial...............................................................11
Figura II.3 - Funo Linear.........................................................................................13
Figura II.4 - Funo Limiar. .......................................................................................13
Figura II.5 - Funo Rampa........................................................................................14
Figura II.6 - Funo Sigmide....................................................................................14
Figura II.7 - Rede Direta de 1 Camada.......................................................................16
Figura II.8 - Rede Direta de Mltiplas Camadas........................................................ 17
Figura II.9 - Rede Recorrente. ....................................................................................17
Figura II.10 - Aprendizagem Supervisionada............................................................. 19
Figura II.11 - Aprendizagem por Reforo. .................................................................21
Figura II.12 - Aprendizagem No-Supervisionada.....................................................22
Figura II.13 - Aproximao de Funes. .................................................................... 24
Figura II.14 - Controle de Processos. .........................................................................24
Figura II.15 - Perceptron com 1 Neurnio. ................................................................26
Figura II.16 - Adaline. ................................................................................................28
Figura II.17 - Rede com 2 Camadas Ocultas..............................................................32
Figura III.1 - Sistema Equivalente.............................................................................. 43
Figura III.2 - Mdulo de Deteco de Defeitos.......................................................... 47
Figura III.3 - Rede Neural 12-X-1 para Deteco de Defeitos...................................48
Figura III.4 - Mdulo de Classificao de Defeitos. ..................................................49
Figura III.5 - Rede Neural 12-X-4 para Classificao de Defeitos. ...........................50
Figura III.6 - Mdulo de Localizao de Defeitos. .................................................... 51
Figura III.7 - Rede Neural 12-X-X-1 para Localizao de Defeitos. .........................52
Figura IV.1 - Sistema IEEE-14. ................................................................................. 56
Figura IV.2 - Desempenho da Rede de Deteco X Neurnios na Camada Oculta
para os Subconjuntos de Treinamento e Validao....................................................60
Figura IV.3 - Convergncia da Rede com 10 Neurnios na Camada Oculta. ............ 60
Figura IV.4 - Desempenho da Rede de Classificao X Neurnios na Camada Oculta
para os Subconjuntos de Treinamento e Validao....................................................62
Figura IV.5 - Convergncia da Rede com 15 Neurnios na Camada Oculta. ............ 62
Figura IV.6 - Desempenho da Rede de Localizao AT X Neurnios nas Camadas
Ocultas para os Subconjuntos de Treinamento e Validao....................................... 65
Figura IV.7 - Convergncia da Rede com 23 Neurnios nas Camadas Ocultas. .......65
Figura IV.8 - Curva de Probabilidade Acumulada para Rede de Localizao de
Defeitos AT. ...............................................................................................................66
Figura IV.9 - Curva de Probabilidade Acumulada para o Conjunto de Dados Extra
em Relao ao Ponto de Ocorrncia do Defeito......................................................... 67
Figura IV.10 - Desempenho da Rede de Localizao AB X Neurnios nas Camadas
Ocultas para os Subconjuntos de Treinamento e Validao....................................... 68
Figura IV.11 - Convergncia da Rede com 30 Neurnios nas Camadas Ocultas. ..... 69
Figura IV.12 - Curva de Probabilidade Acumulada para Rede de Localizao de
Defeitos AB. ...............................................................................................................69
Figura IV.13 - Curva de Probabilidade Acumulada para o Conjunto de Dados Extra
em Relao ao Ponto de Ocorrncia do Defeito......................................................... 70

xi
Figura IV.14 - Desempenho da Rede de Localizao ABT X Neurnios nas Camadas
Ocultas para os Subconjuntos de Treinamento e Validao....................................... 71
Figura IV.15 - Convergncia da Rede com 14 Neurnios nas Camadas Ocultas. ..... 72
Figura IV.17 - Curva de Probabilidade Acumulada para o Conjunto de Dados Extra
em Relao ao Ponto de Ocorrncia do Defeito......................................................... 73
Figura IV.18 - Desempenho da Rede de Localizao ABC X Neurnios nas Camadas
Ocultas para os Subconjuntos de Treinamento e Validao....................................... 74
Figura IV.19 - Convergncia da Rede com 34 Neurnios nas Camadas Ocultas. ..... 74
Figura IV.20 - Curva de Probabilidade Acumulada para Rede de Localizao de
Defeitos ABC. ............................................................................................................75
Figura IV.21 - Curva de Probabilidade Acumulada para o Conjunto de Dados Extra
em Relao ao Ponto mais Distante de Ocorrncia do Defeito. .................................76
Figura IV.22 - Simulao de Operao do Esquema Completo para Deteco,
Classificao e Localizao de Defeitos em Linhas de Transmisso.........................77
Figura IV.23 - Desempenho da Rede de Deteco X Neurnios na Camada Oculta
para o Subconjunto de Treinamento e Validao. ...................................................... 80
Figura IV.24 Convergncia da Rede com 11 Neurnios na Camada Oculta. ......... 80
Figura IV.25 - Desempenho da Rede de Classificao X Neurnios na Camada
Oculta para o Subconjunto de Treinamento e Validao. .......................................... 82
Figura IV.26 - Convergncia da Rede com 21 Neurnios na Camada Oculta. .......... 82
Figura IV.27 - Desempenho da Rede de Localizao AT X Neurnios nas Camadas
Ocultas para o Subconjunto de Treinamento e Validao..........................................84
Figura IV.28 - Convergncia da Rede com 14 Neurnios nas Camadas Ocultas. ..... 84
Figura IV.29 - Curva de Probabilidade Acumulada para Rede de Localizao de
Defeitos AT. ...............................................................................................................85
Figura IV.30 - Desempenho da Rede de Localizao AB X Neurnios nas Camadas
Ocultas para o Subconjunto de Treinamento e Validao..........................................86
Figura IV.31 - Convergncia da Rede com 15 Neurnios nas Camadas Ocultas. ..... 86
Figura IV.32 - Curva de Probabilidade Acumulada para Rede de Localizao de
Defeitos AB. ...............................................................................................................87
Figura IV.33 - Desempenho da Rede de Localizao ABT X Neurnios nas Camadas
Ocultas para o Subconjunto de Treinamento e Validao..........................................88
Figura IV.34 - Convergncia da Rede com 19 Neurnios nas Camadas Ocultas. ..... 88
Figura IV.35 - Curva de Probabilidade Acumulada para Rede de Localizao de
Defeitos ABT..............................................................................................................89
Figura IV.36 - Desempenho da Rede de Localizao ABC X Neurnios nas Camadas
Ocultas para o Subconjunto de Treinamento e Validao..........................................90
Figura IV.37 - Convergncia da Rede com 23 Neurnios nas Camadas Ocultas. ..... 90
Figura IV.38 - Curva de Probabilidade Acumulada para Rede de Localizao de
Defeitos ABC. ............................................................................................................91
Figura C.1 Esquema de Processamento dos Sinais. ..............................................107
Figura C.2 Sinais no Domnio da Freqncia. ...................................................... 112







xii
Lista de Tabelas
Tabela III.1 - Tabela-verdade da sada da rede de classificao. ............................... 50
Tabela IV.1 Percentual de Acertos da Rede de Deteco. ...................................... 61
Tabela IV.2 - Percentual de Acertos da Rede de Classificao.................................. 63
Tabela IV. 3 Percentual de Acertos da Rede de Deteco. ..................................... 81
Tabela IV.4 - Percentual de Acertos da Rede de Classificao.................................. 83
Tabela C.1 Parmetros da Linha de Transmisso..................................................113
Tabela C.2 Impedncias das Fontes. ..................................................................... 114
Tabela C.3 Tenses Atrs das Barras. ...................................................................114
Tabela C.4 Parmetros da Linha de Transmisso..................................................114
Tabela C.5 Impedncias das Fontes. ..................................................................... 114
Tabela C.6 Tenses Atrs das Barras. ...................................................................114
Tabela C.7 Condies de Operao para Simulao. ............................................115




Captulo I: Introduo
1
Captulo I
Introduo
I.1 Motivaes da Dissertao
A linha de transmisso , dentre todos os equipamentos de um sistema eltrico
de potncia, o que est mais sujeito a defeitos, tendo em vista sua vulnerabilidade em
relao a descargas atmosfricas, que so as principais fontes geradoras de distrbios.
Logo, o principal objetivo dos sistemas de proteo de linhas de transmisso impedir
que defeitos em sua rea de atuao comprometam a integridade da linha, bem como a
estabilidade do sistema [ 1 ].
Contudo, devido normalizao do novo modelo do Setor Eltrico Brasileiro,
que impe penalidades para a empresa transmissora pelo no fornecimento da energia
[ 2 ], o desligamento no programado de uma linha de transmisso pode resultar em
descontos da receita anual da empresa transmissora, que so aplicados sobre o tempo de
indisponibilidade da linha. Portanto, alm da questo da qualidade e continuidade do
fornecimento, o fator econmico, que fundamental em um ambiente competitivo,
exige um sistema de proteo e localizao de defeitos de forma gil e eficiente para
linhas de transmisso.
Sendo assim, atravs de uma rpida deteco do defeito com subseqente
identificao das fases envolvidas e a sua localizao, isola-se o trecho ao mesmo tempo
em que se agiliza o seu reparo, reduzindo o tempo de indisponibilidade da linha e
Captulo I: Introduo
2
conseqentemente as possveis penalidades.
Todavia, a tecnologia disponvel atualmente no mercado de propriedade de
empresas estrangeiras e conseqentemente possuem valores extremamente elevados.
Assim, o desenvolvimento de algoritmos e equipamentos que contribuam para uma
maior eficincia dos sistemas de deteco, classificao e localizao de defeitos em
linhas de transmisso so de grande relevncia para o setor eltrico nacional.
I.2 Objetivo da Dissertao
Esta dissertao tem como objetivo a elaborao de um esquema completo de
deteco, classificao e localizao de defeitos em linhas de transmisso utilizando
redes neurais. Esta metodologia tem como caracterstica importante a utilizao das
tenses e correntes trifsicas na freqncia fundamental, que so sinais comuns em
todas as subestaes, em somente um dos terminais na linha. A inteno elaborar um
sistema de proteo alternativo, que possa trabalhar em conjunto com mtodos
convencionais na proteo de linhas de transmisso, melhorando sua eficincia e
preciso.
I.3 Reviso Bibliogrfica
Os primeiros estudos envolvendo Redes Neurais Artificiais (RNA) iniciaram-se
com a publicao de [ 3 ] por McCulloch e Pitts, considerada a referncia nmero 1
para redes neurais, seguido de Hebb [ 4 ], Rosenblath [ 5 ], Widrow [ 6 ] e Minsky [ 7 ].
Aps um perodo de estagnao nas pesquisas durante a dcada de 70, em 1982
surge o trabalho de Hopfield [ 8 ] e mais tarde Rumelhart [ 9 ]. A partir desse ponto
surgem diversos trabalhos com aplicaes de redes neurais artificiais em diversas reas
do conhecimento humano, como comentado em [ 10 ] e [ 11 ].
Referente a aplicaes de redes neurais em sistemas de potncia, podem ser
citados trabalhos como [ 12 ] no que concerne a modelagem de cargas, [ 13 ] na rea de
monitorao de harmnicos, [ 14 ] no diagnstico de falhas mecnicas em condutores
Captulo I: Introduo
3
de linhas de transmisso e [ 15 ] em estabilidade transitria, dentre outras.
Especificamente em proteo de sistemas de potncia, o conceito de proteo
adaptativa um fator que estimulou o desenvolvimento de novas tecnologias. Este
conceito foi abordado inicialmente em [ 16 ] e [ 17 ]. Em [ 16 ] tem-se os conceitos de
proteo adaptativa de linhas de transmisso, os quais incluem modificaes on-line nas
regulagens, caractersticas ou lgica de rels em resposta a modificaes como
contingncias relacionadas perda de linhas ou geradores do sistema. Em [ 17 ] so
descritos resultados de uma investigao sobre as possibilidades do uso de tcnicas
digitais para adaptar o sistema de controle e proteo de linhas de transmisso s
modificaes do sistema em tempo real, com o desenvolvimento de estratgias
adaptativas para minimizar os problemas com confiabilidade, otimizando a performance
do sistema. Este conceito foi implementado atravs de algoritmos de rels digitais.
Discusses adicionais relativas aos conceitos de proteo adaptativa podem ser
encontradas em [ 18 ], [ 19 ], [ 20 ] , [ 21 ] e [ 22 ].
Assim, diversas metodologias utilizando os conceitos de proteo adaptativa
para a proteo de linhas de transmisso vm sendo desenvolvidas e apresentadas na
literatura. Dentre essas tcnicas, destacam-se as que utilizam medies nos dois
extremos da linha de transmisso [ 23 ],[ 24 ], [ 25 ], [ 26 ] e [ 27 ]. Em [ 23 ] descrito
um mdulo de localizao de defeitos em linhas de transmisso a ser incorporado ao
Sistema Interligado de Apoio Anlise de Perturbaes SINAPE (CEPEL). O
mdulo utiliza fasores de tenso e corrente de defeito de ambas as extremidades da linha
de transmisso atravs do processamento das amostras armazenadas por oscilgrafos
digitais. Nesse caso os sinais so sincronizados por satlite (GPS Global Positioning
System), o qual age sobre o disparo dos oscilgrafos corrigindo o instante de disparo do
registrador. No entanto, no h garantia de que as amostras foram obtidas no mesmo
instante de tempo. Para minimizar esse erro, aumenta-se a freqncia de amostragem.
Em [ 24 ] descrito um rel diferencial que utiliza medies sincronizadas das duas
extremidades da linha de transmisso, com estrutura de sincronizao de sinais
semelhante utilizada em [ 23 ]. Em [ 25 ], aplicando-se a tcnica PMU (Phasor
Measurement Units) para sincronizao de sinais, mostrado um algoritmo para
localizao de defeitos em linhas de transmisso usando superposio dos fasores de
tenso e corrente nos dois terminais da linha de transmisso. As unidades de medio de
fasores so instaladas nas duas extremidades da linha de transmisso e um gerador
Captulo I: Introduo
4
global de sincronismo (GSCG Global Synchronism Clock Generator) estabelece o sinal de
referncia para sincronismo das medies, garantindo assim grande preciso na
sincronizao dos sinais amostrados. Em [ 26 ], onde tambm utilizada a tcnica PMU,
descrito um mtodo de localizao de defeitos para linhas de transmisso usando
medies sincronizadas de tenso dos dois terminais da linha e as matrizes de
impedncia de fonte atrs das barras, para uma dada linha sob estudo. Da mesma
maneira, em [ 27 ] apresentado um esquema completo para proteo de linhas de
transmisso utilizando medies sincronizadas com a tcnica PMU em ambas as
extremidades da linha.
Em [ 28 ] e [ 29 ] so examinados diversos mtodos de sincronizao de sinais e
possvel observar que, apesar de eficientes, esses mtodos requerem uma complexa
estrutura de operao. Deve-se considerar tambm que nem sempre h disponibilidade
de acesso aos sinais registrados nas duas extremidades em tempo hbil, de forma a
serem utilizados para monitorao de defeitos, limitando-se a aplicao dessas tcnicas.
Com isso, os mtodos que utilizam sinais de tenso e corrente em apenas um
terminal tambm devem ser considerados importantes, como o caso do mtodo de
Takagi [ 30 ]. O Mtodo de Takagi um dos mais conhecidos de localizao de defeitos
a partir de medies em um terminal. Este mtodo baseia-se no clculo da reatncia da
linha de transmisso sob defeito e se prope a corrigir distores provocadas por
diferentes carregamentos da linha de transmisso e resistncia de defeito, porm,
depende do fiel mapeamento das componentes de seqncia zero da linha de
transmisso.
Ainda em relao aos mtodos que utilizam sinais em um nico terminal, os
mesmos normalmente baseiam-se em equaes de rede [ 31 ][ 32 ] e como mencionado
em [ 33 ] e [ 24 ], so sensveis a variaes dos parmetros do sistema, tais como
impedncias da fonte, ngulo de incidncia de defeito, condies de carregamento do
sistema, etc. Em [ 31 ] apresentado um mtodo de localizao de defeitos atravs de
rels de distncia. Esse mtodo utiliza a impedncia medida no instante do defeito e s
funciona para curtos francos. Em [ 32 ] apresentado um algoritmo de localizao de
defeitos que aplica o mtodo de Newton-Raphson s equaes de rede para indicar o local
de ocorrncia do defeito. Embora seja eficiente, necessita de atualizaes da impedncia
de fonte do terminal remoto sempre que ocorrer uma modificao no sistema.
Captulo I: Introduo
5
Sendo assim, diversos trabalhos que utilizam RNA tm sido apresentados como
alternativa para proteo de linhas de transmisso. Referente s aplicaes de redes
neurais na deteco de defeitos em sistemas de potncia, pode-se citar [ 34 ] e [ 35 ]. Em
[ 34 ] descrito um discriminador de direo de defeito que utiliza uma rede neural
multicamadas diretamente alimentada para analisar os valores instantneos de tenso e
corrente da linha de transmisso e assim tomar decises. Em [ 35 ] encontrada uma
abordagem para deteco de defeitos de alta impedncia a partir de medies de
corrente em um terminal, a partir da tecnologia de processamento de sinais utilizada em
dispositivos comerciais, utilizando-se algoritmos baseados em redes neurais, estatstica
de ordem superior e transformada wavelet.
Aplicaes para classificao de defeitos podem ser encontradas em [ 36 ] e
[ 37 ]. Em [ 36 ] utilizam-se RNA e conceitos de processamento digital de sinais para
implementar um esquema de classificao de defeitos a partir de amostras de tenso e
corrente. Em [ 37 ] os mesmos conceitos so utilizados com a diferena de que em [ 36 ]
a rede neural possui 30 entradas, que so 5 amostras consecutivas das tenses e
correntes trifsicas da linha de transmisso e em [ 37 ] a rede neural tem 24 entradas,
constitudas por 4 amostras consecutivas das tenses e correntes trifsicas da linha.
Trabalhos desenvolvidos em [ 38 ] e [ 39 ] podem ser citados como aplicaes
de RNA para localizao de defeitos em linhas de transmisso. Em [ 38 ] encontra-se
uma aplicao de redes neurais em proteo de distncia. A nfase do trabalho est na
criao de um sistema de deteco mais seletivo no que concerne a defeitos com
resistncia de arco, onde a contribuio da seqncia zero dificulta a localizao do
defeito. Tambm em [ 39 ] observa-se a utilizao de redes neurais como classificadores
de padro para operao de rels de distncia.
Podem ser citados ainda trabalhos como [ 40 ] e [ 41 ] como desenvolvimentos
de esquemas para deteco, classificao e localizao de defeitos em linhas de
transmisso utilizando inteligncia artificial. Em [ 40 ] utilizada uma tcnica
denominada seleo tima de caractersticas no domnio wavelet e supervisionada por
redes neurais num esquema completo de deteco, classificao e localizao de defeitos
em LT. De maneira semelhante, em [ 41 ] apresentado um modelo alternativo
utilizando redes neurais com 24 entradas, que so os valores consecutivos de tenso e
corrente trifsicas da linha.
Captulo I: Introduo
6
De forma geral, os trabalhos utilizando redes neurais em proteo de linhas de
transmisso caracterizam-se por restringir alguns parmetros de simulao, tais como
valores de impedncia de defeito, valores dos ngulos de incidncia de defeitos, etc.
Estas consideraes podem limitar a aplicao de RNA em casos reais [ 42 ].
Devido a esses e outros motivos, a aplicao de redes neurais artificiais em
proteo de linhas de transmisso ainda incipiente, constituindo um campo promissor
para pesquisas, onde o objetivo promover uma melhoria no desempenho dos sistemas
de proteo convencionais ou at mesmo substitu-los [ 43 ].
I.4 Publicaes Decorrentes da Dissertao
Redes Neurais Artificiais Aplicadas na Deteco e Classificao de Faltas em
Linhas de Transmisso, artigo aceito no VI Congresso Latino Americano de Gerao e
Transmisso de Energia Eltrica (CLAGTEE), Mar Del Plata, Novembro de 2005.
I.5 Estrutura da Dissertao
Alm desse captulo, esta dissertao contm mais quatro captulos e trs
apndices. O captulo II uma introduo a RNA, onde so apresentadas as
caractersticas gerais de redes neurais, bem como os conceitos que envolvem
arquiteturas de redes, processos de treinamento e tcnicas para melhoria de
desempenho.
O captulo III trata da aplicao de RNA em proteo de linhas de transmisso.
So abordadas questes relativas ao modelo de linhas de transmisso, utilizao do
software ATP para simulao dos defeitos, montagem de banco de dados para
treinamento das redes neurais assim como as caractersticas dos mdulos de deteco,
classificao e localizao de defeitos.
No captulo IV so apresentados e discutidos os resultados obtidos mediante a
aplicao da metodologia proposta. Para tanto, so utilizados dois sistemas teste.
Captulo I: Introduo
7
No captulo V so apresentadas as principais concluses do trabalho e sugestes
para desenvolvimentos futuros.
O Apndice A apresenta alguns aspectos de tcnicas de otimizao irrestrita.
O Apndice B apresenta a formulao matemtica do algoritmo de
retropropagao, utilizado para treinamento de RNA.
O Apndice C apresenta uma breve explanao sobre processamento de sinais.
Finalizando, o Apndice D mostra os dados dos sistemas eltricos equivalentes
utilizados nesta dissertao.

8
Captulo II
Redes Neurais Artificiais
II.1 Consideraes Iniciais
A motivao do estudo e aplicao de Redes Neurais Artificiais (RNA) passa
pelo reconhecimento de que o crebro humano processa informaes de uma forma
distinta do computador digital convencional. Com a capacidade de organizar sua
estrutura neuronal, capaz de realizar certos processamentos, como reconhecer padres
mais rapidamente que o computador digital.
Um crebro uma mquina que tem uma grande habilidade de desenvolver suas
prprias regras. Uma rede neural artificial, por conseguinte, deve ter a capacidade de
modelar a maneira como o crebro realiza uma tarefa. O principal atrativo para o uso de
RNA na soluo de problemas a capacidade de aprender atravs de exemplos e de
generalizar o conhecimento aprendido.
Conceitualmente, uma rede neural um processador maciamente paralelamente
distribudo, constitudo de unidades de processamento simples, que tm a propenso
natural para armazenar conhecimento experimental e torn-lo disponvel para uso [ 44 ].
As principais caractersticas das redes neurais so [ 44 ]:
Possibilidade de considerar o comportamento no linear dos fenmenos
fsicos;
Captulo II: Redes Neurais Artificiais
9
Necessidade de pouco conhecimento estatstico sobre o ambiente onde a
rede est inserida;
Capacidade de aprendizagem, obtida atravs de exemplos entrada/sada
que sejam representativos do ambiente;
Habilidade de aproximar qualquer mapeamento entrada/sada de
natureza contnua;
Adaptabilidade;
Generalizao;
Tolerncia a falhas;
Informao contextual;
Armazenamento do conhecimento adquirido, atravs de foras de
conexo entre neurnios, conhecidas como pesos sinpticos.
Assim, cada vez mais as redes neurais vm sendo empregadas nos mais diversos
campos do conhecimento.
II.2 O Crebro Humano
O crebro humano considerado o mais fascinante processador baseado em
carbono existente [ 44 ]. Todas as funes e movimentos do organismo esto
relacionados ao funcionamento destas pequenas clulas. Os neurnios esto conectados
uns aos outros atravs de sinapses, e juntos formam uma grande rede, chamada rede
neural. As sinapses transmitem estmulos atravs de diferentes concentraes de Na+ e
K+, e o resultado disto pode ser estendido por todo o corpo humano. Esta grande rede
proporciona uma fabulosa capacidade de processamento e armazenamento de
informao.
Captulo II: Redes Neurais Artificiais
10
Tipicamente os neurnios so de cinco a seis ordens de grandeza mais lentos
que as portas lgicas em silcio (10
-3
s x 10
-9
s). Entretanto, o crebro compensa a taxa de
operao relativamente baixa (do neurnio) pelo expressivo nmero de clulas nervosas,
com conexes macias entre si [ 44 ].
Estima-se que haja aproximadamente 10 bilhes de neurnios no crtex
humano e 60 trilhes de conexes entre os mesmos [ 44 ]. As conexes entre os
neurnios, tambm chamadas de sinapses, so as unidades que medeiam as interaes
entre os neurnios. Uma sinapse uma conexo simples que pode impor ao neurnio
que a recebe um estmulo que pode excit-la ou inibi-la, mas no pode provocar os dois
efeitos ao mesmo tempo.
Clulas piramidais, como a da Figura II.1, so um dos tipos mais comuns de
neurnio do crtex, os quais recebem a maioria de seus estmulos por meio de espinhas
dendritais. Essas clulas so capazes de receber dez mil ou mais conexes sinpticas e
podem se projetar sobre milhares de clulas-alvo [ 44 ].

Figura II.1 - Neurnio Humano.
Os dendritos, como mostrados na Figura II.1 formam uma regio onde os sinais
de entrada so recebidos. O corpo do neurnio, tambm chamado de somma,
responsvel por coletar e combinar informaes vindas de outros neurnios. Os axnios
so as vias atravs das quais o sinal transportado at a outra extremidade do neurnio.
Estes podem ser vistos como linhas de transmisso, pois so longos, finos e possuem
alta resistncia eltrica e capacitncia, distribudos uniformemente ao longo de sua
extenso [ 44 ].
Captulo II: Redes Neurais Artificiais
11
As sinapses constituem o patamar fundamental quando se trata de organizao
anatmica do crebro. Em patamares superiores temos os microcircuitos neurais, que
nada mais so do que sinapses agrupadas para uma determinada operao funcional. O
conjunto desses circuitos forma subunidades dendritais dentro das rvores dos
neurnios, que so numerosas em um neurnio. Em seqncia, tm-se os circuitos
locais, que so conjuntos de neurnios. Posteriormente os circuitos inter-regionais,
formados por caminhos, colunas, mapas topogrficos, abrangendo diversas reas do
crebro.
importante ressaltar que os neurnios que formam redes neurais artificiais so
primitivos em comparao com aqueles encontrados no crebro.
II.3 Modelagem do Neurnio Artificial
O modelo do neurnio artificial mostrado na Figura II.2.

Entrada
Bias
Somador
Funode Ativao
Sada
W
k1
W
k2
W
km
x
1
x
m
x
2
b
k
v
k
y
k
F(v
k
)

Figura II.2 - Modelo do Neurnio Artificial.

Sendo o neurnio uma unidade de processamento de informao fundamental
para a operao de uma rede neural, podemos identificar trs elementos bsicos em seu
modelo:
Sinapse: Conexo caracterizada por um peso ou fora prpria.
Uma sinapse m, que est conectada a um neurnio k, recebe um sinal x
m

Captulo II: Redes Neurais Artificiais
12
que por sua vez multiplicado pelo peso sinptico w
km
. No caso de
modelagem de neurnios artificiais, os valores dos pesos podem ser
tambm negativos se as sinapses forem inibitrias, ou positivos, se as
sinapses forem excitatrias. Os pesos sinpticos tm a funo de
determinar a importncia dos sinais de determinada regio.
Somador: Combinador linear, que realiza o somatrio das entradas do
neurnio, ponderadas pela ao dos respectivos pesos sinpticos.
Funo de Ativao: Funo que restringe a amplitude do sinal de
sada ao condicionar a ativao do sinal ultrapassagem de um
determinado limiar pelo valor da soma ponderada das entradas. Os
intervalos tpicos de normalizao de sada so [0,1] e [-1,1].
OBS.: Complementarmente, tem-se o bias, que tem aplicao externa e tem a
capacidade de aumentar ou diminuir a entrada da funo de ativao.
Matematicamente, um neurnio pode ser descrito como:
( )
k k k
y F v b = +
(II.1)
Onde:
1
.
m
k kj j
j
v w x
=
=


(II.2)
Onde:
x
1
, x
2
, x
3
,... , x
m
Vetor de entrada.
w
k1
, w
k2
, w
k3
,... , w
km
Pesos sinpticos do neurnio k.
v
k
Sada do combinador linear (Somador).
b
k
Bias.
Captulo II: Redes Neurais Artificiais
13
F( ) Funo de ativao.
y
k
Sada do neurnio k.
II.3.1 Tipos de Funo de Ativao
A funo de ativao F(v) define a sada de um neurnio em termos do campo
induzido v. Podemos citar quatro tipos bsicos de funo de ativao: linear, limiar,
rampa (linear por partes) e sigmoidal.
A funo linear est ilustrada na Figura II.3:

Figura II.3 - Funo Linear.

E definida pela equao (II.3):
( )
k k
F v v =

(II.3)

A funo limiar est ilustrada na Figura II.4

Figura II.4 - Funo Limiar.
Captulo II: Redes Neurais Artificiais
14
E definida como:
0, 0
( )
1, 0
k
k
k
v
F v
v
<
=


(II.4)

A funo de ativao rampa, mostrada na Figura II.5,

F(v
k
)
v
k
1
-s
+
s

Figura II.5 - Funo Rampa.

Nada mais do que a funo linear em uma faixa [-s,+s] e saturada fora desta
faixa, como descreve a equao (II.5):
1
0,
( ) ,
1,
k
m
k kj j k k
j
k
v s
F v w x b s v s
v s
=

= + < < +


(II.5)

A funo sigmide, ilustrada na Figura II.6, uma funo semilinear, limitada e
montona. definida como uma funo estritamente crescente que exibe um
balanceamento adequado entre comportamento linear e no-linear.
v
k
1
0
F(v
k
)

Figura II.6 - Funo Sigmide.
Captulo II: Redes Neurais Artificiais
15
Um exemplo de funo sigmoidal a funo logstica, definida pela equao
(II.6):
( / )
1
( )
1
k
k v T
F v
e

=
+

(II.6)

Onde T determina a inclinao da sigmide. Quando T tende a zero, a funo
assume caractersticas de uma funo limiar.
Quando desejvel que a funo de ativao tenha uma forma anti-simtrica em
relao origem, assumindo assim valores entre [-1,+1], pode-se utilizar, por exemplo, a
funo tangente hiperblica.
II.3.2 Arquiteturas de Rede
Definir a arquitetura de uma RNA muito importante devido ao fato de que seu
arranjo depende do problema a ser tratado pela rede. Ademais, a arquitetura da rede est
intimamente relacionada ao algoritmo de aprendizagem usado para treinamento. Na
escolha da estrutura a ser utilizada so analisados: nmero de camadas, nmero de ns,
tipo de conexes entre os ns e a topologia da rede.
Em geral, podemos identificar trs tipos bsicos de arquiteturas:
II.3.2.1 Redes Diretas de Uma Camada
So redes neurais constitudas por apenas um agrupamento de neurnios que
recebem informao simultaneamente. Este agrupamento recebe o nome de camada.
Esse tipo de rede tambm acclica, ou seja, no possui laos de realimentao. Como
pode ser observado na Figura II.7, h uma camada de ns de fonte que recebem sinais
de excitao do meio externo e estes se conectam com a camada de neurnios, que por
sua vez, ligam-se aos ns de sada da rede [ 44 ].
Captulo II: Redes Neurais Artificiais
16

Figura II.7 - Rede Direta de 1 Camada.

Esse tipo de rede utilizado em telecomunicaes, onde modems de alta
velocidade de transmisso utilizam equalizadores adaptativos de linha e canceladores
adaptativos de eco. Cada um desses sistemas adaptativos utiliza uma rede neural [ 45 ].
II.3.2.2 Redes Diretas (feed-forward) de Camadas Mltiplas
So redes que, assim como as redes de uma camada, possuem fluxo de
informao unidirecional, porm, neste caso, h presena de camadas ocultas, cujos ns
computacionais so chamados de neurnios ocultos. Devido ao conjunto extra de
conexes sinpticas e da riqueza de interaes neurais, as camadas ocultas so capazes
de extrair caractersticas complexas do ambiente em que atuam [ 44 ].
Nas redes de mltiplas camadas, como a mostrada na Figura II.8, cada camada
tem uma funo especfica. A camada de sada final recebe os estmulos da camada
intermediria e constri a resposta global para o padro de ativao fornecido pelos ns
de fonte da camada de entrada. As camadas intermedirias funcionam como extratoras
de caractersticas, codificando atravs de seus pesos as caractersticas apresentadas nos
padres de entrada, fazendo com que a rede crie uma representao prpria do
problema, com mais riqueza e complexidade [ 46 ].
Uma rede neural artificial necessita de no mximo duas camadas intermedirias,
com um nmero suficiente de unidades por camada, para produzir quaisquer
mapeamentos, e redes com apenas uma camada intermediria so suficientes para
aproximar qualquer funo contnua, conforme demonstrado por Cybenko em [ 47 ].
Captulo II: Redes Neurais Artificiais
17

Figura II.8 - Rede Direta de Mltiplas Camadas.

Aplicaes de redes de mltiplas camadas podem ser citadas na rea de
reconhecimento de caracteres. Por exemplo, redes neurais que reconhecem caracteres da
lngua japonesa, constitudas de 10 milhes de sinapses, possuem desempenho bem
superior ao dos sistemas convencionais. Outra aplicao em controle de qualidade,
onde existem aplicaes na rea de deteco de nvel de contaminao, classificao de
erros em alto-falantes e at avaliao do grau de pureza do suco de laranja.
II.3.2.3 Redes Recorrentes (feed-backward)
Redes recorrentes so redes que possuem pelo menos um lao de realimentao,
como est ilustrado na Figura II.9. A presena de laos de realimentao tem um
impacto profundo na capacidade de aprendizagem da rede e no seu desempenho devido
ao seu comportamento dinmico. Alm disso, os laos de realimentao envolvem o uso
de ramos particulares compostos de elementos de atraso unitrio, o que resulta em um
comportamento dinmico no-linear, quando se admite que a rede neural tenha
unidades no-lineares.

Figura II.9 - Rede Recorrente.
Captulo II: Redes Neurais Artificiais
18
Como exemplos de redes recorrentes pode-se citar:
Rede de Hopfield: Desenvolvida por J.J.Hopfield [ 8 ]. utilizada para
reconhecimento de imagens;
Rede de Kohonen: Desenvolvida pelo Prof. Teuvo Kohonen [ 48 ],
utilizada para classificao de padres, otimizao de problemas e
simulaes.
Redes ART (Adaptive Resonance Theory): Representa um nico
neurnio artificial que recebe entrada de vrias outras unidades
semelhantes [ 49 ]. Tem por base as caractersticas da teoria da
ressonncia adaptativa, que consiste na habilidade de se adaptar diante de
novas entradas. utilizada para reconhecimento de sinais de radar e
processamento de imagens.
II.3.3 Aprendizagem
O objetivo da aprendizagem determinar a intensidade das conexes entre os
neurnios em uma rede neural. O conjunto de procedimentos bem definidos para
adaptar os parmetros de uma RNA, de modo a fazer com que ela aprenda determinada
funo, recebe o nome de algoritmo de aprendizagem.
O que distingue os diversos algoritmos de aprendizagem existentes o modo
pelo qual o ajuste de pesos feito. Aplicar um algoritmo de aprendizagem a uma
determinada rede neural consiste em apresentar rede padres de informao num
processo iterativo onde os pesos sinpticos sero ajustados, adquirindo dessa maneira o
conhecimento do ambiente no qual ir operar.
Basicamente h dois tipos de paradigmas de aprendizagem: Aprendizagem com
Professor e Aprendizagem sem Professor.

Captulo II: Redes Neurais Artificiais
19
II.3.3.1 Aprendizagem com Professor
Tambm denominada Aprendizagem Supervisionada, o mtodo de aprendizagem
em que a rede possui um professor que possui conhecimento a respeito de
determinado ambiente. Quando a rede recebe uma informao deste ambiente, o
professor fornece juntamente a resposta esperada para determinado estmulo.
Como pode ser observado na Figura II.10, a rede utiliza como orientao para o
ajuste dos pesos sinpticos um sinal de erro gerado pela discrepncia entre a sada
esperada (fornecida pelo professor) e a sada obtida (calculada). A cada par entrada-
sada esperada apresentada rede, um sinal de erro gerado e os pesos sinpticos so
ajustados de forma a minimizar o erro de sada da rede. Um dos parmetros
normalmente utilizados para aferio do desempenho de uma RNA a soma dos erros
quadrticos das sadas da rede para todo universo de amostras [ 45 ]. O erro quadrtico
tambm utilizado como funo objetivo a ser minimizada pelo algoritmo de
treinamento. O algoritmo mais utilizado para treinamento com professor o algoritmo
de retropropagao [ 9 ], tambm chamado Backpropagation, que ser detalhado na seo
II.3.6.1.

Figura II.10 - Aprendizagem Supervisionada.
Podem ser citados como exemplos tpicos de aprendizagem com professor
problemas de aproximao de funes, modelagem de sistemas e classificao de dados.


Captulo II: Redes Neurais Artificiais
20
II.3.3.2 Aprendizagem sem Professor
Nesse paradigma de aprendizagem no h um par entrada-sada esperada sendo
entregue rede: a rede recebe os estmulos do ambiente sem os valores de resposta
esperados, ou seja, no h professor para supervisionar a aprendizagem.
Aqui so discriminados dois tipos de aprendizagem sem professor: Aprendizagem
por Reforo e Aprendizagem No-Supervisionada.
II.3.3.2.1 Aprendizagem por Reforo
Esse paradigma baseado na idia de que, se estados satisfatrios ocorrem
devido determinada ao, ento a tendncia do sistema de produzir esta ao particular
reforada; caso contrrio, a tendncia enfraquecida. Em se tratando de sistemas
biolgicos, quanto maior a satisfao obtida em decorrncia de determinada experincia,
maiores sero as chances de ocorrer o aprendizado[ 44 ].
Apesar de no haver professor indicando as respostas esperadas para os
estmulos do ambiente, este paradigma fornece base para que haja interao da rede com
o ambiente, desenvolvendo a habilidade para realizao das tarefas a partir dos
resultados de sua prpria experincia, caracterizando assim um problema de
aprendizagem baseado em comportamento. Esse paradigma adequado quando se
consideram problemas para situaes dinmicas, em que muito complexo reunir um
conjunto satisfatrio de pares entrada-sada para treinamento. Dessa maneira, a rede
aprende a tomar boas decises a partir da observao de seu prprio comportamento e
melhora suas aes atravs de um mecanismo de reforo. Esse tipo de aprendizagem
inspirado na aprendizagem infantil humana. Uma criana costuma realizar aes
aleatrias e, de acordo com as respostas de seus pais (elogio ou reclamao), aprende
quais daquelas aes so boas e quais so ruins.
No diagrama da Figura II.11, pode ser observado que o sinal de reforo que a
rede recebe gerado por um crtico, que recebe um sinal do ambiente atravs de um
processo de deciso que pode ser por exemplo o processo Markoviano [ 44 ]. Se a ao
acarretar uma degradao no desempenho da rede, o reforo ser negativo, fazendo com
Captulo II: Redes Neurais Artificiais
21
que a ao ocorra com menos chance em situaes futuras. Se, por outro lado, a ao
resultar em uma melhoria de desempenho da rede, ocorrer um reforo positivo, com
maior probabilidade de ocorrncia dessa ao no futuro. O objetivo da aprendizagem
a maximizao do reforo e conseqentemente a melhoria do desempenho [ 45 ]. Em
termos de programao neurodinmica, podemos dizer que as boas decises da rede so
tomadas com base em seu prprio comportamento e o reforo auxilia na melhoria de
suas aes.
Essas caractersticas da aprendizagem por reforo a tornam uma opo
naturalmente interessante para resolver o problema de adaptao ao usurio, que tem
como fator crtico a necessidade de constante aprendizado. Alm disso, a no utilizao
de conhecimento do domnio de aplicao torna o mtodo genrico para ser aplicado
por exemplo, em diferentes tipos de jogos eletrnicos [ 50 ].
A aprendizagem por reforo utilizada quando no se consegue obter exemplos
de comportamento correto para as situaes que o agente enfrenta ou quando o agente
atuar em um ambiente desconhecido.

Figura II.11 - Aprendizagem por Reforo.



Captulo II: Redes Neurais Artificiais
22
II.3.3.2.2 Aprendizagem No-Supervisionada
O objetivo de um algoritmo para aprendizagem auto-organizada descobrir
padres significativos ou caractersticas nos dados de entrada e fazer esta descoberta
sem um professor.
Quando as nicas informaes disponveis so os valores de entrada da rede, a
tarefa de aprendizagem descobrir correlaes entre os exemplos de treinamento.
Inicialmente, o nmero de categorias ou classes no est definido. Isso significa que a
rede tem que achar atributos estatsticos relevantes, ou seja, ela tem que desenvolver
uma representao prpria dos estmulos apresentados s suas entradas. H necessidade
de haver redundncia de dados de entrada, sem o qual seria impossvel encontrar
padres. Alguns mtodos de implementao de aprendizado no-supervisionado so
Hebbiano e por Competio [ 44 ]. A Figura II.12 ilustra este tipo de aprendizagem:

Figura II.12 - Aprendizagem No-Supervisionada.
Como exemplo de aplicao de aprendizagem no-supervisionada pode-se citar
o problema de identificao de usurios de carto de crdito com base em seus perfis de
compra. um problema de categorizao de dados, onde a rede deve retornar o
nmero de classes de usurios e quais pertencem a cada classe [ 45 ].
II.3.4 Tarefas de Aprendizagem
Quando se trabalha com RNA importante ressaltar que o tipo de algoritmo de
aprendizagem a ser utilizado est intimamente relacionado com a tarefa a ser executada
pela rede. A seguir, algumas tarefas bsicas de aprendizagem:
Associao de Padres

Pode-se classificar a associao em auto-associao e heteroassociao. No
primeiro caso, apresenta-se um conjunto de padres para que ocorra a fase de
Captulo II: Redes Neurais Artificiais
23
armazenamento desse conjunto. Aps essa fase, so apresentados rede os mesmos
padres, porm com caractersticas distorcidas. Nesta fase a rede deve recordar-se dos
padres apresentados e, atravs de associao, apresentar resposta correta ao estmulo.
Observa-se nesse caso o uso de aprendizagem no-supervisionada. J para a
heteroassociao, como existe um conjunto de pares entrada-sada esperados, utiliza-se
aprendizagem supervisionada.
Reconhecimento de Padres

O processo de reconhecimento de padres passa por uma fase de treinamento,
onde se apresenta rede um conjunto de padres (repetidamente), juntamente com a
classe qual cada padro pertence. Com a fase de treinamento completa, so
apresentados rede padres nunca antes vistos pela rede, mas que pertencem s
mesmas classes dos elementos utilizados na fase de treinamento. A rede adquire a
capacidade de identificar a qual classe pertence cada nova entrada apresentada, a partir
da extrao de caractersticas promovida na fase de treinamento. Para o caso de redes de
mltiplas camadas, realiza-se aprendizagem supervisionada e as camadas ocultas so
responsveis pela extrao de caractersticas do ambiente. Um maior detalhamento
sobre redes de mltiplas camadas ser feito nas sees subseqentes.
Aproximao de Funes

Nesta tarefa, o objetivo treinar uma rede neural que seja capaz, a partir de um
conjunto de pares entradas-sadas, de mapear uma determinada relao funcional que
contemple o universo de amostras sob anlise.
Na Figura II.13 a entrada x apresentada RNA e funo desconhecida f(x).
As sadas esperadas e obtidas geram um sinal de erro que usado para orientar a
calibrao dos pesos da rede. O processo dado por encerrado quando o sinal de erro
reduzido a valores inferiores a uma determinada tolerncia. Nesse caso clara aplicao
de aprendizagem supervisionada.
Captulo II: Redes Neurais Artificiais
24

Figura II.13 - Aproximao de Funes.
Controle

Redes neurais tambm podem ser utilizadas em controle de processos em um
determinado sistema. Considere o diagrama mostrado na Figura II.14

Figura II.14 - Controle de Processos.
Observa-se que a sada do processo alimentada de volta para a entrada, para
ser subtrada de um sinal de referncia provido por uma fonte externa, a fim de que um
sinal de erro seja composto, o qual ser aplicado RNA para que seja feito o ajuste de
seus parmetros livres. O ajuste tem o objetivo de fazer com que a sada do processo
siga o sinal de referncia, atravs do fornecimento de entradas apropriadas ao processo.
Aqui, encontra-se outra tarefa que requer aprendizagem supervisionada.
II.3.5 Perceptrons de Uma Camada
O perceptron a forma mais simples de uma RNA classificadora de padres que
podem ser separados por um hiperplano, ou seja, linearmente separveis. composto
basicamente por uma unidade neuronal, com seus pesos sinpticos ajustveis, acrescido
do bias. Devido ao fato de que o primeiro algoritmo dedicado ao treinamento do
perceptron ter sido desenvolvido por Rosenblatt [ 5 ], comum designar perceptron
como Perceptron de Rosenblatt. Outra caracterstica importante do Perceptron de Rosenblatt
Captulo II: Redes Neurais Artificiais
25
est no fato de que um perceptron com somente uma unidade neuronal capaz de
classificar padres com duas classes. Quando se acrescentam unidades neuronais ao
perceptron, ele se torna capaz de classificar padres com mais de duas classes, desde que
as mesmas sejam linearmente separveis, ou seja, hiperplanos delimitaro os limites
entre as classes.
O modelo Adaline(Adaptive Linear Neuron) [ 6 ] contemporneo ao modelo
do perceptron. Ambos so baseados na idia de existir elementos de processamento
executando operaes de soma ponderada e posterior comparao com um valor limiar
e so treinados atravs de aprendizagem supervisionada, porm com abordagens
diferentes.
Os modelos do perceptron e do Adaline diferem entre si pelo algoritmo
empregado para treinamento [ 51 ]. O algoritmo de treinamento do Adaline,
denominado Algoritmo do Mnimo Quadrado Mdio, popularmente conhecido como Regra
Delta, deu origem ao algoritmo de retropropagao ou Backpropagation, para perceptrons de
mltiplas camadas. O modelo Adaline tambm se diferencia do perceptron pelo fato de
que o erro de sada calculado em relao sua sada linear e no em relao sua sada
no linear, como no perceptron, que ser visto a seguir.
II.3.5.1 Perceptron de Rosenblatt
Como pode ser observado na Figura II.15, o perceptron consiste de um
combinador linear (Somador) seguido por uma funo limiar(F(v)), caracterizando assim
uma modelagem de neurnio no-linear. O Somador calcula uma combinao linear das
entradas aplicadas aos pesos sinpticos, agregando um bias externo. O campo local
induzido resultante submetido funo de ativao F(v), que nesse caso a funo
sinal, a qual se parece com a funo limiar (Figura II.4), sendo que a sada levada para
+1 se a entrada for positiva ou -1, se a entrada for negativa.
Captulo II: Redes Neurais Artificiais
26

Figura II.15 - Perceptron com 1 Neurnio.
Para que seja descrito o algoritmo de aprendizagem do perceptron, necessrio
considerar os seguintes elementos:
x(n)=[+1,x
1
(n), x
2
(n), x
3
(n),... , x
m
(n)] Vetor de entrada.
w(n)=[b(n),w
1
(n), w
2
(n), w
3
(n),... ,
w
m
(n)]
Vetor de pesos sinpticos, incluindo
bias b(n).
y(n) Sada obtida.
d(n) Sada desejada.
Taxa de aprendizagem (0<<1).
Controla o ajuste aplicado ao vetor
peso, ou seja, o tamanho do passo
que se d em determinada direo.
Representa a rapidez com que o vetor
de pesos ser atualizado.

A idia do algoritmo de aprendizagem do perceptron fazer com que, durante o
treinamento, seja obtido w a ser aplicado ao vetor de pesos sinpticos w de forma que:
( 1) ( ) w n w n w + = +
(II.7)
Captulo II: Redes Neurais Artificiais
27
Com w(n+1) mais prximo da soluo que w(n).
Os seguintes passos formam o algoritmo de aprendizagem do perceptron:
i. Inicializar o vetor de pesos w, por exemplo, w(0)=0 [ 44 ];
ii. Estimular o neurnio, aplicando o vetor de entrada x(n) e calcular, por
conseguinte, a sada obtida:
1
1
( ) ( ( ) ( ))
m
i i
i
y n F w n x n
+
=
=


(II.8)

iii. Calcular o sinal de erro:
( ) ( ) ( ) e n d n y n =

(II.9)

Neste ponto cabe uma observao importante. Como a funo de ativao
utilizada a funo sinal e lembrando que o perceptron um separador linear, a sada
desejada d(n) ser 1 para um determinado conjunto ou classe C1 e -1 para outro
conjunto ou classe C2.
iv. Atualizar o vetor de pesos:
( 1) ( ) . ( ). ( ) w n w n e n x n + = +

(II.10)

v. Incrementar o tempo n e voltar ao passo ii.
II.3.5.2 Adaline
O algoritmo de aprendizagem do modelo Adaline baseia-se na idia de se obter
um ponto mnimo atravs de um processo iterativo local, com um conjunto de
treinamento de cada vez. Esse mtodo conhecido como Regra Delta.
Captulo II: Redes Neurais Artificiais
28
Considere a Figura II.16.

Figura II.16 - Adaline.
A idia do algoritmo de aprendizagem do modelo Adaline tem as mesmas bases
adotadas para aprendizado do perceptron, ou seja:
( 1) ( ) w n w n w + = +
(II.11)

Considerando o mesmo raciocnio aplicado no Perceptron de Rosenblatt, w(n+1)
mais prximo da soluo que w(n). Os seguintes passos formam o algoritmo de
aprendizagem do modelo Adaline:
i. Inicializar o vetor de pesos w, ou seja, w(0)=0 [ 44 ];
ii. Estimular o neurnio, aplicando o vetor de entrada x(n) e calcular, por
conseguinte, a sada do combinador linear:
( ) ( ). ( )
T
v n x n w n =

(II.12)
Onde x
T
o x vetor transposto.
iii. Calcular o sinal de erro:
( ) ( ) ( ) e n d n v n =

(II.13)

Captulo II: Redes Neurais Artificiais
29
iv. Para atualizar o vetor de pesos, tem-se que considerar os valores
instantneos para a funo de custo:
2
1
( ) ( )
2
w e n =

(II.14)

Diferenciando a funo de custo em relao ao vetor de peso sinptico w, no
tempo n, temos:
( ) ( )
( )
w e n
e n
w w

=


(II.15)

Substituindo a equao (II.14) na equao (II.15):
( ) ( ) ( ). ( )
T
e n d n x n w n =

(II.16)

Derivando o erro e(n) em relao ao peso sinptico:
( )
( )
( )
e n
x n
w n


(II.17)

Substituindo a equao (II.17) na equao (II.15):
( )
( ). ( )
( )
n
x n e n
w n

=


(II.18)

Como pode ser observado, a equao (II.18) o gradiente da funo de custo
(w) em relao ao vetor de pesos sinpticos w, no tempo n. Aplicando o conjugado do
gradiente como parmetro de atualizao do vetor de pesos, temos:
( 1) ( ) . ( ). ( ) w n w n e n x n + = +

(II.19)

Captulo II: Redes Neurais Artificiais
30
Sendo uma constante de proporcionalidade que define a rapidez com que o
vetor de pesos modificado.
v. Incrementar o tempo n e voltar ao passo ii.
Pode-se ento descrever a atualizao dos pesos sinpticos da seguinte maneira:
( )
( 1) ( ) .
n
w n w n
w


+ = +


(II.20)

Considerando w(n), como:
( )
( ) .
n
w n
w


(II.21)

Podemos reescrever a equao (II.20) como:
( 1) ( ) ( ) w n w n w n + =

(II.22)

A equao (II.22) define a Regra Delta.
Como pode ser observado, comparando-se as equaes (de atualizao do
Perceptron de Rosenblatt e do modelo Adaline), as regras de atualizao dos pesos
aparentemente so idnticas. Porm, a equao de ajuste para o Perceptron de Rosenblatt foi
obtida para a sada do neurnio aps a aplicao da funo de ativao, enquanto que
para o modelo Adaline a equao de ajuste oriunda da sada do combinador linear do
neurnio.
No Apndice A podem ser encontradas mais informaes sobre otimizao
irrestrita, conceito aplicado no desenvolvimento da Regra Delta.
No prximo tpico ser descrito o algoritmo de retropropagao e sua relao com a
Regra Delta [ 44 ][ 51 ][ 52 ].
Captulo II: Redes Neurais Artificiais
31
II.3.6 Perceptrons de Mltiplas Camadas
Redes de mltiplas camadas so aquelas que apresentam pelo menos uma
camada intermediria e sua caracterstica mais atrativa a capacidade de tratar dados que
no so linearmente separveis. As suas regras de treinamento so uma generalizao da
Regra Delta, empregada para o treinamento do modelo Adaline.
Podemos discriminar, em perceptrons de mltiplas camadas, trs tipos bsicos
de camadas: a camada de entrada, ou ns de fonte, a camada oculta, que so constitudas de ns
computacionais e a camada de sada.
Em redes de mltiplas camadas, medida que um sinal atravessa suas camadas,
as funes implementadas tornam-se cada vez mais complexas. Essas camadas ocultas
da rede tm a capacidade de gerar uma codificao interna dos padres da entrada, que
usada para a definio da sada da rede, desempenhando assim a funo de extratores de
caractersticas.
Com relao capacidade da rede em funo do nmero de camadas ocultas,
sabido que uma camada intermediria faz com que a rede seja capaz de aproximar
qualquer funo contnua e duas camadas ocultas so suficientes para aproximar
qualquer funo matemtica [ 47 ].
Em termos de funcionalidade, podemos apresentar a organizao das camadas
de uma rede de mltiplas camadas como: A camada de entrada, tambm chamada de
conjunto de ns de fonte, responsvel por apresentar os padres de entrada rede e no
realiza processamento algum. As camadas intermedirias funcionam como extratores de
caractersticas, com a codificao interna dessas caractersticas traduzindo-se no ajuste
dos pesos sinpticos. Finalmente, a camada de sada tem a funo de construir os padres
de resposta da rede.
Para treinamento de redes de mltiplas camadas utilizado um algoritmo que se
baseia na regra de aprendizagem por correo de erro, denominado algoritmo de
retropropagao, que ser descrito na prxima seo.
Captulo II: Redes Neurais Artificiais
32
II.3.6.1 Algoritmo de Retropropagao (Backpropagation)
Podemos sintetizar a dinmica do algoritmo de retropropagao em dois
procedimentos bsicos: a propagao do efeito de um vetor de entrada atravs da rede e a
propagao do sinal de erro gerado na sada da rede em sentido contrrio ao das
conexes sinpticas, comumente chamado de retropropagao. Quando os padres so
entregues s entradas e seu efeito se propaga atravs da rede, os pesos sinpticos so
fixos. Seu ajuste ocorre quando o sinal de erro retropropagado atravs da rede. A
Figura II.17 mostra uma rede com duas camadas ocultas. O termo camada oculta
provm do fato de que essas camadas no tm ligao direta nem com a entrada, nem
com a sada da rede.
Camada de
Ns de Fonte
Camada 1 de
Neurnios
Ocultos
Camada
de Sada
Sada
Camada 2 de
Neurnios
Ocultos

Figura II.17 - Rede com 2 Camadas Ocultas.
Definindo o neurnio em negrito na camada2 como neurnio j e o neurnio em
negrito na camada de sada como neurnio k, pode-se gerar a seguinte representao em
grafos orientados [ 44 ], como ilustrado na Figura II.18:
+1 +1
y
i
(n)
w
ji
(n)
w
j0
(n)
w
kj
(n)
w
k0
(n)
y
j
(n) y
k
(n)
F(.)
F(.)
d
k
(n)
-1
e
k
(n)
v
j
(n)
v
k
(n)
Neurnio j Neurnio k

Figura II.18 - Grafo Orientado.
Captulo II: Redes Neurais Artificiais
33
Como pode ser observado na Figura II.18, foi selecionado um neurnio
pertencente a uma camada oculta e outro pertencente camada de sada. A partir desses
posicionamentos dos neurnios na rede, o algoritmo de retropropagao ser descrito.
Passo i
Primeiramente, necessrio inicializar os pesos sinpticos da rede (matriz w).
Geralmente essa inicializao realizada zerando a matriz de pesos sinpticos [ 44 ].
Passo ii
Apresentar rede os padres de entrada com suas respectivas sadas desejadas.
Nesse ponto, cabe observar que pode ser apresentado um par entrada-sada desejada
por vez, como tambm todos os pares entrada-sada desejada, para ento ser calculado o
erro da sada da rede. No primeiro caso, diz-se que a aprendizagem realizada em modo
seqencial e no segundo caso, a aprendizagem realizada em modo por lote. A principal
diferena entre os dois modos reside no fato de que o modo seqencial requer menor
capacidade de armazenamento de dados em memria que o modo por lote. Este, por
sua vez, fornece uma estimativa mais precisa de direo de convergncia para o vetor
gradiente. A cada passo do processo iterativo, que consiste no clculo do erro de sada
da rede com subseqente ajuste dos pesos sinpticos, d-se o nome de poca.
A equao (II.23) define o conjunto de treinamento, com as entradas e sadas
esperadas, que sero apresentadas rede:
{ }
1
( , )
L
d d
l l
l
x y
=
=

(II.23)

A ao subseqente apresentao das entradas e sadas esperadas o clculo
do erro da rede. O caminho do estmulo aplicado entrada at a sada da rede ser
descrito no passo iii.


Captulo II: Redes Neurais Artificiais
34
Passo iii
De acordo com a Figura II.18, podemos definir o campo local induzido do
neurnio j como:
0
( ) ( ). ( ) ( )
m
j ji i j
i
v n w n y n b n
=
= +


(II.24)
Onde m representa o nmero de entradas aplicadas ao neurnio j e
w
j0
(n)=b
j
(n).
Dessa maneira, a sada do neurnio j :
( ) ( ( ))
j j j
y n F v n =

(II.25)

Onde F
j
(.) a funo de ativao, que descreve a relao funcional de entrada-
sada associada ao neurnio j.
A partir da Figura II.18, podemos tambm definir o campo local induzido do
neurnio k como:
0
( ) ( ). ( ) ( )
m
k kj j k
i
v n w n y n b n
=
= +


(II.26)

Onde m novamente representa o nmero de entradas aplicadas ao neurnio k e
w
k0
(n)=b
k
(n).
Dessa maneira, a sada do neurnio k :
( ) ( ( ))
k k k
y n F v n =

(II.27)

Onde F
k
(.) a funo de ativao, que descreve a relao funcional de entrada-
sada associada ao neurnio k.
Captulo II: Redes Neurais Artificiais
35
Observando as equaes (II.23) e (II.25), podemos definir a seguinte equao
para o campo local induzido
( )
( )
l
j
v n
de um neurnio j, situado na camada l:
( ) ( ) 1
0
( ) ( ). ( )
l
m
l l l
j ji i
i
v n w n y n

=
=


(II.28)

Onde m
l
representa o tamanho da camada l,
( )
( )
l
ji
w n
o peso sinptico do
neurnio j na camada l, que por sua vez alimentado pelo neurnio i da camada l-
1(camada anterior) e
( 1)
( )
l
i
y n

representa a sada do neurnio i na camada l-1, na


iterao n. Essa formulao tambm contempla o bias, uma vez que o mesmo contribui
no campo induzido quando i=0.
A sada do neurnio j na camada l pode ser descrita como:
( ) ( )
( ) ( ( ))
l l
j j j
y n F v n =

(II.29)

Lembrando que a primeira camada de uma rede de mltiplas camadas (ns de
fonte) no realiza processamento algum, se o neurnio j estiver na primeira camada
oculta ento sua entrada ser:
(0) 1
( ) ( )
j j
y n x n =

(II.30)

Onde o ndice 0 indica que a sada pertence aos ns de fonte e o ndice 1 indica
que o termo do lado direito da igualdade entrada da primeira camada oculta.
Por outro lado, se o neurnio j est na camada de sada, temos:
( )
( ) ( )
L out
j j
y n y n =

(II.31)

Captulo II: Redes Neurais Artificiais
36
Onde o termo
( )
out
j
y n
indica o j-simo elemento do vetor de sada da rede y
out
,
no instante n e L a ltima camada da rede.
No passo iv, calcula-se o erro da rede e os pesos sinpticos so ajustados.
Passo iv
O procedimento de ajuste dos pesos sinpticos da rede iniciado com o clculo
do erro de sada da rede. De acordo com o grafo da Figura II.18, o erro para a camada
de sada da rede ser:
( ) ( ) ( )
out
k k k
e n d n y n =

(II.32)

Onde d
k
o k-simo elemento do vetor de respostas desejadas. Observa-se que
aqui h a considerao de que h mais de uma sada para a rede, o que seria uma
generalizao da camada de sada da rede da Figura II.17.
A partir da equao (II.33) podemos, calcular o gradiente local atravs da
generalizao da equao (II.22):
( 1) ( ) . ( ). ( )
kj kj k k
w n w n n y n + = +

(II.33)

A deduo do clculo do gradiente
k
pode ser encontrada no Apndice B.
A equao acima aplicada para atualizao de pesos sinpticos de neurnios
situados na camada de sada da rede. Para atualizao de pesos em camadas ocultas da
rede, a atualizao feita pela equao (II.34):
( 1) ( ) . ( ). ( )
ji ji j j
w n w n n y n + = +

(II.34)

Novamente, a deduo do clculo do gradiente
j
pode ser encontrada no
Apndice B.
Captulo II: Redes Neurais Artificiais
37
O processo de apresentao de padres de entrada e correo dos pesos
sinpticos perdura at que tenha sido realizado determinado nmero de pocas
(iteraes), quando o erro mdio quadrtico for inferior a um valor pr-estabelecido ou
quando o desempenho de generalizao atingir o mximo. Na prxima seo este assunto ser
discutido com mais detalhes.
II.3.6.2 Desempenho do Algoritmo de Retropropagao
A maioria das tcnicas para melhorar o desempenho do algoritmo de
retropropagao foi desenvolvida de forma emprica, baseada em tentativa e erro.
Alguns procedimentos relevantes sero descritos a seguir.
Primeiramente, pode-se discorrer sobre a funo de ativao. Esta uma das partes
mais importantes, quando se trata de redes com mltiplas camadas. Isso se deve ao fato
de a escolha de uma funo de ativao contemplar sempre uma funo que seja no-
linear e diferencivel, a fim de que ela possa solucionar problemas no linearmente
separveis e que o gradiente possa ser calculado, direcionando o ajuste de pesos.
Ademais, podemos dizer que a escolha de uma funo de ativao anti-simtrica
(F(-v)=-F(v)) faz com que a rede seja treinada mais rapidamente [ 44 ].
Outro aspecto importante diz respeito valor das taxas de aprendizagem. Um
algoritmo que utiliza taxa de aprendizagem fixa tende a ser lento em sua convergncia,
pois o mesmo nem sempre ser adequado a todas as superfcies de erro. A soluo para
este problema uma taxa de aprendizagem adaptativa. Um exemplo de aplicao de taxa
de aprendizagem adaptativa pode ser encontrado numa variante do algoritmo de
retropropagao denominado trainrp, que descrito na seo II.3.6.4.
II.3.6.3 Generalizao do Conhecimento
desejvel que uma rede neural, aps sofrer treinamento, seja capaz de produzir
respostas corretas a estmulos externos, mesmo que estes no sejam exatamente iguais
aos estmulos utilizados no seu treinamento. Esta capacidade de generalizao est
relacionada aos seguintes fatores: o tamanho e a representatividade do conjunto de
Captulo II: Redes Neurais Artificiais
38
treinamento em relao ao ambiente no qual a rede ir operar, a arquitetura da rede e o
grau de complexidade do ambiente.
A complexidade do problema uma caracterstica que no se pode controlar. A
partir dessa premissa, para que possa ocorrer uma boa generalizao, pode-se manter
fixa a arquitetura da rede e investigar o tamanho do conjunto de amostras ideal ou
estabelecer um conjunto de treinamento fixo e investigar a melhor arquitetura de rede
para esse conjunto[ 44 ].
Outra questo relevante a escolha do universo de amostras que sero
apresentadas rede neural. A parcela de amostras que sero utilizadas para treinamento
deve possuir uma quantidade de dados que representem as caractersticas do problema a
ser solucionado. Se essa premissa no for seguida, a rede tambm perde sua capacidade
de generalizao, especializando-se nos dados de treinamento e sendo incapaz de
reconhecer estmulos externos, se for apresentado a ela um nmero excessivo de
estmulos nesta fase.
Geralmente, o nmero de neurnios na camada oculta definido
empiricamente. Uma proposta a utilizao da equao mostrada na equao (II.35)
[ 44 ]:
W
N =

(II.35)

Onde:

N Nmero de amostras do conjunto de treinamento.
W Nmero de parmetros livres da rede, incluindo bias.

Erro percentual desejado, em valores decimais.
Captulo II: Redes Neurais Artificiais
39
Essa equao sugere que N seja 1/ vezes maior que o nmero de parmetros
livres da rede neural. Para um erro desejado de 10%, o nmero de amostras de
treinamento deve ser 10 vezes maior que W.
O cuidado na determinao da quantidade de neurnios nas camadas
intermedirias se deve ao fato de que se houver um nmero excessivo de neurnios, a
rede pode se tornar to flexvel que passa a ser especialista no conjunto de treinamento,
caracterizando assim uma situao denominada overfitting. Por outro lado, um nmero
reduzido de neurnios levar a rede lidar com um excesso de restries na tentativa de
modelar o problema, levando muito tempo para encontrar a soluo.
Uma ferramenta estatstica denominada validao cruzada [ 54 ] um poderoso
artifcio para se evitar overfitting. Primeiramente, o universo dos dados de treinamento
subdividido em um subconjunto de treinamento e um subconjunto de teste, de forma
aleatria. Da mesma maneira, realizada a diviso do subconjunto de treinamento em
dois outros subconjuntos: estimao e validao. O treinamento, feito com o
subconjunto de estimao, interrompido periodicamente e o erro da rede em relao
ao subconjunto de validao calculado. Quando o erro do subconjunto de validao
comea a crescer, mesmo com o erro de treinamento decrescendo, decide-se por
interromper o treinamento. Para garantir que no houve ajuste excessivo da rede para o
conjunto de validao, testa-se a mesma com o subconjunto de testes. Aps essa etapa a
rede pode ser considerada treinada.
A Figura II. 19 ilustra o treinamento por validao cruzada:

Figura II. 19 - Validao Cruzada.
Captulo II: Redes Neurais Artificiais
40
II.3.6.4 Algoritmo de Treinamento Trainrp
Trainrp (resilient backpropagation): Redes de mltiplas camadas geralmente usam
funes de ativao sigmides nas camadas ocultas. Essas funes mapeiam uma
entrada com faixa de variao infinita em uma sada com faixa de variao finita.
Funes sigmoidais so caracterizadas pelo fato de sua inclinao aproximar-se de zero
quando a entrada se torna grande. Isso faz com que o gradiente nesse ponto assuma
valores muito pequenos, levando assim a atualizaes muito suaves nos pesos
sinpticos, mesmo quando estes esto distantes dos valores timos [ 53 ].
Para solucionar o problema de magnitude do gradiente, aproveita-se apenas o
sinal da derivada do erro quadrtico para determinar a direo de atualizao dos pesos
sinpticos. O valor de atualizao dos pesos e bias acrescido de um valor + toda vez
que a derivada da funo de performance relativa a determinado peso mantm o mesmo
sinal por duas iteraes consecutivas, acelerando a convergncia. O valor de atualizao
decresce de um fator - toda vez que a derivada da funo de performance relativa a
determinado peso muda de sinal em relao iterao anterior, corrigindo a direo de
ajuste. Se a derivada for zero, o valor de atualizao se mantm o mesmo.
A equao (II.36) define o clculo dos incrementos dos pesos:
( 1) ( )
( 1), . 0 (0 1)
( 1) ( )
( ) ( 1), . 0 ( 1)
( 1) ( )
( 1), . 0
ji
ji ji
ji ji
ji ji
ji
ji ji
E t E t
t se
w w
E t E t
t t se
w w
E t E t
t se
w w


+
+


> < <


= < >


(II.36)

Em termos computacionais, esse algoritmo possui um desempenho satisfatrio,
uma vez que somente armazenado durante o processo o vetor gradiente e um
algoritmo que utiliza modo por lote simples com rpida convergncia e pouca exigncia
de memria. considerado o melhor algoritmo quando se trata de problemas de
reconhecimento de padres [ 51 ].
Captulo II: Redes Neurais Artificiais
41
II.4 Concluses
Neste captulo foram apresentados os conceitos bsicos de redes neurais
artificiais, bem como a modelagem e treinamento. Inicialmente foi feita uma breve
abordagem das caractersticas das clulas neuronais humanas e em seguida introduziu-se
o modelo de neurnio artificial, que procura simular seu funcionamento. Em seguida
foram mostradas as arquiteturas de redes neurais existentes, com nfase nas redes
diretamente alimentadas, que so as redes utilizadas nesta tese. Dando suporte aos
conceitos utilizados no desenvolvimento deste trabalho, foi apresentado de forma
detalhada o algoritmo de treinamento de redes diretamente alimentadas, conhecido
como algoritmo de retropropagao, com uma anlise de fatores que determinam seu
desempenho. Tambm foi apresentada a funo de treinamento trainrp, utilizada em
todas as redes deste trabalho.

42
Captulo III
Aplicao de Redes Neurais
Artificiais para Proteo de
Linhas de Transmisso
III. 1 Consideraes Iniciais
A motivao para a utilizao de RNA em proteo decorre da grande
capacidade que essas estruturas possuem para reconhecimento de padres somado ao
fato de que, apesar de muito estudado na literatura, ainda um problema em aberto
[ 43 ].
A seguir so abordadas questes relativas ao modelo do sistema equivalente,
utilizao do software ATP [ 55 ] para simulao dos defeitos, montagem de banco de
dados para treinamento das redes neurais, assim como caractersticas dos mdulos de
deteco, classificao e localizao de defeitos.
III.2 Sistema Equivalente e Simulao de Defeitos
Para que seja possvel a aplicao de RNA nos mdulos que compem o sistema
de proteo, faz-se necessria a montagem de um banco de dados
Captulo III: Aplicao de Redes Neurais para Proteo de Linhas de Transmisso
43
para treinamento das redes envolvidas no processo. No presente trabalho, optou-se pela
montagem deste banco de dados a partir de simulaes realizadas no ATP[ 55 ]. Para
tanto, necessria a utilizao de um sistema equivalente conforme ilustrado pela Figura
III.1.
K
M
L
2 Z
Mabc
Z
Fabc
I
Fabc
Z
Kabc
S
K
S
M
L
1

Figura III.1 - Sistema Equivalente.
Onde:
S
K
e S
M
Representa os geradores equivalentes do sistema atrs das
barras K e M, respectivamente.
Z
Kabc
e Z
Mabc
Representa as impedncias equivalentes atrs das barras
K e M, respectivamente.
L
1
e L
2
L
1
representa a distncia da barra onde so colhidas as
amostras at o ponto de defeito.
L
1
+ L
2
= Comprimento total da linha de transmisso sob
estudo.
Z
Fabc
Representa a impedncia de curto-circuito.
I
Fabc
Representa a corrente de defeito.

Para cada variao de carga no sistema ou situao de contingncia, os
equivalentes do sistema so recalculados e inseridos no ATP.
Captulo III: Aplicao de Redes Neurais para Proteo de Linhas de Transmisso
44
Os seguintes parmetros so variados para cada situao do sistema:
Tipo de Defeito: Refere-se s fases envolvidas no defeito, bem como o
envolvimento da Terra. Nesse trabalho foram considerados os seguintes
defeitos: AT, BT, CT, AB, BC, AC, ABT, BCT, ACT, ABC;
Localizao do Defeito: Medio feita a partir do ponto de aquisio dos
sinais. Nesse caso considerou-se de 0 a 100%, ou seja, 0 significa defeito no
terminal onde esto sendo colhidos os sinais e 100% significa defeito no outro
terminal da linha de transmisso;
ngulo de Incidncia de Defeito: Para elucidar o que ocorre com a corrente
no instante de ocorrncia de um defeito, considere uma tenso em corrente
alternada (CA) aplicada a um circuito com valores constantes de resistncia e
indutncia:
( ) V V sen t = +
(III.1)
Na equao (III.1) , considerando-se t=0 o instante de aplicao do defeito,
determinar o mdulo da tenso neste instante. Sendo a equao (III.2) define a
tenso num circuito RL como:
di
V Ri L
dt
= + (III.2)

Igualando as equaes (III.1) e (III.2):

( )
di
V sen t Ri L
dt
+ = + (III.3)

Resolvendo a equao (III.3):
. ( ) . ( )
Rt
L
V
i sen t e sen
Z

(
= +
(


(III.4)

Onde:
2 2
( ) Z R L = + (III.5)
Captulo III: Aplicao de Redes Neurais para Proteo de Linhas de Transmisso
45
E
1
tan ( / ) L R

= (III.6)

Na equao (III.4), observa-se que o primeiro termo varia senoidalmente com o
tempo, sendo considerado o valor de regime permanente da corrente num
circuito RL para uma determinada tenso aplicada. J o segundo termo no
peridico e decresce exponencialmente com uma constante de tempo L/R. Esse
termo denominado componente de corrente contnua (CC) do sinal.
Analisando a equao (III.4), se a componente de regime permanente for
diferente de zero em t=0, ocorre o aparecimento da componente CC a fim de
que a condio fsica de ter-se corrente igual a zero no instante t=0. Quando -
=0 ou -=, no ocorre o aparecimento de componente CC. Entretanto, se
no instante de ocorrncia de um defeito -=/2 a componente CC ter seu
valor mximo, correspondente ao valor mximo da componente senoidal [ 59 ].
Neste trabalho foi estabelecido que o ngulo de incidncia de defeito seria
aleatrio, como ocorre em situaes reais;
Impedncia de Defeito: Impedncia considerada entre os condutores
envolvidos no defeito e/ou a Terra. Neste trabalho, o valor da impedncia de
defeito foi variado de 0 a 123 Ohms.
Carregamento do sistema: Com o aumento ou diminuio das cargas do
sistema o fluxo de potncia na linha sob estudo varia e essa variao deve ser
encarada pela rede neural como uma condio de operao normal do sistema.
Foi considerado um aumento de at 15% nas cargas do sistema durante as
simulaes;
Contingncias no sistema: Quando ocorre uma contingncia no sistema,
como por exemplo, perda de uma ou mais linhas de transmisso, ocorrem
alteraes na operao da linha, que devem ser consideradas como situaes
normais, uma vez que a linha problemtica no a que est sendo monitorada
pelo sistema de proteo sob estudo.
Captulo III: Aplicao de Redes Neurais para Proteo de Linhas de Transmisso
46
De posse desse conjunto de variveis para formar o banco de dados, foram
realizadas simulaes no ATP, onde foi determinada uma freqncia de amostragem de
960Hz para aquisio dos sinais de corrente e tenso apresentados s entradas das redes
neurais. A partir desse ponto, cada mdulo que compe o sistema de proteo trata seus
sinais de entrada de uma forma particular.
Pode ser observado que a montagem do banco de dados extremamente
trabalhosa e complexa, uma vez que vrias situaes so simuladas para diversos tipos
de defeito e diversos locais ao longo da linha de transmisso. Para solucionar esse
problema foi desenvolvido um programa em C++ com a funo de manipular o
software ATP, gerando automaticamente o banco de dados a partir do qual as redes
neurais so treinadas e simuladas. importante ressaltar que o banco de dados
armazena os mdulos das tenses e correntes em P.U. e os ngulos em graus.
Com relao construo da estrutura do sistema de proteo, todos os
algoritmos de formao do banco de dados e tratamento dos sinais foram desenvolvidos
no software MATLAB [ 56 ], assim como as RNA que compem os mdulos. Nas
sees subseqentes a estrutura de cada mdulo ser detalhada a fim de sejam
mostrados seus componentes e seu funcionamento.
III.3 Mdulo de Deteco de Defeitos
O mdulo de DETECO responsvel por determinar o estado de operao
da linha: normal ou sob defeito. Os sinais recebidos da linha so correntes e tenses
trifsicas. A freqncia de amostragem desses sinais, como descrito anteriormente, foi
960Hz e utilizou-se filtro anti-aliasing [ 57 ], na freqncia de corte de 480 Hz, a fim de se
garantir que o filtro de Fourier recursivo fosse capaz de extrair as componentes de
freqncia fundamental das tenses e correntes da linha de transmisso. O Apndice C
discorre a respeito da filtragem de sinais utilizada nesta tese. A Figura III.2 ilustra o
mdulo de deteco de defeitos.
Captulo III: Aplicao de Redes Neurais para Proteo de Linhas de Transmisso
47
Tenses e Correntes Trifsicas
Amostradas a 960Hz
cont=0
Sada
Rede de
Deteco
Sim -1 1
cont=cont+1
cont==10?
No
Defeito
Detectado

Figura III.2 - Mdulo de Deteco de Defeitos.
Como pode ser observado na Figura III.2, o mdulo de deteco de defeitos
recebe os sinais de tenso e corrente trifsicas de um dos terminais da linha de
transmisso a uma freqncia de 960Hz, que passam por um filtro recursivo de 1 ciclo
para que as componentes de freqncia fundamental sejam mostradas rede de
deteco. A cada milsimo de segundo a rede, atravs do valor de sua sada, mostra o
estado de operao da linha de transmisso. O critrio para deteco do defeito a
ocorrncia de 10 valores consecutivos indicativos de defeito, ou seja, sada 1. Esse
critrio baseado na filosofia de operao do rel numrico REL-100 da ABB [ 58 ],
que aguarda 10 ocorrncias consecutivas de indicao de defeito a fim de que no seja
tomada uma deciso precipitada, no que concerne operao de disjuntores. Este
procedimento tem por objetivo evitar a operao indevida do sistema de proteo diante
de erros de medies provocados por transformadores de tenso capacitivos e outras
causas, como surtos e sinais esprios.
Aps sucessivas simulaes para determinao do nmero de entradas das redes
neurais, foi estabelecido que a rede neural componente do mdulo de deteco, assim
como as redes dos demais mdulos, teria 12 entradas, que seriam mdulos e ngulos das
componentes de 60Hz das tenses e correntes trifsicas. Sendo assim, para cada
milsimo de segundo, mdulos e ngulos de tenso e corrente de cada fase seriam
apresentados rede neural, ou seja, a cada instante amostrado a rede receberia estmulo
em suas 12 entradas. A Figura III.3 ilustra a rede neural de deteco.
Captulo III: Aplicao de Redes Neurais para Proteo de Linhas de Transmisso
48
|Va|
|Vb|
|Vc|
|Ia|
|Ib|
|Ic|

Va
Vb
Vc

Ia
Ib
Ic

Falta ?
Camada de Entrada
Camada Oculta
Camada
de Sada

Figura III.3 - Rede Neural 12-X-1 para Deteco de Defeitos.
No que concerne arquitetura da rede neural para deteco, foi escolhida uma
rede do tipo diretamente alimentada (feed-forward), por se tratar de um tipo de rede
com excelente desempenho no reconhecimento de padres. Quanto ao tratamento das
entradas da rede, os mdulos das tenses e correntes trifsicas assim como os
respectivos ngulos foram normalizados no intervalo [-1,1].
A sada tambm foi normalizada entre [-1,1] e caracterizando-se assim o valor
-1 para situao de rede sob condies normais e 1 para situao de rede sob
defeito.
Com relao s funes de ativao utilizadas, optou-se, tanto para a camada
oculta quanto para a camada de sada a funo tangente sigmide. A funo de
treinamento utilizada foi resilient backpropagation, tambm chamada de
retropropagao elstica [ 53 ].
O universo de treinamento foi dividido em 3 subconjuntos formados de forma
aleatria: treinamento (50%), validao (25%) e teste (25%).
O paradigma de aprendizagem foi supervisionado em modo por lote (batch), ou
seja, as atualizaes de pesos sinpticos somente ocorrem quando todo o conjunto de
Captulo III: Aplicao de Redes Neurais para Proteo de Linhas de Transmisso
49
treinamento mostrado rede neural. Como critrio de convergncia, optou-se por
validao cruzada com parada antecipada [ 44 ]. Nas simulaes, valores de sada
maiores que 0 foram considerados 1, ou seja, condies de rede sob defeito e
valores de sada menores que 0 foram considerados -1, ou seja, condies de rede
normal. Com esse critrio, no h sada indefinida para a rede.
Com relao ao nmero de neurnios na camada oculta, foram realizados testes
para se determinar a melhor configurao.
III.4 Mdulo de Classificao de Defeitos
O mdulo de classificao de defeitos ilustrado pela Figura III.4.
Mdulo de
Localizao
Mdulo de
Classificao
Tenses e Correntes
Trifsicas de Defeito
Fases Envolvidas
Defeito
Detectado

Figura III.4 - Mdulo de Classificao de Defeitos.
Pela Figura III.4, observa-se que esse mdulo somente ativado na ocorrncia
de defeitos e tem a funo de identificar as fases envolvidas no defeitos, bem como o
envolvimento de Terra. Os sinais que so apresentados rede nesse mdulo tambm
passam por um filtro anti-aliasing na freqncia de 480Hz, com subseqente filtragem
dos sinais em 60 Hz atravs de um filtro de Fourier recursivo. A informao de sua
sada determina qual a rede ser ativada para a localizao do defeito, como ser visto
mais adiante.
A rede neural de classificao de defeitos ilustrada pela Figura III.5.
Captulo III: Aplicao de Redes Neurais para Proteo de Linhas de Transmisso
50
|Va|
|Vb|
|Vc|
|Ia|
|Ib|
|Ic|

Va
Vb
Vc

Ia
Ib
Ic

Camada de Entrada
Camada Oculta
Camada
de Sada
A
B
C
T

Figura III.5 - Rede Neural 12-X-4 para Classificao de Defeitos.
Observa-se na Figura III.5 que, diferentemente da rede de deteco, que
somente possui uma sada, a rede de classificao possui quatro neurnios na camada de
sada, representando cada uma das fases (A, B e C) e o envolvimento com a terra (T). A
Tabela III.1 elucida o arranjo da sada da rede. A palavra lgica da sada determina o
tipo de defeito.
Tabela III.1 - Tabela-verdade da sada da rede de classificao.
Valor da Sada
Tipo de Defeito
A B C T
AT 1 -1 -1 1
BT -1 1 -1 1
CT -1 -1 1 1
AB 1 1 -1 -1
BC -1 1 1 -1
AC 1 -1 1 -1
ABT 1 1 -1 1
BCT -1 1 1 1
ACT 1 -1 1 1
ABC 1 1 1 -1

Da mesma maneira que na rede de deteco, as sadas foram normalizadas no
intervalo [-1,1]. Os valores de entrada, que tambm so os mdulos das tenses e
Captulo III: Aplicao de Redes Neurais para Proteo de Linhas de Transmisso
51
correntes trifsicas, assim como os respectivos ngulos, foram normalizados no
intervalo [-1,1]. As funes de ativao da camada oculta e da camada de sada so, da
mesma forma que no modulo de deteco, tangente sigmide. Com relao ao nmero
de neurnios na camada oculta, foram realizados testes para se determinar a melhor
configurao.
Com relao funo de treinamento utilizada, optou-se por resilient
backpropagation, a mesma utilizada no mdulo de deteco. O paradigma de
aprendizagem tambm foi supervisionado em modo por lote (batch), com parada
antecipada via validao cruzada.
III.5 Mdulo de Localizao de Defeitos
O mdulo de localizao de defeitos ilustrado na Figura III.6.
Fases Envolvidas
no Defeito
Local do Defeito
Mdulo de
Localizao
Tenses e Correntes
Trifsicas de Defeito

Figura III.6 - Mdulo de Localizao de Defeitos.
Uma vez identificado o tipo de defeito, os sinais de ciclo completo na regio de
defeito so mostrados ao mdulo de localizao de defeitos. Esses sinais so os mesmos
utilizados na entrada da rede de classificao. Como so conhecidos os condutores
envolvidos no distrbio, redes especialistas para cada tipo de defeito tm a funo de
localiz-lo, ou seja, o mdulo de localizao de defeitos possui uma rede neural
especialista para cada tipo de defeito: AT, BT, CT, AB, BC, AC, ABT, BCT, ACT, ABC.
A arquitetura bsica de cada uma dessas redes ilustrada pela Figura III.7.
Captulo III: Aplicao de Redes Neurais para Proteo de Linhas de Transmisso
52
|Va|
|Vb|
|Vc|
|Ia|
|Ib|
|Ic|

Va
Vb
Vc

Ia
Ib
Ic

Local da Falta
Camada de Entrada
Camada
Oculta 1
Camada
de Sada
Camada
Oculta 2

Figura III.7 - Rede Neural 12-X-X-1 para Localizao de Defeitos.
Como pode ser observado na Figura III.7, cada rede neural possui 12 entradas e
2 camadas ocultas que justificam-se pelo fato de que, nesse caso, necessita-se de mais
preciso na sada e no simplesmente uma sada em dois nveis. A sada da rede
sempre um valor entre 0 e 1, sendo 0 para defeitos no terminal onde se est
colhendo os sinais e 1 para defeitos localizados no outro terminal da linha de
transmisso. Com relao ao nmero de neurnios nas camadas ocultas, para cada rede
foram realizados testes para se determinar a melhor configurao.
III.6 Esquema Completo de Proteo de Linhas de
Transmisso
Finalmente, o esquema completo para deteco, classificao e localizao de
defeitos em linhas de transmisso mostrado na Figura III.8.
Captulo III: Aplicao de Redes Neurais para Proteo de Linhas de Transmisso
53
Mdulo de
Classificao
Tenses e Correntes
Trifsicas de Defeito
Fases Envolvidas
Local do Defeito
Mdulo de
Localizao
Tenses e Correntes
Trifsicas de Defeito
Tenses e Correntes Trifsicas
Amostradas a 960Hz
cont=0
Sada
Rede de
Deteco
Sim -1 1
cont=cont+1
cont==10?
No
Defeito
Detectado
Figura III.8 - Esquema Completo de Deteco, Classificao e Localizao de Defeitos
em Linhas de Transmisso.

Como pode ser observado na Figura III.8, o mdulo de deteco de defeitos
verifica a cada instante o estado de operao da linha de transmisso.
Detectado o defeito, o mdulo de classificao ativado. Os sinais da linha
passam pelo filtro anti-aliasing e pelo filtro de Fourier recursivo. As entradas da rede
neural de classificao recebem ento os sinais em 60 Hz, de um ciclo completo na
regio de defeito. A rede neural externa uma palavra lgica que determina os condutores
envolvidos no distrbio e se h envolvimento de Terra.
Quando o mdulo de classificao identifica os condutores envolvidos no
defeito, o mdulo de localizao ativado e os mesmos sinais utilizados na entrada da
rede de classificao de defeitos so entregues ao mdulo de localizao. Dentro desse
mdulo, que possui uma rede especialista para cada tipo de defeito, os sinais alimentam
a RNA especialista e ento feita a determinao do local onde o defeito ocorreu.
III.7 Concluses
Neste captulo, foram apresentados os mdulos que compem o esquema
completo de deteco, classificao e localizao de defeitos em linhas de transmisso,
bem como a estrutura de gerao de dados para treinamento dessas redes. O modelo do
sistema equivalente a ser simulado ento inserido num programa desenvolvido em
C++ para que diversas situaes de curto-circuito sejam geradas com o software ATP.
Captulo III: Aplicao de Redes Neurais para Proteo de Linhas de Transmisso
54
Tambm foi descrita a estrutura bsica das redes neurais que compem o sistema de
deteco, classificao e localizao de defeitos em linhas de transmisso. Caractersticas
como o nmero de neurnios nas camadas ocultas para cada rede sero definidos no
decorrer do Captulo IV.

55
Captulo IV
Estudo de Casos
IV.1 Consideraes Iniciais
O objetivo deste captulo apresentar os resultados obtidos atravs da aplicao
da metodologia proposta para um esquema completo de deteco, classificao e
localizao de defeitos em linhas de transmisso. Para tanto, sero utilizados o sistema
IEEE-14 e o sistema equivalente utilizado em BRAHMA [ 26 ].
IV.2 Sistema Teste I
O primeiro sistema testado foi o sistema IEEE-14, que composto por 14
barras, 20 circuitos e 5 unidades de gerao. A linha escolhida para realizao dos testes
foi a que conecta as barras 13 e 14. A Figura IV.1 mostra o sistema IEEE-14 e em
destaque est a linha que ser estudada. Para o estudo foi considerada como tenso de
operao da linha 138kV e comprimento de 100km.
Captulo IV: Estudo de Casos
56

Figura IV.1 - Sistema IEEE-14.
IV.2.1 Gerao de Dados
Para viabilizar a anlise, foi necessrio montar o sistema equivalente, conforme
mostrado na Figura III.1. A partir desse equivalente, o programa desenvolvido em
linguagem C++ gerou o banco de dados que foi utilizado no processo de treinamento e
testes das RNA.
Para a montagem deste banco de dados foram consideradas ainda as seguintes
condies de operao do sistema:
Sada da linha de transmisso entre as barras 6 e 11;
Sada da linha de transmisso entre as barras 6 e 13;
Sada simultnea das linhas de transmisso entre as barras 6 e 11 e entre
as barras 6 e 13;
Sobrecarga de 5% em todas as cargas do sistema;
Sobrecarga de 10% em todas as cargas do sistema;
Captulo IV: Estudo de Casos
57
Sobrecarga de 15% em todas as cargas do sistema.
Alm de alteraes nas condies do sistema, os seguintes parmetros foram
variados para formao do universo de treinamento:
Tipos de defeito: AT, BT, CT, AB, BC, AC, ABT, BCT, ACT, ABC ;
Impedncias de defeito: 0, 5, 10, 15, 20, 25, 30, 35, 40, 45, 50, 55, 60, 65,
70, 75, 80, 85, 90, 95 e 100;
Locais de aplicao de defeito: 0, 5, 10, 15, 20, 25, 30, 35, 40, 45, 50, 55,
60, 65, 70, 75, 80, 85, 90, 95 e 100% ;
ngulo de Incidncia de defeito: aleatrio.
Para realizao de testes complementares, os seguintes parmetros foram
variados para obteno de um conjunto de simulao extra:
Tipo de defeito: AT, BT, CT, AB, BC, AC, ABT, BCT, ACT, ABC;
Impedncia de defeito: 3, 27, 48, 67, 84, 103, 123.
Localizao do defeito: 3, 11, 19, 26, 52, 65, 83, 91, 99%;
ngulo de incidncia de defeito: aleatrio.
importante ressaltar que o banco de dados gerados para cada tipo de rede foi
dividido em subconjunto de treinamento (50%), subconjunto de validao (25%) e
subconjunto de testes (25%).


Captulo IV: Estudo de Casos
58
IV.2.2 Definio da Topologia das RNA
O critrio para a escolha da melhor configurao de rede neural baseado na
rede que obtiver o menor RMSE(Root Mean Squared Error) [ 46 ], que nada mais que a
raiz quadrada do erro mdio quadrtico ou MSE(Mean Squared Error), para o
subconjunto de validao, considerando-se 5 treinamentos para cada configurao de
rede. O MSE definido na equao (IV. 1) como:
2
1
N
j j
j
D S
MSE
N
=


(IV. 1)

Onde:
D
j
e S
j
Representa respectivamente as sadas desejadas e
obtidas da rede neural.
N Representa o nmero de amostras.
E o RMSE definido na equao (IV. 2) como:
2
1
N
j j
j
D S
RMSE
N
=

=


(IV. 2)

Os seguintes parmetros da rede j estavam preestabelecidos:
Camada de entrada: 12 neurnios;
Camada de sada, para rede de deteco e localizao: 1 neurnio;
Camada de sada, para rede de classificao: 4 neurnios;
Normalizao da entrada: [-1,1];
Captulo IV: Estudo de Casos
59
Normalizao da sada: [-1,1], para as redes de deteco e classificao e
[0,1] para a rede de localizao;
Funo de ativao para camada oculta: tangente sigmide;
Funo de ativao para camada de sada, para as redes de deteco e
classificao: tangente sigmide;
Funo de ativao para camada de sada, para a rede de localizao:
puramente linear;
Paradigma de aprendizagem: Supervisionado, em modo por lote;
Funo de treinamento: trainrp.
A convergncia poderia ser alcanada quando o MSE for menor que 0.001, por
parada antecipada via validao cruzada ou pelo limite mximo de 20000 pocas.
Visto que os parmetros acima seriam constantes, seria variado somente o
nmero de neurnios na camada oculta, no caso das redes de deteco e classificao.
Para as redes de localizao de defeitos, que possuem 2 camadas ocultas, a considerao
a seria feita que o nmero de neurnios da camada oculta 1 seria sempre igual ao
nmero de neurnios da camada oculta 2, ou seja, para que fosse encontrada a melhor
configurao de cada rede, as 2 camadas ocultas teriam seu nmero de neurnios
variados na mesma proporo.
IV.2.3 Rede de Deteco: Treinamento e Desempenho
A rede de deteco de defeitos recebeu um universo de amostras de situaes de
curto-circuito de 493920 dados e 200000 amostras da linha sob condies normais de
operao, totalizando 693920 dados. Esse conjunto foi dividido em subconjunto de
treinamento (composto de 346960 amostras), de validao (composto de 173480
amostras) e de teste (composto de 173480 amostras).
Captulo IV: Estudo de Casos
60
A partir dos subconjuntos de treinamento e validao foi gerado o grfico da
Figura IV.2, que mostra o comportamento do RMSE da rede para estes subconjuntos. A
fim de que fosse escolhida a rede de melhor desempenho, foram feitas simulaes com
cinco topologias diferentes.
7 8 9 10 11
0.55
0.6
0.65
0.7
0.75
0.8
0.85
0.9
0.95
Neuronios na Camada Oculta
R
M
S
E
Validaao
Treinamento

Figura IV.2 - Desempenho da Rede de Deteco X Neurnios na Camada Oculta para
os Subconjuntos de Treinamento e Validao.
Como pode ser observado na Figura IV.2, a rede que apresentou o menor
RMSE, considerando o valor mdio de cinco treinamentos para cada rede, foi a rede
com 10 neurnios na camada oculta.
O grfico da Figura IV.3 mostra a trajetria de convergncia da rede escolhida.
0 5 10 15 20 25 30 35 40 45 50
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
poca
M
S
E
Treinamento
Validaao
Teste

Figura IV.3 - Convergncia da Rede com 10 Neurnios na Camada Oculta.
Captulo IV: Estudo de Casos
61
Fato relevante a ser considerado que todas as redes testadas convergiram por
parada antecipada e no mximo em 60 pocas, o que mostra que, apesar do conjunto de
amostras ser grande, no houve dificuldades no treinamento. Pode ser observado
tambm que o erro do subconjunto de teste comportou-se de forma semelhante ao erro
do subconjunto de validao, indicando uma distribuio de dados satisfatria e tambm
pode ser observado que no houve overfitting relevante. O percentual de sucesso na
deteco do defeito mostrado pela Tabela IV.1.
Tabela IV.1 Percentual de Acertos da Rede de Deteco.
CONJUNTO
DEFEITOS
DETECTADOS
Validao 100%
Teste 100%
Extra 100%

Pode ser observado que a rede detectou 100% dos defeitos contidos nos
subconjuntos de validao e teste e no conjunto de dados extra. Nas simulaes
realizadas, atraso mximo para deteco do defeito foi de 3ms.
IV.2.4 Rede de Classificao: Treinamento e Desempenho
O universo de treinamento para a rede de classificao foi constitudo somente
por amostras da rede sob defeitos, totalizando 30870 amostras. Esse conjunto foi
dividido em subconjunto de treinamento (composto de 15435 amostras), de validao
(composto de 7718 amostras) e de teste (composto de 7717 amostras).
O grfico da Figura IV.4 foi gerado a fim de que fosse escolhida a rede de
melhor desempenho. O critrio adotado foi o mesmo utilizado para a rede de deteco
de defeitos, ou seja, foi escolhida a configurao de rede que obteve o menor RMSE
aps 5 treinamento, considerando-se o subconjunto de validao.
Captulo IV: Estudo de Casos
62
12 13 14 15 16 17 18 19 20 21 22 23 24
0.06
0.07
0.08
0.09
0.1
0.11
0.12
0.13
Neurnios na Camada Oculta
R
M
S
E
Treinamento
Validao

Figura IV.4 - Desempenho da Rede de Classificao X Neurnios na Camada Oculta
para os Subconjuntos de Treinamento e Validao.
No caso da rede de classificao, como o universo de amostras era bem menor
que no caso da rede de deteco, foi possvel realizar os testes para a escolha da melhor
rede com uma variao maior de neurnios na camada oculta. Optou-se ento por variar
os neurnios na camada oculta de 24, que corresponde a duas vezes o nmero de
entradas at 12, que corresponde ao nmero de entradas da rede. Como pode ser
observado na Figura IV.4, a rede que apresentou o menor RMSE, considerando o valor
mdio em 5 treinamentos para cada rede, foi a rede com 15 neurnios na camada oculta.
O grfico da Figura IV.5 mostra a trajetria de convergncia da rede escolhida.
0 50 100 150 200 250 300 350 400 450 500
0
0.5
1
1.5
poca
M
S
E
Treinamento
Validaao
Teste

Figura IV.5 - Convergncia da Rede com 15 Neurnios na Camada Oculta.
Captulo IV: Estudo de Casos
63
Deve ser ressaltado que todas as redes testadas convergiram por parada
antecipada e no mximo em 600 pocas. Pode ser observado que os subconjuntos
considerados percorreram semelhantes trajetrias de convergncia, indicando uma
diviso satisfatria das amostras, sem overfitting significativo.
O desempenho da rede de classificao mostrado pela Tabela IV.2:
Tabela IV.2 - Percentual de Acertos da Rede de Classificao.
CONJUNTO
NMERO DE
AMOSTRAS
ACERTOS
Validao 7718 99.91%
Teste 7717 99.9%
Extra 4410 99.8%

Pode ser observado que a rede obteve rendimentos acima de 99%, at mesmo
para conjunto de dados extra, o que mostra grande capacidade de generalizao.
IV.2.5 Rede de Localizao: Treinamento e Desempenho
De forma que este desenvolvimento no se torne repetitivo, ser analisada
somente uma rede de localizao para cada tipo de defeito. Neste ponto cabem algumas
observaes com relao aos procedimentos e anlises das redes de localizao de
defeitos:
A convergncia poder ser estabelecida quando o RMSE for menor que
0.0001, por parada antecipada via validao cruzada ou para nmero de
pocas superior a 5000;
Na busca da melhor configurao para as redes, ser considerado sempre
que o nmero de neurnios da primeira camada oculta igual ao nmero
de neurnios da segunda camada oculta.
Devido ao fato do universo de amostras ser bem menor que no caso da rede de
deteco, tambm, neste caso, foi possvel realizar os testes para a escolha da melhor
rede com uma maior variao de neurnios na camada oculta. Optou-se ento por variar
Captulo IV: Estudo de Casos
64
os neurnios nas camadas ocultas de 36, que corresponde a trs vezes o nmero de
entradas, at 12, que corresponde ao nmero de entradas da rede.
Os erros de localizao sero calculados pela equao (IV. 3):
| |
% 100%
D S
Erro x
L

= (IV. 3)

Onde:
D, S Representam respectivamente as sadas desejadas e
obtidas da rede neural de localizao de defeitos.
L Representa o comprimento da linha de transmisso.
IV.2.5.1 Defeitos FASE-TERRA
Em consonncia com o comentrio feito na seo IV.2.5, foi analisada a rede
neural para localizao de defeitos AT, representando as redes de localizao de defeitos
FASE-TERRA.
Para anlise dessa rede foram utilizadas 1544 amostras para treinamento, 772
para validao e 771 para teste. A partir desses subconjuntos de dados o grfico da
Figura IV.6 foi gerado a fim de que fosse escolhida a rede de melhor desempenho,
mantendo-se o critrio de menor RMSE em 5 treinamentos consecutivos, considerando-
se o subconjunto de validao.
Captulo IV: Estudo de Casos
65
12 16 20 24 28 32 36
0.1
0.15
0.2
0.25
0.3
0.35
0.4
0.45
0.5
Neuronios nas Camadas Ocultas
R
M
S
E
Validaao
Treinamento

Figura IV.6 - Desempenho da Rede de Localizao AT X Neurnios nas Camadas
Ocultas para os Subconjuntos de Treinamento e Validao.
Como pode ser observado na Figura IV.6, o nmero de neurnios nas camadas
ocultas foi variado de 36, que corresponde a trs vezes o nmero de entradas at 12, que
corresponde ao nmero de entradas da rede. A configurao que apresentou o menor
RMSE, considerando o valor mdio de 5 treinamentos para cada rede, foi a rede com 23
neurnios, tanto na primeira camada oculta quanto na segunda camada oculta.
O grfico da Figura IV.7 mostra a trajetria de convergncia da rede escolhida.
0 100 200 300 400 500 600
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
0.45
0.5
poca
E
r
r
o

M

d
i
o

Q
u
a
d
r

t
i
c
o
Treinamento
Validaao
Teste

Figura IV.7 - Convergncia da Rede com 23 Neurnios nas Camadas Ocultas.
Captulo IV: Estudo de Casos
66
Fato relevante a ser considerado que todas as redes testadas convergiram por
parada antecipada e no mximo em 1000 pocas. Pode ser observado no grfico que a
trajetria de todos os erros teve comportamento semelhante, indicando mais uma vez
uma boa distribuio das amostras entre os subconjuntos definidos e tambm no
houve overfitting significativo. Com a topologia da rede de localizao de defeitos AT
escolhida e aps o treinamento, foi realizado o teste de desempenho para os
subconjuntos de treinamento, validao, teste e com o conjunto de dados extra. O
grfico da Figura IV.8 mostra a curva de probabilidade acumulada do erro de localizao
para os subconjuntos de treinamento, validao e teste, alm do conjunto de dados
extra.
5 10 15 20 25
10
20
30
40
50
60
70
80
90
100
Erro de Localizaao (%)
P
r
o
b
a
b
i
l
i
d
a
d
e

A
c
u
m
u
l
a
d
a

(
%
)
Treinamento
Validaao
Teste
Extra

Figura IV.8 - Curva de Probabilidade Acumulada para Rede de Localizao de Defeitos
AT.
Pode ser observado que o erro de localizao foi menor que 10% para 90% das
amostras analisadas, at mesmo para o conjunto de dados extra. Analisando o grfico,
observa-se que o conjunto com o pior desempenho foi o conjunto de dados extra.
Dentre os valores de impedncia de defeito desse conjunto h valores fora do escopo de
treinamento (103 e 123Ohms). Isso faz com que o desempenho da rede seja depreciado.
Deve-se levar em considerao o seguinte fato:
A combinao de uma considervel gama de impedncias de defeito, aliada
opo de utilizar ngulo de incidncia de defeito aleatrio constitui um
desafio de generalizao para qualquer sistema de localizao de defeitos.
Captulo IV: Estudo de Casos
67
A fim de se investigar a variao de desempenho dessa rede em relao ao ponto
de ocorrncia do defeito, foi gerado o grfico da Figura IV.9.
2 4 6 8 10 12 14 16 18 20
10
20
30
40
50
60
70
80
90
100
Erro de Localizaao (%)
P
r
o
b
a
b
i
l
i
d
a
d
e

A
c
u
m
u
l
a
d
a

(
%
)
85%
90%
100%

Figura IV.9 - Curva de Probabilidade Acumulada para o Conjunto de Dados Extra em
Relao ao Ponto de Ocorrncia do Defeito.
Analisando o grfico da Figura IV.9, podemos observar a melhoria no
desempenho da rede neural quando so extrados do conjunto de dados extra defeitos
ocorridos acima de 90% e 85% do ponto de aquisio dos sinais. Observa-se que a rede
obteve erro de at 10% para aproximadamente 95% das amostras com defeitos
ocorridos at 90% do ponto de aquisio dos sinais e erros de at 10% para mais de
95% das amostras para defeitos ocorridos at 85% do ponto de medio.
Para os defeitos BT e CT o comportamento da rede neural foi semelhante,
apresentando os mesmos rendimentos e as mesmas dificuldades que a rede para
localizao de defeitos AT.
IV.2.5.2 Defeitos FASE-FASE
Adotando-se o mesmo procedimento para os defeitos FASE-TERRA, foi
analisada a rede neural para localizao de defeitos AB, representando as redes de
localizao de defeitos FASE-FASE.
Captulo IV: Estudo de Casos
68
Para anlise dessa rede foram utilizadas 1544 amostras para treinamento, 772
para validao e 771 para teste. A partir da mdia dos erros da rede em relao aos
subconjuntos de dados de treinamento e validao para 5 treinamentos, o grfico da
Figura IV.10 foi gerado a fim de que fosse escolhida a rede de melhor desempenho.
15 20 25 30 35
0.4
0.5
0.6
0.7
0.8
0.9
1
1.1
Neurnios nas Camadas Ocultas
R
M
S
E
Validaao
Treinamento

Figura IV.10 - Desempenho da Rede de Localizao AB X Neurnios nas Camadas
Ocultas para os Subconjuntos de Treinamento e Validao.
Como pode ser observado na Figura IV.10, a rede que apresentou o menor
RMSE, considerando o valor mdio de cinco treinamentos para cada rede, foi a rede
com 30 neurnios, tanto na primeira camada oculta quanto na segunda camada oculta.
Optou-se nesse caso por variar os neurnios na camada oculta de 36, que corresponde a
trs vezes o nmero de entradas at 12, que corresponde ao nmero de entradas da
rede. O grfico da Figura IV.11 mostra a trajetria de convergncia da rede escolhida.
Captulo IV: Estudo de Casos
69
0 100 200 300 400 500 600
0
20
40
60
80
100
120
140
160
180
200
poca
E
r
r
o

M

d
i
o

Q
u
a
d
r

t
i
c
o
Treinamento
Validaao
Teste

Figura IV.11 - Convergncia da Rede com 30 Neurnios nas Camadas Ocultas.
Fato relevante a ser considerado que todas as redes testadas convergiram por
parada antecipada e no mximo em 1000 pocas e apresentaram caractersticas de
convergncia semelhantes rede para localizao de defeitos AT.
Com a topologia da rede escolhida e aps o treinamento da rede, foi realizado o
teste de desempenho para o conjunto de dados extra. O grfico da Figura IV.12 mostra
a curva de probabilidade acumulada do erro de localizao para os subconjuntos de
treinamento, validao e teste, bem como o conjunto de dados extra.
5 10 15 20 25 30 35 40
0
10
20
30
40
50
60
70
80
90
100
Erro de Localizaao (%)
P
r
o
b
a
b
i
l
i
d
a
d
e

A
c
u
m
u
l
a
d
a

(
%
)
Validaao
Extra
Teste
Treinamento

Figura IV.12 - Curva de Probabilidade Acumulada para Rede de Localizao de Defeitos
AB.
Captulo IV: Estudo de Casos
70
Pode ser observado que o erro de localizao foi menor que 10% para
aproximadamente 80% das amostras analisadas, com exceo das amostras de
treinamento. Deve-se levar em considerao novamente a combinao considervel
gama de impedncias de defeito, com valores expressivos de impedncia de defeito
aliada opo de utilizar ngulo de incidncia de defeito aleatrio. So condies
severas de simulao e os resultados mostram que a rede se comportou de maneira
satisfatria. A fim de que fosse testada a variao de desempenho dessa rede em relao
ao ponto de ocorrncia do defeito, foi gerado o grfico da Figura IV.13.
5 10 15 20 25 30 35 40
10
20
30
40
50
60
70
80
90
100
Erro de Localizaao (%)
P
r
o
b
a
b
i
l
i
d
a
d
e

A
c
u
m
u
l
a
d
a

(
%
)
85%
90%
100%

Figura IV.13 - Curva de Probabilidade Acumulada para o Conjunto de Dados Extra em
Relao ao Ponto de Ocorrncia do Defeito.
Analisando o grfico da Figura IV.13 observa-se que para defeitos ocorridos a
at 85% da linha de transmisso a rede obteve erros de localizao de at 10% para
aproximadamente 88% das amostras do conjunto de dados extra. Tendo em vista que
um esquema de proteo de LT possui um localizador em cada terminal da linha, este
erro pode ser facilmente eliminado.



Captulo IV: Estudo de Casos
71
IV.2.5.3 Defeitos FASE-FASE-TERRA
Para os defeitos FASE-FASE-TERRA, ser analisada a rede responsvel pela
localizao de defeitos ABT.
Para anlise dessa rede sero utilizadas 1544 amostras para treinamento, 772 para
validao e 771 para teste. A partir desses subconjuntos de dados o grfico da Figura
IV.14 foi gerado a fim de que fosse escolhida a rede de melhor desempenho.
12 14 16 18 20 22 24 26 28 30 32 34 36
0.25
0.3
0.35
0.4
0.45
0.5
0.55
Neuronios nas Camadas Ocultas
R
M
S
E
Treinamento
Validao

Figura IV.14 - Desempenho da Rede de Localizao ABT X Neurnios nas Camadas
Ocultas para os Subconjuntos de Treinamento e Validao.
Da mesma forma que nas redes de localizao anteriores, o nmero de
neurnios nas camadas ocultas foi variado de 36 a 12, como pode ser observado na
Figura IV.14. A rede que apresentou o menor RMSE, considerando o valor mdio de 5
treinamentos para cada rede, foi a rede com 14 neurnios, tanto na primeira camada
oculta quanto na segunda camada oculta.
O grfico da Figura IV.15 mostra a trajetria de convergncia da rede escolhida.
Captulo IV: Estudo de Casos
72
0 50 100 150 200 250 300
0
2
4
6
8
10
12
poca
E
r
r
o

M

d
i
o

Q
u
a
d
r

t
i
c
o
Treinamento
Validaao
Teste

Figura IV.15 - Convergncia da Rede com 14 Neurnios nas Camadas Ocultas.
Fato relevante a ser considerado que todas as redes testadas convergiram por
parada antecipada e no mximo em 1000 pocas, mostrando que no houve dificuldades
no treinamento. Com a topologia da rede escolhida e aps o treinamento, foi realizado o
teste de desempenho para o conjunto de dados extra. O grfico da Figura IV.16 mostra
a curva de probabilidade acumulada para os subconjuntos de treinamento, validao e
testes, alm do conjunto de dados extra.
5 10 15 20 25
0
10
20
30
40
50
60
70
80
90
100
Erro de Localizaao (%)
P
r
o
b
a
b
i
l
i
d
a
d
e

A
c
u
m
u
l
a
d
a

(
%
)
Treinamento
Validaao
Teste
Extra

Figura IV.16 - Curva de Probabilidade Acumulada para Rede de Localizao de Defeitos
ABT.

Captulo IV: Estudo de Casos
73
Pode ser observado que o erro de localizao foi menor que 10% para 80% das
amostras analisadas, com exceo do conjunto de dados extra. Para Analisar a variao
de desempenho dessa rede em relao ao ponto de ocorrncia do defeito, para o
conjunto de dados extra, foi gerado o grfico da Figura IV.17:
5 10 15 20 25 30
0
10
20
30
40
50
60
70
80
90
100
Erro de Localizaao (%)
P
r
o
b
a
b
i
l
i
d
a
d
e

A
c
u
m
u
l
a
d
a

(
%
)
85%
90%
100%

Figura IV.17 - Curva de Probabilidade Acumulada para o Conjunto de Dados Extra em
Relao ao Ponto de Ocorrncia do Defeito.
Pelo grfico da Figura IV.17 observa-se um aumento do percentual de amostras
com erro de at 10% na localizao de 70% para em torno de 88%, quando se considera
um conjunto de amostras com dados de defeitos localizados a at 85% da linha de
transmisso. Novamente pertinente observar que um esquema de proteo de LT
possui um localizador em cada terminal da linha, o que possibilita a eliminao deste
erro.
IV.2.5.4 Defeitos FASE-FASE-FASE
Para anlise da rede responsvel pela localizao de defeitos envolvendo
simultaneamente as fases A, B e C, foram utilizadas 1544 amostras para treinamento,
772 para validao e 771 para teste. A partir desses subconjuntos de dados o grfico da
Figura IV.18 foi gerado a fim de que fosse escolhida a rede de melhor desempenho.
Captulo IV: Estudo de Casos
74
12 15 18 21 24 27 30 33 36
0.5
1
1.5
2
2.5
3
3.5
4
Neurnios nas Camadas Ocultas
R
M
S
E
Treinamento
Validaao

Figura IV.18 - Desempenho da Rede de Localizao ABC X Neurnios nas Camadas
Ocultas para os Subconjuntos de Treinamento e Validao.
Como pode ser observado na Figura IV.18, os neurnios nas camadas ocultas
foram variados de 36 a 12 e a rede que apresentou o menor RMSE, considerando o
valor mdio de 5 treinamentos para cada rede, foi a rede com 34 neurnios, tanto na
primeira camada oculta quanto na segunda camada oculta.
O grfico da Figura IV.19 mostra a trajetria de convergncia da rede escolhida.
0 50 100 150 200 250 300 350 400 450
0
5
10
15
20
25
30
35
40
45
50
poca
E
r
r
o

M

d
i
o

Q
u
a
d
r
a
t
i
c
o
Treinamento
Validaao
Teste

Figura IV.19 - Convergncia da Rede com 34 Neurnios nas Camadas Ocultas.
Captulo IV: Estudo de Casos
75
Todas as redes testadas convergiram por parada antecipada e no mximo em
1000 pocas. A trajetria de convergncia da rede teve as mesmas caractersticas das
redes analisadas anteriormente, com o erro de validao comportando-se de forma
semelhante ao erro de teste, mostrando diviso de amostras satisfatria. Com a
topologia da rede escolhida e aps o treinamento, foi realizado o teste de desempenho
para os subconjuntos de treinamento, validao, teste e o conjunto de dados extra. O
grfico da Figura IV.20 mostra a curva de probabilidade acumulada do erro de
localizao para esses conjuntos:
5 10 15 20 25 30 35 40 45
0
10
20
30
40
50
60
70
80
90
100
Erro de Localizaao (%)
P
r
o
b
a
b
i
l
i
d
a
d
e

A
c
u
m
u
l
a
d
a

(
%
)
Treinamento
Validaao
Teste
Extra

Figura IV.20 - Curva de Probabilidade Acumulada para Rede de Localizao de Defeitos
ABC.
Como pode ser observado o desempenho dessa rede no atingiu a mesma
eficincia das redes anteriores, ficando o erro de localizao foi menor que 10% para
somente 55% das amostras do conjunto de dados extra.
A fim de que fosse testada a sensibilidade dessa rede em relao ao ponto de
ocorrncia do defeito, foi gerado o grfico da Figura IV.21.
Captulo IV: Estudo de Casos
76
5 10 15 20 25 30 35 40
0
10
20
30
40
50
60
70
80
90
100
Erro de Localizaao (%)
P
r
o
b
a
b
i
l
i
d
a
d
e

A
c
u
m
u
l
a
d
a

(
%
)
85%
90%
100%

Figura IV.21 - Curva de Probabilidade Acumulada para o Conjunto de Dados Extra em
Relao ao Ponto mais Distante de Ocorrncia do Defeito.
Observa-se um salto no desempenho da rede quando so considerados defeitos
localizados a at 85% do ponto de aquisio das amostras, indicando uma acentuada
perda de desempenho no que concerne a defeitos prximos ao terminal oposto ao local
de aquisio de sinais. Este fato ocorre devido conjuno de dois fatores: o primeiro
a ocorrncia do defeito em pontos distantes do terminal de aquisio dos sinais. O
segundo devido a defeitos com alta impedncia. De toda forma, como nos casos
anteriores, deve-se considerar a existncia de localizadores de defeito em ambos os
terminais da linha, o que permitir a eliminao deste erro.
IV.2.6 Esquema Completo de Deteco, Classificao e
Localizao de Defeitos: Teste de Desempenho.
Para o teste do esquema completo foram utilizadas amostras do conjunto de
dados extra. Ser exibida nesta seo uma simulao de defeito que ser totalmente
analisada pelo sistema de proteo proposto neste trabalho. O distrbio analisado
ocorreu a 100ms do incio da simulao, com uma impedncia de defeito de 70 Ohms,
do tipo AT, a 70% da linha em relao ao local de aquisio dos sinais.
A Figura IV.22 ilustra uma operao completo do esquema.
Captulo IV: Estudo de Casos
77
70 80 90 100 110 120 130 140
-140
-100
-60
-20
20
60
100
140
Tempo (ms)
T
e
n
s

o
(
k
V
)
96 98 100 102 104 106 108 110 112 114 116 118
-1
0
1
Tempo (ms)
S
a

d
a

d
a
R
e
d
e

d
e

D
e
t
e

a
o
100 105 110 115 120 125 130
-1
-0.5
0
0.5
1
Tempo (ms)
S
a

d
a
d
a

R
e
d
e

d
e
C
la
s
s
if
ic
a

o
100 105 110 115 120 125 130
-1

0

1
Tempo (ms)
S
a

d
a

d
a

R
e
d
e

d
e

C
la
s
s
if
ic
a

o
110 112 114 116 118 120 122 124 126 128 130
-0.1
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
Tempo (ms)
S
a

d
a

d
a

R
e
d
e

d
e

D
e
t
e

a
o
100 105 110 115 120 125 130
-1

0

1
Tempo (ms)
S
a

d
a

d
a

R
e
d
e

d
e

C
la
s
s
if
ic
a

o
100 105 110 115 120 125 130
-1
-0.5
0
0.5
1
Tempo (ms)
S
a

d
a
d
a

R
e
d
e

d
e
C
la
s
s
if
ic
a

o

Figura IV.22 - Simulao de Operao do Esquema Completo para Deteco,
Classificao e Localizao de Defeitos em Linhas de Transmisso.
Captulo IV: Estudo de Casos
78
O funcionamento do esquema completo pode ser entendido da seguinte
maneira:
O mdulo de deteco de defeitos recebe, a cada milsimo de segundo,
amostras de tenso e corrente da linha de transmisso. Esses sinais passam
por um filtro anti-aliasing e por um filtro de Fourier recursivo, que alimenta
as entradas da rede neural de deteco de defeitos. Como critrio para
deteco utilizou-se como base o rel numrico REL 100 [ 58 ], amplamente
utilizado em sistemas de proteo comerciais. Esse rel possui a seguinte
diretiva: s considerado defeito quando ocorrem 10 registros consecutivos
indicando defeito. prudente aguardar os 10 registros positivos para que o
defeito seja confirmado, a fim de que no seja tomada uma deciso
precipitada no que concerne operao de disjuntores. Este procedimento
tem por objetivo evitar a operao indevida do sistema de proteo diante de
erros de medies provocados por transformadores de tenso capacitivos,
sinais esprios, etc, como j dito anteriormente. Pelos grficos 1 e 2 da
Figura IV.22 observa-se que a sada da rede acusou uma situao de defeito
com atraso de 3ms em relao sada esperada. Foi ento aguardado o
registro de 10 sadas consecutivas indicando a presena de situao de
defeito para que o sinal para atuao da proteo fosse enviado;
A partir da constatao da existncia do defeito, o mdulo de classificao
recebe os sinais da rede situados totalmente na regio de defeito, ou seja, 1
ciclo completo de amostras de defeito e assim como o mdulo de deteco,
filtra esses sinais a fim de que as componentes de 60Hz sejam apresentadas
rede neural de classificao de defeitos. Os grficos 3, 4, 5 e 6 da Figura
IV.22 representam, respectivamente, as sadas relacionadas s fases A, B, C e
o envolvimento da Terra no distrbio. Pode ser observado que o sinal de
sada da rede foi alterado de -1 para 1 nos grficos 3 e 6, indicando que o
defeito envolveu a fase A e a Terra;
Com o defeito identificado, os sinais da linha de transmisso que foram
utilizados pela rede de classificao so apresentados rede especialista
referente quele tipo de defeito, dentro do mdulo de localizao de
Captulo IV: Estudo de Casos
79
defeitos. O grfico 7 da Figura IV.22 mostra o comportamento da sada da
rede de localizao de defeitos AT quando os sinais oriundos do mdulo de
classificao foram apresentados s suas entradas. O nvel da sada foi
elevado de 0 para 0.68, indicando ocorrncia do defeito a 68% do ponto do
onde os sinais foram amostrados. Como a localizao real do defeito foi
70%, o erro de localizao foi ento de 2%.
Observa-se nos mdulos de classificao e localizao de defeitos um atraso
de 1ms. Dessa forma o defeito foi localizado em 18ms. Considerando-se que
sistemas convencionais necessitam de 50ms a 83ms para atuar (o que
corresponde a 3-5 ciclos), pode-se concluir que o esquema proposto
sensivelmente mais rpido do que os convencionais.
IV.3 Sistema Teste II
O sistema teste II foi extrado de [ 26 ] e representa um sistema equivalente para
estudo de uma linha de transmisso de 500kV com 200 milhas de extenso.
Como havia disponibilidade apenas dos parmetros do sistema equivalente, para
simulao de diferentes condies de operao da linha de transmisso sob estudo,
foram feitas modificaes percentuais nos parmetros do sistema equivalente iguais s
modificaes observadas no sistema teste I, onde havia disponibilidade do sistema
completo e onde, para cada alterao na operao da linha, os parmetros do sistema
equivalente eram recalculados. Os parmetros deste sistema teste, bem como suas
variaes esto disponibilizados no Apndice D.
IV.3.1 Rede de Deteco: Treinamento e Desempenho
A rede de deteco de defeitos recebeu, como no caso do sistema teste I, um
universo de amostras de situaes de curto-circuito de 496920 dados e 200000 amostras
da linha sob condies normais de operao, totalizando 693920 dados. Esse conjunto
foi dividido em subconjunto de treinamento (composto de 346960 amostras), de
validao (composto de 173480 amostras) e de teste (composto de 173480 amostras).
Captulo IV: Estudo de Casos
80
Da mesma maneira; a partir dos subconjuntos de treinamento e validao foi
gerado o grfico da Figura IV.23, que mostra o comportamento do RMSE da rede para
estes subconjuntos. A fim de que fosse escolhida a rede de melhor desempenho foram
feitas simulaes com cinco topologias diferentes.
7 8 9 10 11
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
Neurnios na Camada Oculta
R
M
S
E
Validao
Treinamento

Figura IV.23 - Desempenho da Rede de Deteco X Neurnios na Camada Oculta para
o Subconjunto de Treinamento e Validao.
A Figura IV.23 mostra que a rede com 11 neurnios na camada oculta obteve o
menor RMSE para o subconjunto de validao.
O grfico da Figura IV.24 mostra a trajetria de convergncia da rede escolhida:
0 100 200 300 400 500 600 700
0
0.5
1
1.5
poca
E
r
r
o

M

d
i
o

Q
u
a
d
r

t
i
c
o

Treinamento
Validaao
Teste

Figura IV.24 Convergncia da Rede com 11 Neurnios na Camada Oculta.
Captulo IV: Estudo de Casos
81
Observa-se que todas as redes testadas convergiram por parada antecipada e no
mximo em 900 pocas, o que mostra que, apesar do conjunto de amostras ser grande,
no houve dificuldades no treinamento, como ocorreu no sistema teste I. Pode ser
observado tambm que o erro do subconjunto de teste comportou-se de forma
semelhante ao erro do subconjunto de validao, indicando uma distribuio de dados
satisfatria ente os subconjuntos e tambm pode ser observado que no houve overfitting
relevante. O percentual de sucesso na deteco do defeito mostrado pela Tabela IV. 3:
Tabela IV. 3 Percentual de Acertos da Rede de Deteco.
CONJUNTO
DEFEITOS
DETECTADOS
Validao 100%
Teste 100%
Extra 100%

Pode ser observado que mais uma vez a rede detectou 100% dos defeitos
contidos nos subconjuntos de validao e teste e no conjunto de dados extra. Nas
simulaes realizadas tambm foi observado novamente um atraso mximo para
deteco do defeito foi de 3ms.
IV.3.2 Rede de Classificao: Treinamento e Desempenho
Da mesma maneira que a rede de classificao do sistema teste I, o universo de
treinamento para a rede de classificao foi constitudo somente por amostras da rede
sob defeitos, totalizando 30870 amostras. Esse conjunto foi dividido em subconjunto de
treinamento (composto de 15435 amostras), de validao (composto de 7718 amostras)
e de teste (composto de 7717 amostras).
O grfico da Figura IV.25 foi gerado a fim de que fosse escolhida a rede de
melhor desempenho, utilizando-se os mesmos critrios do sistema teste I.
Captulo IV: Estudo de Casos
82
12 13 14 15 16 17 18 19 20 21 22 23 24
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
Neurnios na Camada Oculta
R
M
S
E
Validao
Treinamento

Figura IV.25 - Desempenho da Rede de Classificao X Neurnios na Camada Oculta
para o Subconjunto de Treinamento e Validao.
Como pode ser observado na Figura IV.25, a rede que apresentou o menor
RMSE, considerando o valor mdio em 5 treinamento para cada rede, foi a rede com 21
neurnios na camada oculta.
O grfico da Figura IV.26 mostra a trajetria de convergncia da rede escolhida
0 100 200 300 400 500 600
0
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
1.8
2
poca
E
r
r
o

M

d
i
o

Q
u
a
d
r

t
i
c
o
Treinamento
Validaao
Teste

Figura IV.26 - Convergncia da Rede com 21 Neurnios na Camada Oculta.
Captulo IV: Estudo de Casos
83
Pode ser observado que, de maneira semelhante ao ocorrido com a rede do
sistema teste I, os subconjuntos considerados percorreram semelhantes trajetrias de
convergncia, indicando uma diviso satisfatria das amostras, sem overfitting
significativo.
O desempenho da rede de classificao mostrado pela Tabela IV.4, e como
pode ser visto, o percentual de acerto mostra uma rede com excelente desempenho.
Tabela IV.4 - Percentual de Acertos da Rede de Classificao.
CONJUNTO
NMERO DE
AMOSTRAS
ACERTOS
Validao 7718 99.91%
Teste 7717 99.95%
Extra 4410 99.9%
IV.3.3 Rede de Localizao: Treinamento e Desempenho
A seguir, descreve-se o comportamento de cada uma das redes que compem o
mdulo de localizao.
IV.3.3.1 Defeitos FASE-TERRA
Para anlise dessa rede foram utilizadas 1544 amostras para treinamento, 772
para validao e 771 para teste. A partir desses subconjuntos de dados o grfico da
Figura IV.27 foi gerado, a fim de que fosse escolhida a rede de melhor desempenho,
mantendo-se o critrio de menor RMSE em 5 treinamentos consecutivos, considerando-
se o subconjunto de validao.
Captulo IV: Estudo de Casos
84
12 14 16 18 20 22 24 26 28 30 32 34 36
0.02
0.04
0.06
0.08
0.1
0.12
0.14
0.16
0.18
Neuronios nas Camadas Ocultas
R
M
S
E
Validao
Treinamento

Figura IV.27 - Desempenho da Rede de Localizao AT X Neurnios nas Camadas
Ocultas para o Subconjunto de Treinamento e Validao.
Como pode ser observado na Figura IV.27, o nmero de neurnios nas camadas
ocultas foi variado de 36, que corresponde a trs vezes o nmero de entradas at 12, que
corresponde ao nmero de entradas da rede. A configurao que apresentou o menor
RMSE, considerando o valor mdio de 5 treinamentos para cada rede, foi a rede com 14
neurnios, tanto na primeira camada oculta quanto na segunda camada oculta. O
grfico da Figura IV.28 mostra a trajetria de convergncia da rede escolhida.
0 100 200 300 400 500 600 700
0
1
2
3
4
5
6
poca
E
r
r
o

M

d
i
o

Q
u
a
d
r
a
t
i
c
o
Treinamento
Validaao
Teste

Figura IV.28 - Convergncia da Rede com 14 Neurnios nas Camadas Ocultas.
Captulo IV: Estudo de Casos
85
Todas as redes testadas convergiram por parada antecipada e no mximo em
1000 pocas. Pode ser observado na Figura IV.28 que a trajetria de todos os erros teve
comportamento semelhante, indicando mais uma vez uma boa distribuio das amostras
entre os subconjuntos definidos e tambm no houve overfitting significativo. Com a
topologia da rede de localizao de defeitos AT escolhida e aps o treinamento da rede,
foi realizado o teste de desempenho para os subconjuntos de treinamento, validao,
teste e com o conjunto de dados extra.
O grfico da Figura IV.29 mostra a curva de probabilidade acumulada para os
subconjuntos de treinamento, validao e teste, alm do conjunto de dados extra.
1 2 3 4 5 6 7 8
70
75
80
85
90
95
100
Erro de Localizaao (%)
P
r
o
b
a
b
i
l
i
d
a
d
e

A
c
u
m
u
l
a
d
a

(
%
)
Treinamento
Validaao
Teste
Extra

Figura IV.29 - Curva de Probabilidade Acumulada para Rede de Localizao de Defeitos
AT.
Pode ser observado que o erro de localizao foi menor que 8% para 100%
das amostras analisadas, at mesmo para o conjunto de dados extra.
IV.3.3.2 Defeitos FASE-FASE
Para anlise dessa rede foram utilizadas 1544 amostras para treinamento, 772
para validao e 771 para teste. A partir da mdia dos erros da rede em relao aos
Captulo IV: Estudo de Casos
86
subconjuntos de dados de treinamento e validao para 5 treinamentos, o grfico da
Figura IV.30 foi gerado a fim de que fosse escolhida a rede de melhor desempenho.
15 20 25 30 35
0.05
0.1
0.15
0.2
0.25
0.3
Neurnios nas Camadas Ocultas
R
M
S
E
Validao
Treinamento

Figura IV.30 - Desempenho da Rede de Localizao AB X Neurnios nas Camadas
Ocultas para o Subconjunto de Treinamento e Validao.
Como pode ser observado na Figura IV.30, a rede que apresentou o menor
RMSE, considerando o valor mdio de cinco treinamentos para cada rede, foi a rede
com 15 neurnios, tanto na primeira camada oculta quanto na segunda camada oculta.
Optou-se, nesse caso, por variar os neurnios na camada oculta de 36, que corresponde
a trs vezes o nmero de entradas at 12, que corresponde ao nmero de entradas da
rede. O grfico da Figura IV.31 mostra a trajetria de convergncia da rede escolhida.
0 50 100 150 200 250 300 350 400
0
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
1.8
2
poca
E
r
r
o

M

d
i
o

Q
u
a
d
r

t
i
c
o
Treinamento
Validaao
Teste

Figura IV.31 - Convergncia da Rede com 15 Neurnios nas Camadas Ocultas.
Captulo IV: Estudo de Casos
87
Todas as redes testadas convergiram por parada antecipada e no mximo em 800
pocas e apresentaram caractersticas de convergncia semelhantes rede para
localizao de defeitos FASE-TERRA.
Com a topologia da rede escolhida e aps o treinamento, foi realizado o teste de
desempenho para o conjunto de dados extra. O grfico da Figura IV.32 mostra a curva
de probabilidade acumulada do erro de localizao para os subconjuntos de
treinamento, validao e teste, bem como o conjunto de dados extra.
1 2 3 4 5 6 7 8 9 10 11 12 13
30
40
50
60
70
80
90
100
Erro de Localizaao (%)
P
r
o
b
a
b
i
l
i
d
a
d
e

A
c
u
m
u
l
a
d
a

(
%
)
Treinamento
Validaao
Teste
Extra

Figura IV.32 - Curva de Probabilidade Acumulada para Rede de Localizao de Defeitos
AB.
Analisando o grfico da Figura IV.32, observa-se que o erro mximo de
localizao foi de 13% e que o erro foi menor que 5% para mais de 95% do conjunto de
amostras.
IV.3.3.3 Defeitos FASE-FASE-TERRA
Para anlise dessa rede sero utilizadas 1544 amostras para treinamento, 772 para
validao e 771 para teste. A partir desses subconjuntos de dados o grfico da Figura
IV.33 foi gerado a fim de que fosse escolhida a rede de melhor desempenho.

Captulo IV: Estudo de Casos
88
15 20 25 30 35
0.04
0.06
0.08
0.1
0.12
0.14
0.16
0.18
0.2
0.22
Validao
Treinamento

Figura IV.33 - Desempenho da Rede de Localizao ABT X Neurnios nas Camadas
Ocultas para o Subconjunto de Treinamento e Validao.
Da mesma forma que nas redes de localizao anteriores, o nmero de
neurnios nas camadas ocultas foi variado de 36 a 12, como pode ser observado na
Figura IV.33. A rede que apresentou o menor RMSE, considerando o valor mdio de 5
treinamentos foi a rede com 19 neurnios, tanto na primeira camada oculta quanto na
segunda camada oculta.
O grfico da Figura IV.34 mostra a trajetria de convergncia da rede escolhida
0 50 100 150 200 250 300 350
0
5
10
15
20
25
poca
E
r
r
o

M

d
i
o

Q
u
a
d
r
a
t
i
c
o
Treinamento
Validaao
Teste

Figura IV.34 - Convergncia da Rede com 19 Neurnios nas Camadas Ocultas.
Captulo IV: Estudo de Casos
89
Todas as redes testadas convergiram por parada antecipada e no mximo em
1000 pocas. Com a topologia da rede escolhida e aps o treinamento da rede, foi
realizado o teste de desempenho para o conjunto de dados extra. O grfico da Figura
IV.35 mostra a curva de probabilidade acumulada para os subconjuntos de treinamento,
validao e testes, alm do conjunto de dados extra.
5 10 15 20 25
50
55
60
65
70
75
80
85
90
95
100
Erro de Localizaao (%)
P
r
o
b
a
b
i
l
i
d
a
d
e

A
c
u
m
u
l
a
d
a

(
%
)
Treinamento
Validaao
Teste
Extra

Figura IV.35 - Curva de Probabilidade Acumulada para Rede de Localizao de Defeitos
ABT.
Pelo grfico da Figura IV.35 observa-se que o erro mximo da rede foi de 22%.
Entretanto, o erro de localizao foi menor que 10% para mais de 98% das amostras
analisadas.
IV.3.3.4 Defeitos FASE-FASE-FASE
Para anlise da rede responsvel pela localizao de defeitos envolvendo
simultaneamente as fases A, B e C, foram utilizadas 1544 amostras para treinamento,
772 para validao e 771 para teste. A partir desses subconjuntos de dados o grfico da
Figura IV.36 foi gerado a fim de que fosse escolhida a rede de melhor desempenho.

Captulo IV: Estudo de Casos
90
15 20 25 30 35
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
Neuronios nas Camadas Ocultas
R
M
S
E
Validao
Treinamento
Menor RMSE

Figura IV.36 - Desempenho da Rede de Localizao ABC X Neurnios nas Camadas
Ocultas para o Subconjunto de Treinamento e Validao.
Como pode ser observado na Figura IV.36, os neurnios nas camadas ocultas
foram variados de 36 a 12 e a rede que apresentou o menor RMSE, considerando o
valor mdio de 5 treinamentos para cada rede, foi a rede com 23 neurnios, tanto na
primeira camada oculta quanto na segunda camada oculta. O grfico da Figura IV.36
mostra a trajetria de convergncia da rede escolhida
0 50 100 150 200 250
0
5
10
15
20
25
poca
E
r
r
o

M

d
i
o

Q
u
a
d
r

t
i
c
o
Treinamento
Validaao
Teste

Figura IV.37 - Convergncia da Rede com 23 Neurnios nas Camadas Ocultas.
Captulo IV: Estudo de Casos
91
Todas as redes testadas convergiram por parada antecipada e no mximo em 600
pocas. A trajetria de convergncia da rede teve as mesmas caractersticas das redes
analisadas anteriormente, com o erro de validao comportando-se de forma semelhante
ao erro de teste, mostrando diviso de amostras satisfatria. Com a topologia da rede
escolhida e aps o treinamento, foi realizado o teste de desempenho para os
subconjuntos de treinamento, validao, teste e o conjunto de dados extra. O grfico da
Figura IV.38 mostra a curva de probabilidade acumulada para esses conjuntos.
1 2 3 4 5 6 7 8 9 10 11 12
30
40
50
60
70
80
90
100
Erro de Localizaao (%)
P
r
o
b
a
b
i
l
i
d
a
d
e

A
c
u
m
u
l
a
d
a

(
%
)
Treinamento
Validaao
Teste
Extra

Figura IV.38 - Curva de Probabilidade Acumulada para Rede de Localizao de Defeitos
ABC.
Como pode ser observado, o erro de localizao foi menor que 10% para 100%
das amostras analisadas.
IV. 4 Concluses
Este captulo apresentou os resultados obtidos atravs da aplicao da
metodologia proposta para a elaborao de um esquema completo de deteco,
classificao e localizao de defeitos em linhas de transmisso. Para isto, foram
utilizados os sistemas IEEE-14 e o sistema equivalente utilizado em BRAHMA [ 26 ].
Captulo IV: Estudo de Casos
92
Nas simulaes, constatou-se que o treinamento de todas as redes foi realizado
de forma rpida (em no mximo 10 minutos) e eficiente. As redes sempre convergiram
por parada antecipada, o que garantiu uma alta capacidade de generalizao. Cabe
ressaltar neste ponto que o acompanhamento da trajetria de convergncia do conjunto
de teste foi um fator determinante no que concerne verificao da correta diviso do
universo de amostras.


93

Captulo V
Concluses
V.1 Concluses
Esta dissertao teve como objetivo a elaborao de um esquema completo de
deteco, classificao e localizao de defeitos em linhas de transmisso utilizando
redes neurais artificiais (RNA). Esta metodologia tem como caracterstica importante a
utilizao das tenses e correntes trifsicas na freqncia fundamental em somente um
dos terminais na linha. A inteno foi elaborar um sistema de proteo alternativo, que
possa trabalhar em conjunto com mtodos convencionais na proteo de linhas de
transmisso, melhorando sua eficincia e preciso.
Primeiramente foram apresentados os conceitos bsicos de RNA, bem como a
modelagem e algoritmos de treinamento de neurnios artificiais, conceitos estes que
serviram de suporte para a aplicao de redes neurais no decorrer do trabalho.
Em seguida, foram apresentados os mdulos que compem o esquema
completo de deteco, classificao e localizao de defeitos, bem como a estrutura de
gerao de dados de treinamento dessas redes. Tambm foi descrita a estrutura bsica
das redes neurais que compem o sistema de deteco, classificao e localizao de
defeitos em linhas de transmisso.
Captulo V: Concluses
94
Foram utilizados para testar a metodologia proposta os sistemas IEEE-14 e um
sistema teste, obtido em [ 26 ].
Com relao ao desempenho do mdulo de deteco, foi verificado nos testes
realizados que em ambos os sistemas testes o atraso mximo para deteco do defeito
foi de 3ms. A opo por aguardar 10 registros positivos para que o defeito fosse
detectado, visa evitar a operao indevida do sistema de proteo diante de erros de
medies provocados por transformadores de tenso capacitivos, sinais esprios, etc e
est em consonncia com a filosofia de operao de rels numricos como o REL-100,,
amplamente utilizado. importante salientar que o mdulo de deteco acusou defeito
em 100% dos casos estudados e apesar do grande nmero de amostras utilizado, o
treinamento das redes para os sistemas estudados foi realizado de forma rpida e
eficiente. As redes sempre convergiram por parada antecipada, o que garantiu uma alta
capacidade de generalizao. Cabe ressaltar neste ponto que o acompanhamento da
trajetria de convergncia do conjunto de teste foi um fator determinante no que
concerne verificao da correta diviso do universo de amostras.
Com relao ao desempenho da rede de classificao, constatou-se um
desempenho elevado para todos testes efetuados. Para ambos os sistemas testes, o erro
mximo da rede foi de 0.1%, mostrando que a rede foi capaz de identificar os
condutores envolvidos em praticamente todos os distrbios estudados.
Para a rede de localizao interessante observar que o desempenho foi
diferente para cada um dos sistemas estudados. No caso do sistema teste II, o mdulo
de localizao apresentou um melhor comportamento. Este fato pode ser atribudo s
caractersticas do sistema teste II, que possui um nvel de curto-circuito bem mais
elevado, e aos valores de impedncia de defeito, que foram os mesmos para os dois
sistemas testes, fazendo com que os curtos se tornassem mais bem caracterizados que os
analisados no sistema teste I.
Para o sistema teste I, a rede de localizao de defeitos FASE-TERRA obteve o
melhor desempenho dentre todas as redes constituintes do mdulo de localizao.
Levando em considerao que mais de 70% dos defeitos em linhas de transmisso
envolvem somente 1 condutor [ 59 ], pode-se concluir que o mdulo de localizao
apresentou desempenho muito bom, apesar de condies severas que foram impostas
Captulo V: Concluses
95
nas situaes simuladas, tais como ngulo de incidncia de defeito aleatrio e
impedncias de defeito acima de 80Ohms. As redes de localizao FASE-FASE e
FASE-FASE-TERRA tiveram tambm um desempenho satisfatrio, uma vez que
tambm foram submetidas a condies de operao reais. Contudo, a rede que obteve o
pior desempenho foi a de localizao de defeitos ABC. Uma das causas desse baixo
desempenho se deve ao fato de que o defeito trifsico simtrico, ou seja, neste caso
no observado desequilbrio entre as fases. Aliado a esse fato importante ressaltar os
altos valores de impedncia de defeito utilizados nos testes, bem como a considerao
de ngulo de incidncia de defeito aleatrio, exigindo da rede sensibilidade a variaes
extremamente sutis nos sinais, consistindo em um problema de soluo deveras
complexa. Tal problema pode ser sanado atravs da utilizao desse esquema de
deteco, classificao e localizao de defeitos nos dois terminais da linha de
transmisso.
V.2 Propostas de Desenvolvimentos Futuros
Seguindo a linha de pesquisa desenvolvida nesta dissertao e tendo em vista os
resultados obtidos, alguns tpicos tornam-se promissores como propostas de trabalhos
futuros:
Insero, no conjunto de treinamento, de dados da rede sob condies de
curto externo linha sob anlise. Foram simuladas diversas condies de
operao do sistema, mas necessrio avaliar o desempenho das redes no
caso de defeitos em linhas prximas, pois o sistema de proteo deve ser
insensvel a essas perturbaes.
Para redes em que o mdulo de localizao apresentar baixo desempenho
para defeitos de alta impedncia e defeitos distantes do terminal de aquisio
de sinais, aplicar tcnicas de diviso do espao de treinamento. Cogitar
tambm a aplicao redes neurais em conjunto com metodologias
convencionais.
Captulo V: Concluses
96
Incluso, no banco de dados para treinamento, de defeitos ocorridos na
prtica. Estudar a possibilidade de reduo do conjunto de treinamento para
a rede de deteco de defeitos.
A fim de se melhorar o rendimento das redes de localizao de defeitos,
inserir na entrada das redes neurais a corrente de neutro.
Outra opo de implementao visando o desenvolvimento do mdulo de
localizao de defeitos a utilizao de 7 sadas nas redes de localizao,
fazendo com que, em vez de um valor entre 0 e 1, as sadas formem um
nmero binrio, aumentado a preciso das redes.

97
Apndice A
Tcnicas de Otimizao
Irrestrita
A.1 Consideraes Iniciais
Seja uma funo de custo (w) continuamente diferencivel de um vetor w. (w)
mapeia os elementos de w no conjunto dos nmeros reais. Deseja-se encontrar w* que
otimize (w) tal que:
*
( ) ( ) w w

(A. 1)

Como no h equaes de restrio das variveis do problema, configura-se
ento um problema de otimizao irrestrita. A condio de minimizao :
*
( ) 0 w =

(A. 2)

Onde:
1 2
( ) , ,...,
T
m
w
w w w

(
=
(



(A. 3)
Apndice A: Tcnicas de Otimizao Irrestrita
98
Onde:

Operador gradiente.
w
1
, w
2
, w
3
,... , w
m
Vetores de peso sinptico.
A idia elaborar algoritmos que gerem uma seqncia de vetores de peso a fim
de que a funo (w) seja reduzida a cada iterao (representada por n), tal que:
( ( 1)) ( ( )) w n w n + <

(A. 4)

Essa idia denominada descida iterativa. A seguir sero discutidos alguns
mtodos baseados nessa idia.
A.2 Mtodo da Descida Mais ngreme
Nesse mtodo, os ajustes ao vetor de pesos sinpticos w so em uma direo
oposta ao vetor gradiente (w), que a direo de descida mais ngreme.
Pode-se descrever o algoritmo como:
( 1) ( ) . ( ( )) w n w n w n + =

(A. 5)

Observa-se, na equao (A. 5), que o valor atual do peso sinptico igual ao
valor anterior acrescido de um termo que composto pelo negativo do gradiente da
funo de custo (w) e , que uma constante que regula o tamanho do passo,
denominada taxa de aprendizagem.
O controle da taxa de aprendizagem fundamental na velocidade de
convergncia desse mtodo, uma vez que, se for pequeno a convergncia torna-se
lenta. Contudo, se for grande, pode ocorrer um comportamento oscilatrio,
Apndice A: Tcnicas de Otimizao Irrestrita
99
dificultando a convergncia. Pode ocorrer tambm instabilidade e o algoritmo divergir,
se exceder um determinado valor crtico.
A.3 Mtodo de Newton
No Mtodo de Newton procura-se minimizar a aproximao quadrtica de (w)
em um determinado ponto w, no instante n. Para tanto, considere a equao (A. 6):
( ( 1)) ( ( )) ( ( )) w n w n w n + = +

(A. 6)

Isolando o termo com , temos:
( ( )) ( ( 1)) ( ( )) w n w n w n = +

(A. 7)

Aplicando expanso de Taylor de segunda ordem na equao(A. 7):
2
1
( ( )) ( ( )) . ( ) . ( ). ( ( )). ( )
2
T T
w n w n w n w n w n w n +

(A. 8)

A derivada segunda de (w) em relao a w chamada matriz Hessiana (H) e
definida como:
2 2 2
2
1 1 2 1
2 2 2
2
2 1 2 2
2 2 2
2
1 2
...
...
...
...
m
m
m m m
w w w w w
H w w w w w
w w w w w



(
(

(
(

(
=
(
(
(
(
(

(



(A. 9)


Apndice A: Tcnicas de Otimizao Irrestrita
100
Ento:
( ( )) ( ). ( ) 0 w n H n w n + =

(A. 10)

Isolando w(n):
1
( ) ( ). ( ( )) w n H n w n

=

(A. 11)

Finalmente, podemos descrever o algoritmo como:
1
( 1) ( ) ( ). ( ( )) w n w n H n w n

+ =

(A. 12)

Como a operao para obteno de w(n) na equao (A. 11) matricial, temos
H
-1
, que a inversa da Hessiana.

101
Apndice B
Derivadas do Algoritmo de
Retropropagao
B.1 Consideraes Iniciais
O algoritmo de treinamento de redes de mltiplas camadas, denominado
algoritmo de retropropagao, possui duas fases bsicas: a primeira, de propagao do
sinal da entrada atravs da rede, na qual no h ajuste dos pesos sinpticos. O sinal de
entrada gera uma sada da rede, que comparada com a sada esperada e o sinal de erro
gerado. Na fase de retropropagao, os pesos sinpticos so ajustados. O sinal de erro
se propaga em sentido contrrio ao da rede e as correes das conexes sinpticas so
realizadas. O procedimento matemtico para clculo dessas atualizaes ser tratado
neste apndice.
B.2 Formulao Matemtica da Retropropagao
Para o desenvolvimento matemtico que d suporte fase de retropropagao
do algoritmo de retropropagao, ser considerado que o algoritmo de retropropagao
operar em modo seqencial. Dessa maneira, ser considerado que a minimizao do
erro de casa padro levar minimizao do erro de todo o universo de treinamento.
importante ressaltar que o desenvolvimento matemtico aqui demonstrado baseia-se no
grafo orientado da Figura II.18.
Apndice B: Derivadas do Backpropagation
102
Ento, sem perda de generalidade:
2
1
1
( ) ( )
2
U
j j
j
w d y
=
=


(B.1)

Onde (w) a funo de erro e d
j
e y
j
so, respectivamente, a sada desejada e a
sada obtida pela rede.
Aplicando a regra da cadeia, calcula-se derivada da funo de erro em relao a
w:
( ) ( ) ( ) ( ) ( )
. . .
( ) ( ) ( ) ( ) ( )
k k k
kj k k k kj
e n y n v n n n
w n e n y n v n w n

=


(B.2)

Calculando a primeira derivada do lado direito da equao (B.2), tem-se:
( )
( )
( )
k
k
n
e n
e n

=


(B.3)

A partir da equao (B.1), obtm-se a segunda derivada direita na equao :
( )
1
( )
k
k
e n
y n


(B.4)

Considerando que a sada do neurnio k :
( ) ( ( ))
k k k
y n F v n =

(B.5)

Obtm-se o valor da terceira derivada do lado direito da igualdade na equao
(B.5):
Apndice B: Derivadas do Backpropagation
103
'
( )
( ( ))
( )
k
k k
k
y n
F v n
v n


(B.6)

Onde representa a derivada de F em relao a v
k
(n).
A partir do campo local induzido no neurnio k:
0
( ) ( ). ( )
m
k kj j
j
v n w n y n
=
=


(B.7)

Obtm-se a quarta derivada direita da equao (B.7):
( )
( )
( )
k
j
kj
v n
y n
w n


(B.8)

Reescrevendo a equao (B.2) a partir das equaes(B.3), (B.4), (B.6) e (B.8),
tem-se:
'
( )
( ). ( ( )). ( )
( )
k k k j
kj
n
e n F v n y n
w n

=


(B.9)

Da Regra Delta, mostrada na equao (II.22), tem-se:
( 1) ( ) ( )
kj kj kj
w n w n w n + =

(B.10)

Onde:
( )
( ) .
kj
kj
n
w n
w


(B.11)

Com a equao (B.11), podemos reescrever a equao (B.1) da seguinte forma:
Apndice B: Derivadas do Backpropagation
104
'
( ) . ( ). ( ( )). ( )
kj k k k j
w n e n F v n y n =

(B.12)

Considerando como gradiente e definindo o mesmo por:
( )
( )
( )
k
k
n
n
v n


(B.13)

Temos, pela regra da cadeia:
( ) ( )
( ) .
( ) ( )
k
k
k k
y n n
n
y n v n


=


(B.14)

A segunda derivada do lado direito da equao (B.14), j foi definida pela
equao (B.6). A primeira derivada calculada em funo da camada a qual o neurnio
pertence.
Se o neurnio estiver na ltima camada, de acordo com a equao (B.1), o valor
da derivada ser:
( )
( ) ( )
( )
k k
k
n
d n y n
y n

=


(B.15)

Como:
( ) ( ) ( )
k k k
e n d n y n =

(B.16)

Temos:
'
( ) ( ). ( ( ))
k k k k
n e n F v n =

(B.17)

Apndice B: Derivadas do Backpropagation
105
Se o neurnio estiver numa camada oculta da rede (no caso da equao (II.24), a
camada a qual pertence o neurnio j), sabido que o sinal de erro que o alimenta
gerado na camada direita da camada a qual pertence. Ento, considerando:
2
1
1
( ) ( )
2
L
m
k
k
n e n
=
=


(B.18)

Onde (n) o erro da sada da rede e m
L
o nmero de neurnios da camada de
sada da rede, a derivada desta equao em relao sada do neurnio j, temos:
1
( ) ( )
( ).
( ) ( )
L
m
k
k
k j j
e n n
e n
y n y n

=

=


(B.19)

Utilizando novamente a regra da cadeia, temos que:
( ) ( ) ( )
.
( ) ( ) ( )
k k k
j k j
e n e n v n
y n v n y n

=


(B.20)

Para a primeira derivada da equao (B.20), como o ndice k se refere camada
de sada e considerando a equao (B.16), temos:
'
( )
( ( ))
( )
k
k k
k
e n
F v n
v n


(B.21)

De posse da equao (B.7), calcula-se a segunda derivada da equao (B.20):
( )
( )
( )
k
kj
j
v n
w n
y n


(B.22)

De posse das equaes (B.21)e (B.22), temos:
Apndice B: Derivadas do Backpropagation
106
'
( )
( ( )). ( )
( )
k
k k kj
j
e n
F v n w n
y n


(B.23)

A derivada da funo de custo em relao sada do neurnio j (oculto) ento:
'
1
( )
( ). ( ( )). ( )
( )
L
m
k k k kj
k
j
n
e n F v n w n
y n



(B.24)

Manipulando a equao (B.14), referente ao neurnio oculto e a equao (B.24),
temos:
' '
1
( ) ( ). ( ( )). ( ). ( ( ))
L
m
j k k k kj j j
k
n e n F v n w n F v n
=
=


(B.25)

Da equao(B.17), temos
'
( ) ( ). ( ( ))
k k k k
n e n F v n =

(B.26)

Manipulando as equaes (B.25) e (B.26):
'
1
( ) ( ( )) ( ). ( )
L
m
j j j k kj
k
n F v n n w n
=
=


(B.27)

A equao (B.27) representa o valor do gradiente para um neurnio j,
pertencente a uma camada oculta de uma rede neural de mltiplas camadas.


107
Apndice C
Processamento de Sinais
C.1 Consideraes Iniciais
Este apndice discorre sobre o tratamento que deve ser dado aos sinais de
tenso e corrente em subestaes a fim de que somente as componentes em 60 Hz
sejam introduzidas nos mdulos de deteco, classificao e localizao de defeitos em
linhas de transmisso.
C.2 Aliasing
A Figura C.1 mostra os passos para o tratamento dos sinais.
Sinal de TC/TP
Filtro
Anti-Aliasing
Conversor
A/D
Filtro de
Fourier
Sinal em 60Hz

Figura C.1 Esquema de Processamento dos Sinais.
Na Figura C.1, os sinais provenientes de TP e TC passam por um filtro anti-
aliasing, so ento digitalizados e um filtro de Fourier externa os sinais em 60Hz para que
sejam apresentados aos mdulos do esquema proposto na tese [ 60 ].
Apndice C: Processamento de Sinais
108
De forma a esclarecer a funo do filtro anti-aliasing neste processo, alguns
conceitos so necessrios. A seguir ser feita uma sucinta explanao a respeito das
questes que envolvem a filtragem de sinais nesse tipo de aplicao. Para tanto, alguns
conceitos bsicos de processamento de sinais analgicos so necessrios [ 61 ].
Se um sinal peridico com perodo T, ele pode ser expresso por uma srie de
Fourier:
2
( ) .
j kt
T
k
k
x t a e

=
=


(C.1)

Onde a
k

/2 2
/2
1
( ).
T
jk t
T
k
T
a x t e dt
T

=


(C.2)

Para um sinal f(t) contnuo no tempo, a sua transformada de Fourier dada por:
( ) ( ).
j t
F j f t e dt


(C.3)

Onde representa a freqncia, em radianos por segundo.
A relao inversa equao (C.3) dada por:

1
( ) ( ).
2
j t
f t F j e d

(C.4)

Como a transformada de Fourier do produto de duas funes igual
convoluo de suas transformadas de Fourier, considerando x(t)=a(t).b(t), ento:
Apndice C: Processamento de Sinais
109

=
1
( ) ( ) * ( )
2
X j A j B j

(C.5)

Desenvolvendo:
1
( ) ( '). ( ') '
2
X j A j j B j d


(C.6)

Onde X(j), A(j) e B(j) so as transformadas de Fourier de x(t), a(t) e b(t),
respectivamente.
Necessita-se neste ponto da definio de impulso unitrio atrasado:
1,
( )
0,
n m
n m
n m


(C.7)

Ento, de acordo com o teorema da amostragem, dado um sinal x(n) no tempo
discreto derivado de um sinal x
a
(t) no tempo contnuo possvel definir um sinal x
i
(t) no
tempo contnuo a partir de um trem de impulsos t=nT, cada um com rea igual a
x(n)=x
a
(nT). A partir desta definio, pode-se descrever o sinal x
i
(t) como:
( ) ( ). ( )
i
n
x t x n t nT

=
=


(C.8)

Considerando-se que um sinal x(n) no tempo discreto consiste em amostras de
um sinal x
a
(t) no tempo contnuo, ou seja:
( ) ( )
a
x n x nT =

(C.9)

Pode-se ento expressar x
i
(t) como:
Apndice C: Processamento de Sinais
110
( ) ( ). ( )
i a
n
x t x nT t nT

=
=


(C.10)

Definindo p(t) como:
( ) ( )
n
p t t nT

=
=


(C.11)

Constata-se que x
i
(t) pode ser obtido pela multiplicao do sinal x
a
(t) no tempo
contnuo por um trem de impulsos p(t), como descreve e equao abaixo:
( ) ( ). ( )
i a
x t x t p t =

(C.12)

A partir das equaes (C.6) e (C.11) podemos descrever a transformada de
Fourier de x
i
(t):
1
( ) ( ) * ( )
2
i
X j Xa j P j

=

(C.13)

Observa-se pela equao (C.10) que no intervalo [-T/2, T/2] p(t) um simples
impulso (t). Pela equao (C.2) pode-se calcular os coeficientes a
k
da srie de Fourier de
p(t):
1
k
a
T
=

(C.14)

Ento, de acordo com a equao (C.1), a srie de Fourier para p(t) :
2
1
( )
j kt
T
p t e
T

=


(C.15)

Apndice C: Processamento de Sinais
111
Considerando que:
0
( )
j t
f t e

=

(C.16)

E sua transformada de Fourier :
0
( ) 2 ( ) F j =

(C.17)

Pela equao (C.14) a transformada de Fourier de p(t) ser:
2 2
( ) ( )
k
P j k
T T

=
=


(C.18)

Substituindo a equao (C.17) na equao (C.12), tem-se:
1 2
( ) ( ) * ( )
i
k
X j Xa j k
T T

=
=


(C.19)

Como a convoluo de uma funo F(j) com um impulso deslocado (-
0
)
a funo deslocada F(j-
0
), tem-se:
1 2
( ) ( )
i a
k
X j X j j k
T T

=
=


(C.20)

Observa-se pela equao (C.19) que o espectro de x
i
(t) composto de infinitas
cpias deslocadas do espectro de x
a
(t), com deslocamentos na freqncia mltiplos
inteiros da freqncia de amostragem
s
= 2/T.
A fim de se evitar que as cpias repetidas do espectro de x
a
(t) interfiram umas
nas outras, este sinal deve ter largura de faixa limitada. A Figura C.2 mostra algumas
condies de largura de faixa.
Apndice C: Processamento de Sinais
112
(a) (b)
(c) (d)

Figura C.2 Sinais no Domnio da Freqncia.
Na Figura C.2 (a) tem-se um espectro de sinal contnuo no tempo. Na Figura
C.2 (b) observa-se um sinal discretizado no tempo. Nos grficos (c) e (d) da Figura C.2
observa-se que a largura de faixa
c
deve ser limitada a fim de que a extremidade
superior do espectro centrado em zero se situe abaixo da extremidade inferior do
espectro centrado em
s
, ou seja:
2
s c
>

(C.21)

Interpretando a equao (C.20), vemos que a freqncia de amostragem tem que
ser maior que duas vezes a largura de faixa unilateral do sinal no tempo contnuo. A
equao (C.20) sintetiza o teorema de Nyquist.
A sobreposio das repeties do espectro de x
a
(t) em x
i
(t), como mostrado na
Figura C.2(c), denominada de aliasing.


113
Apndice D
Dados dos Sistemas
Equivalentes
D.1 Consideraes Iniciais
Este apndice apresenta os dados do sistema equivalente ao sistema eltrico de
potncia IEEE-14 e os dados do sistema equivalente utilizado por BRAHMA [ 26 ], que
so os equivalentes utilizados nesta dissertao.
D.2 Sistema Teste I
Abaixo seguem os parmetros do sistema equivalente utilizado:
Tabela C.1 Parmetros da Linha de Transmisso.
Comprimento da Linha 100km
R
1
0.041543/km
R
0

0.12463/km
L
1
0.18833mH/km
L
0
0.560491mH/km
C
1
9.4247779E-6F/km
C
0
15.206293E-6F/km

Apndice D: Dados dos Sistemas Equivalentes
114
Impedncias das fontes:
Tabela C.2 Impedncias das Fontes.
Z
SK1
3.124 + j49.5
Z
SK0

21.793 + j16.5i
Z
SM1

5.463774 + j94.7656
Z
SM0

38.246403 + j31.5886
Tabela C.3 Tenses Atrs das Barras.
V
SK
14562247,15
o
V
V
SM

13386850,44
o
V
D.3 Sistema Teste II
Abaixo seguem os parmetros do sistema equivalente utilizado:
Tabela C.4 Parmetros da Linha de Transmisso.
Comprimento da Linha 200 milhas
R
1
0.249168/milha
R
0

0.60241/milha
L
1
1.56277mH/milha
L
0
4.8303mH/milha
C
1
19.469E-9F/milha
C
0
12.06678E-9F/milha
Tabela C.5 Impedncias das Fontes.
Z
SK1
17.177 + j45.5285
Z
SK0

2.5904 + j14.7328i
Z
SM1

15.31 + j45.9245
Z
SM0

0.7229 + j15.1288
Tabela C.6 Tenses Atrs das Barras.
V
SK
40824820,00
o
V
V
SM

40824800,00
o
V

Apndice D: Dados dos Sistemas Equivalentes
115
Abaixo segue a Tabela C.7, que mostra as variaes percentuais aplicadas ao
sistema equivalente a fim de que fossem simuladas deferentes condies de operao do
sistema:
Tabela C.7 Condies de Operao para Simulao.
Parmetro
Condio
de Operao
R
SK
L
SK
R
SM
L
SM
|V
SK
|
SK
|V
SM
|
SM

1 --- --- --- --- -0,32 -4,05 -1,27 0,74
2 540,9 310,5 --- --- -6,93 11,59 -3,83 6,75
3 540,9 310,5 --- --- -8,4 10 -5,87 10,4
4 0,15 --- 0,40 -0,20 -0,13 5 -0,3 5
5 0,31 -0,13 0,79 -0,32 -0,27 10,1 -0,63 9,95
6 0,46 -0,19 1,19 -0,48 -0,4 15,2 -1 15


116
Referncias Bibliogrficas
[ 1 ] SILVA, Hlio A., Localizao de Falta em Linhas de Transmisso,
Desconhecendo-se os Parmetros de Seqncia Zero da Rede, Tese de
Doutorado, PUC, Rio de Janeiro, Maro, 1999.
[ 2 ] ONS OPERADOR NACIONAL DO SISTEMA ELTRICO, Contrato de
Prestao de Servio de Transmisso, Brasil, Maro de 2002.
[ 3 ] MCCULLOCH, W., PITTS, W., A Logical Calculus of the Ideas Immanent in
Nervous Activity, Bulletin of Mathematical Biophysics, 1943.
[ 4 ] HEBB, D. O., The organization of Behavior, John Wiley & Sons, New York,
1949.
[ 5 ] ROSENBLATT, R., The Perceptron: A Probabilistic Model for Information
Storage and Organization in the Brain, Psychol. Rev.65, 1958.
[ 6 ] WIDROW, B, Generalization and Information Storage in Networks of Adaline
Neurons, Self-Organizing Systems, 1962.
[ 7 ] MINSKY, M., PAPPERT, S., Perceptrons, MIT Press, Cambridge, 1969.
[ 8 ] HOPFIELD, J. J., Neural Networks and Physical Systems with Emergent
Collective Computational Abilities, Proceedings of National Academy of
Sciences, Vol.79, pp. 2554-2558, April, 1982.
[ 9 ] RUMELHART, D. E., MCCLELLAND, J. L., Parallel Distributed
Processing. MIT Press, Vol.1, 1986.
[ 10 ] WIDROW, B., LEHR, M. A., 30 Years of Adaptive Neural Networks:
Perceptron, Madaline and Backpropagation. Proceedings of the IEEE, Vol.78,
N.9, September, 1990.
[ 11 ] RAHMAN, S., Artificial Intelligence in Electric Power Systems: A Survey of
the Japanese Industry, IEEE Transactions on Power Systems, Vol.8, N.3,
August, 1993.
[ 12 ] CHEN, D., MOHLER, R. R., Neural-Network-Based Load Modeling and Its
Use in Voltage Stability Analysis, IEEE Transactions on Control Systems
Technology, Vol.11, N.11, July, 2003.
[ 13 ] LAI, L. L. et al, Real-Frequency and Harmonic Evaluation Using Artificial
Neural Networks, IEEE Transactions on Power Delivery, Vol.14, N.1,

117
January, 1999.
[ 14 ] LIM, S.-W., SHOURESHI, R. A., Neural-Based Monitoring System for Health
Assessment of Electric Transmission Lines, IEEE Proceedings of the
American Control Conference, Colorado, USA, June, 2003.
[ 15 ] AKIMOTO, Y. et al, Transient Stability Expert System, IEEE Transactions
on Power Systems, Vol.4, N.1,pp.312-320, February, 1989.
[ 16 ] ROCKEFELLER, G.D. et al, Adaptive Transmission Relaying Concepts for
Improved Performance, IEEE Transactions on Power Delivery, Vol.3, N.4,
October, 1988.
[ 17 ] HOROWITZ, S. H., PHADKE, A. G., THORP, J. S., Adaptive Transmission
System Relaying, IEEE Transactions on Power Delivery, Vol.3, N.4, October,
1988.
[ 18 ] THORP, J. S., PHADKE, A. G., Protecting Power Systems in the Post-
Restructuring Era, IEEE Computer Applications in Power, Vol. 12, Issue 1,
pp.3337, January,. 1999.
[ 19 ] PHADKE, A. G., HOROWITZ, S. H, THORP, J. S., Aspects of Power
System Protection in the Post-Restructuring Era, IEEE Proceedings of the 32
nd

International Conference on System Sciences, 1999.
[ 20 ] RADOJEVIC, Z. M.; TERZIJA, V. V.; DJURIC, M. B.; Multipurpose
Overhead Lines Protection Algorithm, IEE Proceedings on Generation,
Transmission and Distribution, Vol.146, Issue 5, pp.441-445, September, 1999.
[ 21 ] HEYDT, G. T.; LIU, C. C.; PHADKE, A. G.; VITTAL, V.; Solution for the
Crisis in Electric Power Supply, IEEE Computer Applications in Power,
Vol.14, Issue 3, pp.22-30, July 2001.
[ 22 ] PATTERSON, R., Signatures and Software Find High Impedance Faults;
IEEE Computer Applications in Power, Vol.8, Issue 3, pp.12-15, July, 1995.
[ 23 ] SOLLERO et al, Localizao de Faltas em Sistemas de Transmisso a Partir de
Sinais Oscilografados em Ambas as Extremidades da Linha, XVI SNPTEE
Seminrio Nacional de Produo e Transmisso de Energia Eltrica, Outubro de
2001.
[ 24 ] LI, H. Y. et al, A New Type of Differential Feeder Protection Relaying Using
the Global Positioning System for Data Synchronization, IEEE Transactions
on Power Delivery, Vol. 12, No.3 , July, 1997.
[ 25 ] LIN, Y-H et al, An Adaptive Fault Locator for Transmission Lines Tapped

118
with a Source of Generation Using Synchronized Voltage and Current
Phasors, IEEE Power Engineering Society Summer Meeting, Vol.3, pp.1379
1383, July, 2000.
[ 26 ] BRAHMA, S. M., GIRGIS, A. A., Fault Location on a Transmission Line
Using Synchronized Voltage Measurements, IEEE Transactions on Power
Delivery, Vol. 19, No. 4, October 2004.
[ 27 ] JIANG, J.A. et al, A new Protection Scheme for Fault Detection, Direction
Discrimination, Classification and Location in Transmission Lines, IEEE
Transactions on Power Delivery, Vol. 18, No.2 , January, 2003.
[ 28 ] IEEE POWER SYSTEM RELAYING COMMITTEE, Synchronized
Sampling and Phasor Measurement for Relaying and Control, IEEE
Transactions on Power Delivery, Vol. 9, No. 1,pp 442-452, January 1994.
[ 29 ] PHADKE, A. G., Synchronized Phasor Measurements in Power Systems,
IEEE Computer Applications in Power Journal, April, 1993.
[ 30 ] TAKAGI, T. et al, Development of a New Type Fault Locator using the One-
terminal Voltage and Current Data, IEEE Transactions on Power Apparatus
and Systems, Vol. PAS 101, N.8, August, 1982.
[ 31 ] RANJBAR, A. M., CORY, B. J., An Improved method for the Digital
Protection of High voltage transmission Line, IEEE Transactions on Power
Apparatus and Systems, Vol. PAS 94, N.2,pp.554-560, 1975.
[ 32 ] WESTLIN, S. E., BUBENKO, J. A., Newton-Raphson Technique Applied to
the Fault Location Problem, IEEE PES Summer Meeting, 1976.
[ 33 ] PHADKE, A. G., Computer Relaying: Its Impact on Improved Control and
Operation of Power Systems, IEEE Computer Applications In Power Journal,
1988.
[ 34 ] SIDHU, T. S., SINGH, H., SACHDEV, M. S., Design, Implementation and
Testing of an Artificial Neural Network Based Fault Direction Discrimination
for Protecting Transmission Lines, IEEE Transactions on Power Delivery,
Vol. 10, No. 2, April 1995.
[ 35 ] DAS, R., KUNSMAN, S. A., A Novel Approach for Ground fault Detection,
57th Annual Conference for Protective Relay Engineers, Texas A & M
University, Texas, April 2004.
[ 36 ] DALSTEIN, T., KULICKE, B., Neural Network Approach to Fault
Classification for High Speed Protective Relaying, IEEE Transactions on
Power Delivery, Vol. 10, No.2, April 1995.

119
[ 37 ] OLESKOVICZ, et al, Redes Neurais Artificiais Aplicadas Classificao
Rpida de Faltas em Sistemas Eltricos de Potncia, SBA Controle &
Automao, Vol.11, n.3, 2000.
[ 38 ] QI, W., SWIFT, G. W., MACLAREN, P. G., CASTRO, A. V., An Artificial
Neural Network to Distance Protection, Intelligent Systems Intelligent Systems
Applications to Power Systems. Proceedings, ISAP '96, International
Conference, pp.226-230, February, 1996.
[ 39 ] COURY, D. V., JORGE, D. C., Artificial Neural Network Approach to
Distance Protection of Transmission Lines IEEE Transactions on Power
Delivery, Vol. 13, No. 1, January 1998.
[ 40 ] OTHMAN, M. F., MAHFOUF, M., LINKENS, D. A., Transmission Lines
fault detection, Classification and Location Using an Intelligent Power System
Stabilizer, IEEE International Conference on Electric Utility Deregulation,
Restructuring and Power Technologies, Hong Kong, April, 2004.
[ 41 ] OLESKOVICZ, M., et al, Um Esquema Completo Para Deteco,
Classificao e Deteco de Defeitos em Linha Utilizando Redes Neurais, XVI
SNPTEE Seminrio Nacional de Produo e Transmisso de Energia Eltrica,
Outubro de 2001.
[ 42 ] RAMOS, Marco Antnio Fernandes, Sistema de Identificao e Localizao de
Faltas em Linhas de Transmisso Baseado em Redes Neurais, Tese de
Mestrado, PUC, Rio de Janeiro, Agosto, 2002.
[ 43 ] KEZUNOVIC, M., A Survey of Neural Net Applications to Protective
Relaying and Fault Analysis, Engineering Intelligent Systems, Vol. 5,
December, 1997.
[ 44 ] HAYKIN, S.,Redes Neurais: Princpios e Prtica. Editora Bookman, 2001.
[ 45 ] WIDROW, B.; RUMELHART, D.E.; LEHR, M.A., Neural Networks:
Applications in Industry, Business and Science, Communications of ACM,
Vol.37, N.3, March, 1994.
[ 46 ] REZENDE, S. O. et al, Sistemas inteligentes: Fundamentos e Aplicaes,
Editora Manole Ltda, 2003.
[ 47 ] CYBENKO, G., Approximation by Superpositions of a Sigmoid Function,
Mathematics of Control, Signals and Systems 2, pp.303-314, 1989.
[ 48 ] KOHONEN, T., Self-Organization and Associative Memory, 2
nd
Edition,
Springer, 1988.

120
[ 49 ] CARPENTER, G. A.; GROSSBERG, S., ART-2: Self-Organization of a Stable
Category Recognition Codes for Analog Input Patterns, Applied Optics,
Vol.26, N.23, p.4919-4930, 1987.
[ 50 ] MEYER, C., GANASCIA, J-G, ZUCKER, J-D., Learning Strategies in Games
by Anticipation. Proceedings of the fifteenth International Joint Conference on
Artificial Intelligence, IJCAI'97. Morgan Kaufman Editor, 1997.
[ 51 ] BRAGA, A. P., CARVALHO, A. C. P. L. F., LUDERMIR, T. B., Redes
Neurais Artificiais: Teoria e Aplicaes, Editora LTC, Rio de Janeiro, 2000.
[ 52 ] KOVACS, Z. L., Redes Neurais Artificiais: Fundamentos e Aplicaes,
Edio Acadmica, So Paulo, 1996.
[ 53 ] RIEDMILLER, M., BRAUN, H. A Direct Adaptive Method for Faster
Backpropagation Learning: The RPROP Algorithm. IEE International
Proceedings on Neural Networks, pp.586-591, San Francisco, USA, 1993.
[ 54 ] REED, R., Pruning Algorithms A Survey. IEEE Transactions on Neural
Networks, 4(5):740-746, 1993.
[ 55 ] ALTERNATIVE Transient Program. Rule Book, Leuven EMTP Center (LEC),
1987.
[ 56 ] MATLAB, The MathWorks Inc, 2000.
[ 57 ] POWER SYSTEM PROTECTION, Vol.4: Digital Protection and Signaling,
Edited by The Training Association, Institute of Electrical Engineers, 1995.
[ 58 ] ABB Relays, REL 100 Series: Users Guide, Version 2.3, 1992.
[ 59 ] STEVENSON JR, W. D., Elementos de Anlise de Sistemas de Potncia,
Editora McGraw-Hill do Brasil Ltda, 1978.
[ 60 ] PHADKE, A. G., THORP, J. S., Computer Relaying for Power Systems, Ed.
SRP Ltda, England, 1988.
[ 61 ] DINIZ, P. S. R., SILVA, E. A. B., NETTO, S. L., Processamento Digital de
Sinais, ARTMED Editora A.S., So Paulo, SP, 2002.

Вам также может понравиться