Академический Документы
Профессиональный Документы
Культура Документы
Aprovada por:
_____________________________________________
Prof. Paulo Augusto Nepomuceno Garcia, D.Sc - UFJF
_____________________________________________
Profa. Carmen Lúcia Tancredo Borges, D.Sc - UFRJ
_____________________________________________
Prof. Hélio Antônio da Silva, D.Sc - UFJF
_____________________________________________
Prof. Márcio de Pinho Vinagre, D.Sc - UFJF
ii
Aos meus pais, Maurilo e Ângela,
ao meu irmão, Murilo
e à minha noiva Marcella
com muito carinho.
iii
AGRADECIMENTOS
Ao meu pai Maurilo Marcelino de Oliveira, minha mãe Ângela Maria Rocha de
Oliveira, meu irmão Murilo, minha noiva Marcella, minha madrinha Suely e todos os
meus familiares pelos incentivos e apoio, sem o qual seria impossível a realização desse
curso de pós-graduação.
iv
Resumo da Dissertação apresentada à UFJF como parte dos requisitos necessários
para a obtenção do grau de Mestre em Ciências (M. Sc.)
Agosto / 2005
v
Testes realizados mostram um sistema eficiente para detecção, classificação e
localização de defeitos em linhas de transmissão.
vi
Abstract of Dissertation presented to UFJF as a partial fulfillment of the
requirements for a Master of Science degree (M. Sc.)
August / 2005
vii
Sumário
Capítulo I ......................................................................................................................1
I.1 Motivações da Dissertação..................................................................................1
I.2 Objetivo da Dissertação ......................................................................................2
I.3 Revisão Bibliográfica..........................................................................................2
I.4 Publicações Decorrentes da Dissertação .............................................................6
I.5 Estrutura da Dissertação......................................................................................6
Capítulo II.....................................................................................................................8
II.1 Considerações Iniciais .......................................................................................8
II.2 O Cérebro Humano ............................................................................................9
II.3 Modelagem do Neurônio Artificial..................................................................11
II.3.1 Tipos de Função de Ativação....................................................................13
II.3.2 Arquiteturas de Rede.................................................................................15
II.3.2.1 Redes Diretas de Uma Camada..........................................................15
II.3.2.2 Redes Diretas (feed-forward) de Camadas Múltiplas........................16
II.3.2.3 Redes Recorrentes (feed-backward) ..................................................17
II.3.3 Aprendizagem ...........................................................................................18
II.3.3.1 Aprendizagem com Professor ............................................................19
II.3.3.2 Aprendizagem sem Professor ............................................................20
II.3.3.2.1 Aprendizagem por Reforço.........................................................20
II.3.3.2.2 Aprendizagem Não-Supervisionada ...........................................22
II.3.4 Tarefas de Aprendizagem .........................................................................22
II.3.5 Perceptrons de Uma Camada ....................................................................24
II.3.5.1 Perceptron de Rosenblatt ...................................................................25
II.3.5.2 Adaline...............................................................................................27
II.3.6 Perceptrons de Múltiplas Camadas...........................................................31
II.3.6.1 Algoritmo de Retropropagação (Backpropagation) ..........................32
II.3.6.2 Desempenho do Algoritmo de Retropropagação...............................37
II.3.6.3 Generalização do Conhecimento .......................................................37
II.3.6.4 Algoritmo de Treinamento “Trainrp” ................................................40
II.4 Conclusões .......................................................................................................41
Capítulo III .................................................................................................................42
III. 1 Considerações Iniciais ...................................................................................42
III.2 Sistema Equivalente e Simulação de Defeitos ...............................................42
III.3 Módulo de Detecção de Defeitos....................................................................46
III.4 Módulo de Classificação de Defeitos .............................................................49
III.5 Módulo de Localização de Defeitos ...............................................................51
III.6 Esquema Completo de Proteção de Linhas de Transmissão ..........................52
III.7 Conclusões......................................................................................................53
Capítulo IV .................................................................................................................55
IV.1 Considerações Iniciais....................................................................................55
IV.2 Sistema Teste I ...............................................................................................55
IV.2.1 Geração de Dados....................................................................................56
IV.2.2 Definição da Topologia das RNA ...........................................................58
IV.2.3 Rede de Detecção: Treinamento e Desempenho.....................................59
IV.2.4 Rede de Classificação: Treinamento e Desempenho ..............................61
IV.2.5 Rede de Localização: Treinamento e Desempenho ................................63
viii
IV.2.5.1 Defeitos FASE-TERRA .......................................................................64
IV.2.5.2 Defeitos FASE-FASE ..........................................................................67
IV.2.5.3 Defeitos FASE-FASE-TERRA ............................................................71
IV.2.5.4 Defeitos FASE-FASE-FASE ...............................................................73
IV.2.6 Esquema Completo de Detecção, Classificação e Localização de
Defeitos: Teste de Desempenho. ........................................................................76
IV.3 Sistema Teste II ..............................................................................................79
IV.3.1 Rede de Detecção: Treinamento e Desempenho.....................................79
IV.3.2 Rede de Classificação: Treinamento e Desempenho ..............................81
IV.3.3 Rede de Localização: Treinamento e Desempenho ................................83
IV.3.3.1 Defeitos FASE-TERRA ...................................................................83
IV.3.3.2 Defeitos FASE-FASE ......................................................................85
IV.3.3.3 Defeitos FASE-FASE-TERRA ........................................................87
IV.3.3.4 Defeitos FASE-FASE-FASE ...........................................................89
IV. 4 Conclusões ....................................................................................................91
Capítulo V ..................................................................................................................93
V.1 Conclusões.......................................................................................................93
V.2 Propostas de Desenvolvimentos Futuros .........................................................95
Apêndice A .................................................................................................................97
A.1 Considerações Iniciais .....................................................................................97
A.2 Método da Descida Mais Íngreme...................................................................98
A.3 Método de Newton ..........................................................................................99
Apêndice B ...............................................................................................................101
B.1 Considerações Iniciais ...................................................................................101
B.2 Formulação Matemática da Retropropagação ...............................................101
Apêndice C ...............................................................................................................107
C.1 Considerações Iniciais ...................................................................................107
C.2 Aliasing ..........................................................................................................107
Apêndice D ...............................................................................................................113
D.1 Considerações Iniciais ...................................................................................113
D.2 Sistema Teste I..............................................................................................113
D.3 Sistema Teste II ............................................................................................114
Referências Bibliográficas........................................................................................116
ix
Lista de Figuras
Figura II.1 - Neurônio Humano..................................................................................10
Figura II.2 - Modelo do Neurônio Artificial...............................................................11
Figura II.3 - Função Linear.........................................................................................13
Figura II.4 - Função Limiar. .......................................................................................13
Figura II.5 - Função Rampa........................................................................................14
Figura II.6 - Função Sigmóide....................................................................................14
Figura II.7 - Rede Direta de 1 Camada.......................................................................16
Figura II.8 - Rede Direta de Múltiplas Camadas........................................................17
Figura II.9 - Rede Recorrente. ....................................................................................17
Figura II.10 - Aprendizagem Supervisionada.............................................................19
Figura II.11 - Aprendizagem por Reforço. .................................................................21
Figura II.12 - Aprendizagem Não-Supervisionada.....................................................22
Figura II.13 - Aproximação de Funções.....................................................................24
Figura II.14 - Controle de Processos. .........................................................................24
Figura II.15 - Perceptron com 1 Neurônio. ................................................................26
Figura II.16 - Adaline. ................................................................................................28
Figura II.17 - Rede com 2 Camadas Ocultas..............................................................32
Figura III.1 - Sistema Equivalente..............................................................................43
Figura III.2 - Módulo de Detecção de Defeitos..........................................................47
Figura III.3 - Rede Neural 12-X-1 para Detecção de Defeitos...................................48
Figura III.4 - Módulo de Classificação de Defeitos. ..................................................49
Figura III.5 - Rede Neural 12-X-4 para Classificação de Defeitos. ...........................50
Figura III.6 - Módulo de Localização de Defeitos. ....................................................51
Figura III.7 - Rede Neural 12-X-X-1 para Localização de Defeitos. .........................52
Figura IV.1 - Sistema IEEE-14. .................................................................................56
Figura IV.2 - Desempenho da Rede de Detecção X Neurônios na Camada Oculta
para os Subconjuntos de Treinamento e Validação....................................................60
Figura IV.3 - Convergência da Rede com 10 Neurônios na Camada Oculta.............60
Figura IV.4 - Desempenho da Rede de Classificação X Neurônios na Camada Oculta
para os Subconjuntos de Treinamento e Validação....................................................62
Figura IV.5 - Convergência da Rede com 15 Neurônios na Camada Oculta.............62
Figura IV.6 - Desempenho da Rede de Localização AT X Neurônios nas Camadas
Ocultas para os Subconjuntos de Treinamento e Validação.......................................65
Figura IV.7 - Convergência da Rede com 23 Neurônios nas Camadas Ocultas. .......65
Figura IV.8 - Curva de Probabilidade Acumulada para Rede de Localização de
Defeitos AT. ...............................................................................................................66
Figura IV.9 - Curva de Probabilidade Acumulada para o Conjunto de Dados Extra
em Relação ao Ponto de Ocorrência do Defeito.........................................................67
Figura IV.10 - Desempenho da Rede de Localização AB X Neurônios nas Camadas
Ocultas para os Subconjuntos de Treinamento e Validação.......................................68
Figura IV.11 - Convergência da Rede com 30 Neurônios nas Camadas Ocultas. .....69
Figura IV.12 - Curva de Probabilidade Acumulada para Rede de Localização de
Defeitos AB. ...............................................................................................................69
Figura IV.13 - Curva de Probabilidade Acumulada para o Conjunto de Dados Extra
em Relação ao Ponto de Ocorrência do Defeito.........................................................70
x
Figura IV.14 - Desempenho da Rede de Localização ABT X Neurônios nas Camadas
Ocultas para os Subconjuntos de Treinamento e Validação.......................................71
Figura IV.15 - Convergência da Rede com 14 Neurônios nas Camadas Ocultas. .....72
Figura IV.17 - Curva de Probabilidade Acumulada para o Conjunto de Dados Extra
em Relação ao Ponto de Ocorrência do Defeito.........................................................73
Figura IV.18 - Desempenho da Rede de Localização ABC X Neurônios nas Camadas
Ocultas para os Subconjuntos de Treinamento e Validação.......................................74
Figura IV.19 - Convergência da Rede com 34 Neurônios nas Camadas Ocultas. .....74
Figura IV.20 - Curva de Probabilidade Acumulada para Rede de Localização de
Defeitos ABC. ............................................................................................................75
Figura IV.21 - Curva de Probabilidade Acumulada para o Conjunto de Dados Extra
em Relação ao Ponto mais Distante de Ocorrência do Defeito..................................76
Figura IV.22 - Simulação de Operação do Esquema Completo para Detecção,
Classificação e Localização de Defeitos em Linhas de Transmissão.........................77
Figura IV.23 - Desempenho da Rede de Detecção X Neurônios na Camada Oculta
para o Subconjunto de Treinamento e Validação.......................................................80
Figura IV.24 – Convergência da Rede com 11 Neurônios na Camada Oculta. .........80
Figura IV.25 - Desempenho da Rede de Classificação X Neurônios na Camada
Oculta para o Subconjunto de Treinamento e Validação. ..........................................82
Figura IV.26 - Convergência da Rede com 21 Neurônios na Camada Oculta...........82
Figura IV.27 - Desempenho da Rede de Localização AT X Neurônios nas Camadas
Ocultas para o Subconjunto de Treinamento e Validação..........................................84
Figura IV.28 - Convergência da Rede com 14 Neurônios nas Camadas Ocultas. .....84
Figura IV.29 - Curva de Probabilidade Acumulada para Rede de Localização de
Defeitos AT. ...............................................................................................................85
Figura IV.30 - Desempenho da Rede de Localização AB X Neurônios nas Camadas
Ocultas para o Subconjunto de Treinamento e Validação..........................................86
Figura IV.31 - Convergência da Rede com 15 Neurônios nas Camadas Ocultas. .....86
Figura IV.32 - Curva de Probabilidade Acumulada para Rede de Localização de
Defeitos AB. ...............................................................................................................87
Figura IV.33 - Desempenho da Rede de Localização ABT X Neurônios nas Camadas
Ocultas para o Subconjunto de Treinamento e Validação..........................................88
Figura IV.34 - Convergência da Rede com 19 Neurônios nas Camadas Ocultas. .....88
Figura IV.35 - Curva de Probabilidade Acumulada para Rede de Localização de
Defeitos ABT..............................................................................................................89
Figura IV.36 - Desempenho da Rede de Localização ABC X Neurônios nas Camadas
Ocultas para o Subconjunto de Treinamento e Validação..........................................90
Figura IV.37 - Convergência da Rede com 23 Neurônios nas Camadas Ocultas. .....90
Figura IV.38 - Curva de Probabilidade Acumulada para Rede de Localização de
Defeitos ABC. ............................................................................................................91
Figura C.1 – Esquema de Processamento dos Sinais. ..............................................107
Figura C.2 – Sinais no Domínio da Freqüência. ......................................................112
xi
Lista de Tabelas
Tabela III.1 - Tabela-verdade da saída da rede de classificação. ...............................50
Tabela IV.1 – Percentual de Acertos da Rede de Detecção. ......................................61
Tabela IV.2 - Percentual de Acertos da Rede de Classificação..................................63
Tabela IV. 3 – Percentual de Acertos da Rede de Detecção. .....................................81
Tabela IV.4 - Percentual de Acertos da Rede de Classificação..................................83
Tabela C.1 – Parâmetros da Linha de Transmissão..................................................113
Tabela C.2 – Impedâncias das Fontes. .....................................................................114
Tabela C.3 – Tensões Atrás das Barras. ...................................................................114
Tabela C.4 – Parâmetros da Linha de Transmissão..................................................114
Tabela C.5 – Impedâncias das Fontes. .....................................................................114
Tabela C.6 – Tensões Atrás das Barras. ...................................................................114
Tabela C.7 – Condições de Operação para Simulação.............................................115
xii
Capítulo I: Introdução
Capítulo I
Introdução
1
Capítulo I: Introdução
2
Capítulo I: Introdução
3
Capítulo I: Introdução
4
Capítulo I: Introdução
Sendo assim, diversos trabalhos que utilizam RNA têm sido apresentados como
alternativa para proteção de linhas de transmissão. Referente às aplicações de redes
neurais na detecção de defeitos em sistemas de potência, pode-se citar [ 34 ] e [ 35 ]. Em
[ 34 ] é descrito um discriminador de direção de defeito que utiliza uma rede neural
multicamadas diretamente alimentada para analisar os valores instantâneos de tensão e
corrente da linha de transmissão e assim tomar decisões. Em [ 35 ] é encontrada uma
abordagem para detecção de defeitos de alta impedância a partir de medições de
corrente em um terminal, a partir da tecnologia de processamento de sinais utilizada em
dispositivos comerciais, utilizando-se algoritmos baseados em redes neurais, estatística
de ordem superior e transformada wavelet.
5
Capítulo I: Introdução
6
Capítulo I: Introdução
7
Capítulo II
Um cérebro é uma máquina que tem uma grande habilidade de desenvolver suas
próprias regras. Uma rede neural artificial, por conseguinte, deve ter a capacidade de
modelar a maneira como o cérebro realiza uma tarefa. O principal atrativo para o uso de
RNA na solução de problemas é a capacidade de aprender através de exemplos e de
generalizar o conhecimento aprendido.
8
Capítulo II: Redes Neurais Artificiais
• Adaptabilidade;
• Generalização;
• Tolerância a falhas;
• Informação contextual;
Assim, cada vez mais as redes neurais vêm sendo empregadas nos mais diversos
campos do conhecimento.
9
Capítulo II: Redes Neurais Artificiais
Células piramidais, como a da Figura II.1, são um dos tipos mais comuns de
neurônio do córtex, os quais recebem a maioria de seus estímulos por meio de espinhas
dendritais. Essas células são capazes de receber dez mil ou mais conexões sinápticas e
podem se projetar sobre milhares de células-alvo [ 44 ].
Os dendritos, como mostrados na Figura II.1 formam uma região onde os sinais
de entrada são recebidos. O corpo do neurônio, também chamado de somma, é
responsável por coletar e combinar informações vindas de outros neurônios. Os axônios
são as vias através das quais o sinal é transportado até a outra extremidade do neurônio.
Estes podem ser vistos como linhas de transmissão, pois são longos, finos e possuem
alta resistência elétrica e capacitância, distribuídos uniformemente ao longo de sua
extensão [ 44 ].
10
Capítulo II: Redes Neurais Artificiais
É importante ressaltar que os neurônios que formam redes neurais artificiais são
primitivos em comparação com aqueles encontrados no cérebro.
Bias
bk
Entrada
x1
Wk1
x2
Wk2 vk Saída
F(vk) yk
11
Capítulo II: Redes Neurais Artificiais
que por sua vez é multiplicado pelo peso sináptico wkm. No caso de
modelagem de neurônios artificiais, os valores dos pesos podem ser
também negativos se as sinapses forem inibitórias, ou positivos, se as
sinapses forem excitatórias. Os pesos sinápticos têm a função de
determinar a importância dos sinais de determinada região.
yk = F ( vk + bk ) (II.1)
Onde:
m
vk = ∑ wkj .x j (II.2)
j =1
Onde:
bk Bias.
12
Capítulo II: Redes Neurais Artificiais
F( ) Função de ativação.
yk Saída do neurônio k.
F (vk ) = vk (II.3)
13
Capítulo II: Redes Neurais Artificiais
E é definida como:
0, vk < 0
F (vk ) = (II.4)
1, vk ≥ 0
F(vk)
-s +s vk
Nada mais é do que a função linear em uma faixa [-s,+s] e saturada fora desta
faixa, como descreve a equação (II.5):
0, vk ≤ − s
m
F (vk ) = ∑ wkj x j + bk , − s < vk < + s (II.5)
j =1
1, vk ≥ + s
F(vk)
1
0 vk
14
Capítulo II: Redes Neurais Artificiais
1
F (vk ) = (II.6)
1 + e( − vk / T )
Definir a arquitetura de uma RNA é muito importante devido ao fato de que seu
arranjo depende do problema a ser tratado pela rede. Ademais, a arquitetura da rede está
intimamente relacionada ao algoritmo de aprendizagem usado para treinamento. Na
escolha da estrutura a ser utilizada são analisados: número de camadas, número de nós,
tipo de conexões entre os nós e a topologia da rede.
15
Capítulo II: Redes Neurais Artificiais
São redes que, assim como as redes de uma camada, possuem fluxo de
informação unidirecional, porém, neste caso, há presença de camadas ocultas, cujos nós
computacionais são chamados de neurônios ocultos. Devido ao conjunto extra de
conexões sinápticas e da riqueza de interações neurais, as camadas ocultas são capazes
de extrair características complexas do ambiente em que atuam [ 44 ].
Nas redes de múltiplas camadas, como a mostrada na Figura II.8, cada camada
tem uma função específica. A camada de saída final recebe os estímulos da camada
intermediária e constrói a resposta global para o padrão de ativação fornecido pelos nós
de fonte da camada de entrada. As camadas intermediárias funcionam como extratoras
de características, codificando através de seus pesos as características apresentadas nos
padrões de entrada, fazendo com que a rede crie uma representação própria do
problema, com mais riqueza e complexidade [ 46 ].
16
Capítulo II: Redes Neurais Artificiais
Redes recorrentes são redes que possuem pelo menos um laço de realimentação,
como está ilustrado na Figura II.9. A presença de laços de realimentação tem um
impacto profundo na capacidade de aprendizagem da rede e no seu desempenho devido
ao seu comportamento dinâmico. Além disso, os laços de realimentação envolvem o uso
de ramos particulares compostos de elementos de atraso unitário, o que resulta em um
comportamento dinâmico não-linear, quando se admite que a rede neural tenha
unidades não-lineares.
17
Capítulo II: Redes Neurais Artificiais
II.3.3 Aprendizagem
18
Capítulo II: Redes Neurais Artificiais
Como pode ser observado na Figura II.10, a rede utiliza como orientação para o
ajuste dos pesos sinápticos um sinal de erro gerado pela discrepância entre a saída
esperada (fornecida pelo “professor”) e a saída obtida (calculada). A cada par entrada-
saída esperada apresentada à rede, um sinal de erro é gerado e os pesos sinápticos são
ajustados de forma a minimizar o erro de saída da rede. Um dos parâmetros
normalmente utilizados para aferição do desempenho de uma RNA é a soma dos erros
quadráticos das saídas da rede para todo universo de amostras [ 45 ]. O erro quadrático é
também utilizado como função objetivo a ser minimizada pelo algoritmo de
treinamento. O algoritmo mais utilizado para treinamento com professor é o algoritmo
de retropropagação [ 9 ], também chamado Backpropagation, que será detalhado na seção
II.3.6.1.
19
Capítulo II: Redes Neurais Artificiais
No diagrama da Figura II.11, pode ser observado que o sinal de reforço que a
rede recebe é gerado por um “crítico”, que recebe um sinal do ambiente através de um
processo de decisão que pode ser por exemplo o processo Markoviano [ 44 ]. Se a ação
acarretar uma degradação no desempenho da rede, o reforço será negativo, fazendo com
20
Capítulo II: Redes Neurais Artificiais
que a ação ocorra com menos chance em situações futuras. Se, por outro lado, a ação
resultar em uma melhoria de desempenho da rede, ocorrerá um reforço positivo, com
maior probabilidade de ocorrência dessa ação no futuro. O objetivo da aprendizagem é
a maximização do reforço e conseqüentemente a melhoria do desempenho [ 45 ]. Em
termos de programação neurodinâmica, podemos dizer que as boas decisões da rede são
tomadas com base em seu próprio comportamento e o reforço auxilia na melhoria de
suas ações.
21
Capítulo II: Redes Neurais Artificiais
• Associação de Padrões
22
Capítulo II: Redes Neurais Artificiais
armazenamento desse conjunto. Após essa fase, são apresentados à rede os mesmos
padrões, porém com características distorcidas. Nesta fase a rede deve recordar-se dos
padrões apresentados e, através de associação, apresentar resposta correta ao estímulo.
Observa-se nesse caso o uso de aprendizagem não-supervisionada. Já para a
heteroassociação, como existe um conjunto de pares entrada-saída esperados, utiliza-se
aprendizagem supervisionada.
• Reconhecimento de Padrões
• Aproximação de Funções
Nesta tarefa, o objetivo é treinar uma rede neural que seja capaz, a partir de um
conjunto de pares entradas-saídas, de mapear uma determinada relação funcional que
contemple o universo de amostras sob análise.
23
Capítulo II: Redes Neurais Artificiais
• Controle
24
Capítulo II: Redes Neurais Artificiais
está no fato de que um perceptron com somente uma unidade neuronal é capaz de
classificar padrões com duas classes. Quando se acrescentam unidades neuronais ao
perceptron, ele se torna capaz de classificar padrões com mais de duas classes, desde que
as mesmas sejam linearmente separáveis, ou seja, hiperplanos delimitarão os limites
entre as classes.
25
Capítulo II: Redes Neurais Artificiais
26
Capítulo II: Redes Neurais Artificiais
m +1
y (n) = F (∑ wi (n) xi (n)) (II.8)
i =1
e( n ) = d ( n ) − y ( n ) (II.9)
II.3.5.2 Adaline
27
Capítulo II: Redes Neurais Artificiais
e( n ) = d ( n ) − v ( n ) (II.13)
28
Capítulo II: Redes Neurais Artificiais
1
ξ ( w) = e2 (n) (II.14)
2
∂ξ ( w) ∂e(n)
= e( n ) (II.15)
∂w ∂w
∂e(n)
= − x ( n) (II.17)
∂w(n)
∂ξ (n)
= − x(n).e(n) (II.18)
∂w(n)
29
Capítulo II: Redes Neurais Artificiais
∂ξ (n)
w(n + 1) = w(n) + η . (II.20)
∂w
∂ξ (n)
∆w(n) = −η . (II.21)
∂w
30
Capítulo II: Redes Neurais Artificiais
Redes de múltiplas camadas são aquelas que apresentam pelo menos uma
camada intermediária e sua característica mais atrativa é a capacidade de tratar dados que
não são linearmente separáveis. As suas regras de treinamento são uma generalização da
Regra Delta, empregada para o treinamento do modelo Adaline.
31
Capítulo II: Redes Neurais Artificiais
Camada 1 de Camada 2 de
Camada de Neurônios Neurônios
Nós de Fonte Ocultos Ocultos
Camada
de Saída
Saída
Neurônio j Neurônio k
+1 +1
dk(n)
wj0(n) wk0(n)
32
Capítulo II: Redes Neurais Artificiais
• Passo i
• Passo ii
Ψ = {( xld , yld )}
L
l =1
(II.23)
33
Capítulo II: Redes Neurais Artificiais
• Passo iii
m
v j (n) = ∑ w ji (n). yi (n) + b j (n) (II.24)
i =0
Onde m representa o número de entradas aplicadas ao neurônio j e
wj0(n)=bj(n).
m
vk (n) = ∑ wkj (n). y j (n) + bk (n) (II.26)
i =0
34
Capítulo II: Redes Neurais Artificiais
ml
v (n) = ∑ w(jil ) (n). yil −1 (n)
(l )
j (II.28)
i =0
w(jil ) (n)
Onde ml representa o tamanho da camada l, é o peso sináptico do
neurônio j na camada l, que por sua vez é alimentado pelo neurônio i da camada l-
( l −1)
1(camada anterior) e yi (n) representa a saída do neurônio i na camada l-1, na
iteração n. Essa formulação também contempla o bias, uma vez que o mesmo contribui
no campo induzido quando i=0.
j ( n) = x j ( n)
y (0) 1
(II.30)
Onde o índice 0 indica que a saída pertence aos nós de fonte e o índice 1 indica
que o termo do lado direito da igualdade é entrada da primeira camada oculta.
y (j L ) (n) = y out
j (n) (II.31)
35
Capítulo II: Redes Neurais Artificiais
y out
j (n)
Onde o termo indica o j-ésimo elemento do vetor de saída da rede yout,
no instante n e L é a última camada da rede.
• Passo iv
36
Capítulo II: Redes Neurais Artificiais
Primeiramente, pode-se discorrer sobre a função de ativação. Esta é uma das partes
mais importantes, quando se trata de redes com múltiplas camadas. Isso se deve ao fato
de a escolha de uma função de ativação contemplar sempre uma função que seja não-
linear e diferenciável, a fim de que ela possa solucionar problemas não linearmente
separáveis e que o gradiente possa ser calculado, direcionando o ajuste de pesos.
Ademais, podemos dizer que a escolha de uma função de ativação anti-simétrica
(F(-v)=-F(v)) faz com que a rede seja treinada mais rapidamente [ 44 ].
É desejável que uma rede neural, após sofrer treinamento, seja capaz de produzir
respostas corretas a estímulos externos, mesmo que estes não sejam exatamente iguais
aos estímulos utilizados no seu treinamento. Esta capacidade de generalização está
relacionada aos seguintes fatores: o tamanho e a representatividade do conjunto de
37
Capítulo II: Redes Neurais Artificiais
W
N= (II.35)
∈
Onde:
38
Capítulo II: Redes Neurais Artificiais
Essa equação sugere que N seja 1/∈ vezes maior que é o número de parâmetros
livres da rede neural. Para um erro desejado de 10%, o número de amostras de
treinamento deve ser 10 vezes maior que W.
39
Capítulo II: Redes Neurais Artificiais
+ ∂E (t − 1) ∂E (t )
η ∆ ji (t − 1), se . >0 (0 < η − < 1)
∂w ji ∂w ji
∂E (t − 1) ∂E (t )
∆ ji (t ) = η − ∆ ji (t − 1), se . <0 (η + > 1) (II.36)
∂w ji ∂w ji
∂E (t − 1) ∂E (t )
∆ ji (t − 1), se . =0
∂w ji ∂w ji
40
Capítulo II: Redes Neurais Artificiais
II.4 Conclusões
Neste capítulo foram apresentados os conceitos básicos de redes neurais
artificiais, bem como a modelagem e treinamento. Inicialmente foi feita uma breve
abordagem das características das células neuronais humanas e em seguida introduziu-se
o modelo de neurônio artificial, que procura simular seu funcionamento. Em seguida
foram mostradas as arquiteturas de redes neurais existentes, com ênfase nas redes
diretamente alimentadas, que são as redes utilizadas nesta tese. Dando suporte aos
conceitos utilizados no desenvolvimento deste trabalho, foi apresentado de forma
detalhada o algoritmo de treinamento de redes diretamente alimentadas, conhecido
como algoritmo de retropropagação, com uma análise de fatores que determinam seu
desempenho. Também foi apresentada a função de treinamento trainrp, utilizada em
todas as redes deste trabalho.
41
Capítulo III
42
Capítulo III: Aplicação de Redes Neurais para Proteção de Linhas de Transmissão
para treinamento das redes envolvidas no processo. No presente trabalho, optou-se pela
montagem deste banco de dados a partir de simulações realizadas no ATP[ 55 ]. Para
tanto, é necessária a utilização de um sistema equivalente conforme ilustrado pela Figura
III.1.
K M
Z Kabc L1 L2 Z Mabc
SK SM
I Fabc
Z Fabc
Onde:
43
Capítulo III: Aplicação de Redes Neurais para Proteção de Linhas de Transmissão
V = V sen(ωt + α ) (III.1)
di
V sen(ωt + α ) = Ri + L (III.3)
dt
V −
Rt
i= . sen(ωt + α − θ ) − e L .sen(α − θ ) (III.4)
Z
Onde:
Z = R 2 + (ω L )2 (III.5)
44
Capítulo III: Aplicação de Redes Neurais para Proteção de Linhas de Transmissão
45
Capítulo III: Aplicação de Redes Neurais para Proteção de Linhas de Transmissão
46
Capítulo III: Aplicação de Redes Neurais para Proteção de Linhas de Transmissão
cont=cont+1 cont=0
Rede de
Detecção
Não
Defeito Sim 1 -1
cont==10? Saída
Detectado
47
Capítulo III: Aplicação de Redes Neurais para Proteção de Linhas de Transmissão
Camada de Entrada
|Va|
θ Va Camada Oculta
|Vb|
θ Vb
|Vc| Camada
de Saída
θ Vc
Falta ?
|Ia|
θ Ia
|Ib|
θ Ib
|Ic|
θ Ic
Figura III.3 - Rede Neural 12-X-1 para Detecção de Defeitos.
No que concerne à arquitetura da rede neural para detecção, foi escolhida uma
rede do tipo diretamente alimentada (feed-forward), por se tratar de um tipo de rede
com excelente desempenho no reconhecimento de padrões. Quanto ao tratamento das
entradas da rede, os módulos das tensões e correntes trifásicas assim como os
respectivos ângulos foram normalizados no intervalo [-1,1].
48
Capítulo III: Aplicação de Redes Neurais para Proteção de Linhas de Transmissão
Tensões e Correntes
Trifásicas de Defeito
Defeito
Detectado
Módulo de
Classificação
Pela Figura III.4, observa-se que esse módulo somente é ativado na ocorrência
de defeitos e tem a função de identificar as fases envolvidas no defeitos, bem como o
envolvimento de Terra. Os sinais que são apresentados à rede nesse módulo também
passam por um filtro anti-aliasing na freqüência de 480Hz, com subseqüente filtragem
dos sinais em 60 Hz através de um filtro de Fourier recursivo. A informação de sua
saída determina qual a rede será ativada para a localização do defeito, como será visto
mais adiante.
49
Capítulo III: Aplicação de Redes Neurais para Proteção de Linhas de Transmissão
Camada de Entrada
|Va|
θ Va Camada Oculta
Camada
|Vb|
de Saída
θ Vb A
|Vc|
B
θ Vc
|Ia|
C
θ Ia
|Ib| T
θ Ib
|Ic|
θ Ic
50
Capítulo III: Aplicação de Redes Neurais para Proteção de Linhas de Transmissão
Tensões e Correntes
Trifásicas de Defeito
Fases Envolvidas
Módulo de no Defeito
Localização
Local do Defeito
A arquitetura básica de cada uma dessas redes é ilustrada pela Figura III.7.
51
Capítulo III: Aplicação de Redes Neurais para Proteção de Linhas de Transmissão
Camada de Entrada
|Va|
θ Va Camada Camada
Oculta 1 Oculta 2
|Vb|
θ Vb
|Vc| Camada
de Saída
θ Vc Local da Falta
|Ia|
θ Ia
|Ib|
θ Ib
|Ic|
θ Ic
Figura III.7 - Rede Neural 12-X-X-1 para Localização de Defeitos.
Como pode ser observado na Figura III.7, cada rede neural possui 12 entradas e
2 camadas ocultas que justificam-se pelo fato de que, nesse caso, necessita-se de mais
precisão na saída e não simplesmente uma saída em dois níveis. A saída da rede é
sempre um valor entre “0” e “1”, sendo “0” para defeitos no terminal onde se está
colhendo os sinais e “1” para defeitos localizados no outro terminal da linha de
transmissão. Com relação ao número de neurônios nas camadas ocultas, para cada rede
foram realizados testes para se determinar a melhor configuração.
52
Capítulo III: Aplicação de Redes Neurais para Proteção de Linhas de Transmissão
cont=cont+1 cont=0
Rede de
Tensões e Correntes Detecção
Trifásicas de Defeito
Não
Tensões e Correntes
Trifásicas de Defeito Módulo de Defeito Sim 1 -1
cont==10? Saída
Classificação Detectado
Módulo de
Fases Envolvidas
Localização
Local do Defeito
III.7 Conclusões
Neste capítulo, foram apresentados os módulos que compõem o esquema
completo de detecção, classificação e localização de defeitos em linhas de transmissão,
bem como a estrutura de geração de dados para treinamento dessas redes. O modelo do
sistema equivalente a ser simulado é então inserido num programa desenvolvido em
C++ para que diversas situações de curto-circuito sejam geradas com o software ATP.
53
Capítulo III: Aplicação de Redes Neurais para Proteção de Linhas de Transmissão
Também foi descrita a estrutura básica das redes neurais que compõem o sistema de
detecção, classificação e localização de defeitos em linhas de transmissão. Características
como o número de neurônios nas camadas ocultas para cada rede serão definidos no
decorrer do Capítulo IV.
54
Capítulo IV
Estudo de Casos
55
Capítulo IV: Estudo de Casos
56
Capítulo IV: Estudo de Casos
• Tipos de defeito: AT, BT, CT, AB, BC, AC, ABT, BCT, ACT, ABC ;
• Impedâncias de defeito: 0, 5, 10, 15, 20, 25, 30, 35, 40, 45, 50, 55, 60, 65,
70, 75, 80, 85, 90, 95 e 100Ω;
• Locais de aplicação de defeito: 0, 5, 10, 15, 20, 25, 30, 35, 40, 45, 50, 55,
60, 65, 70, 75, 80, 85, 90, 95 e 100% ;
• Tipo de defeito: AT, BT, CT, AB, BC, AC, ABT, BCT, ACT, ABC;
• Localização do defeito: 3, 11, 19, 26, 52, 65, 83, 91, 99%;
É importante ressaltar que o banco de dados gerados para cada tipo de rede foi
dividido em subconjunto de treinamento (50%), subconjunto de validação (25%) e
subconjunto de testes (25%).
57
Capítulo IV: Estudo de Casos
2
N Dj − S j
MSE = ∑ (IV. 1)
j =1 N
Onde:
2
N Dj − S j
RMSE = ∑ j =1 N
(IV. 2)
58
Capítulo IV: Estudo de Casos
A convergência poderia ser alcançada quando o MSE for menor que 0.001, por
parada antecipada via validação cruzada ou pelo limite máximo de 20000 épocas.
59
Capítulo IV: Estudo de Casos
0.95
Validaçao
0.9
Treinamento
0.85
0.8
RMSE
0.75
0.7
0.65
0.6
0.55
7 8 9 10 11
Neuronios na Camada Oculta
Como pode ser observado na Figura IV.2, a rede que apresentou o menor
RMSE, considerando o valor médio de cinco treinamentos para cada rede, foi a rede
com 10 neurônios na camada oculta.
1.6
1.4 Treinamento
Validaçao
1.2 Teste
1
MSE
0.8
0.6
0.4
0.2
0 5 10 15 20 25 30 35 40 45 50
Época
60
Capítulo IV: Estudo de Casos
Fato relevante a ser considerado é que todas as redes testadas convergiram por
parada antecipada e no máximo em 60 épocas, o que mostra que, apesar do conjunto de
amostras ser grande, não houve dificuldades no treinamento. Pode ser observado
também que o erro do subconjunto de teste comportou-se de forma semelhante ao erro
do subconjunto de validação, indicando uma distribuição de dados satisfatória e também
pode ser observado que não houve overfitting relevante. O percentual de sucesso na
detecção do defeito é mostrado pela Tabela IV.1.
Pode ser observado que a rede detectou 100% dos defeitos contidos nos
subconjuntos de validação e teste e no conjunto de dados extra. Nas simulações
realizadas, atraso máximo para detecção do defeito foi de 3ms.
O gráfico da Figura IV.4 foi gerado a fim de que fosse escolhida a rede de
melhor desempenho. O critério adotado foi o mesmo utilizado para a rede de detecção
de defeitos, ou seja, foi escolhida a configuração de rede que obteve o menor RMSE
após 5 treinamento, considerando-se o subconjunto de validação.
61
Capítulo IV: Estudo de Casos
0.13
0.12
Treinamento
Validação
0.11
RMSE 0.1
0.09
0.08
0.07
0.06
12 13 14 15 16 17 18 19 20 21 22 23 24
Neurônios na Camada Oculta
1.5
Treinamento
Validaçao
Teste
1
MSE
0.5
0
0 50 100 150 200 250 300 350 400 450 500
Época
62
Capítulo IV: Estudo de Casos
Deve ser ressaltado que todas as redes testadas convergiram por parada
antecipada e no máximo em 600 épocas. Pode ser observado que os subconjuntos
considerados percorreram semelhantes trajetórias de convergência, indicando uma
divisão satisfatória das amostras, sem overfitting significativo.
Pode ser observado que a rede obteve rendimentos acima de 99%, até mesmo
para conjunto de dados extra, o que mostra grande capacidade de generalização.
Devido ao fato do universo de amostras ser bem menor que no caso da rede de
detecção, também, neste caso, foi possível realizar os testes para a escolha da melhor
rede com uma maior variação de neurônios na camada oculta. Optou-se então por variar
63
Capítulo IV: Estudo de Casos
os neurônios nas camadas ocultas de 36, que corresponde a três vezes o número de
entradas, até 12, que corresponde ao número de entradas da rede.
|D−S |
Erro % = x100% (IV. 3)
L
Onde:
Para análise dessa rede foram utilizadas 1544 amostras para treinamento, 772
para validação e 771 para teste. A partir desses subconjuntos de dados o gráfico da
Figura IV.6 foi gerado a fim de que fosse escolhida a rede de melhor desempenho,
mantendo-se o critério de menor RMSE em 5 treinamentos consecutivos, considerando-
se o subconjunto de validação.
64
Capítulo IV: Estudo de Casos
0.5
Validaçao
0.45 Treinamento
0.4
0.35
RMSE
0.3
0.25
0.2
0.15
0.1
12 16 20 24 28 32 36
Neuronios nas Camadas Ocultas
Como pode ser observado na Figura IV.6, o número de neurônios nas camadas
ocultas foi variado de 36, que corresponde a três vezes o número de entradas até 12, que
corresponde ao número de entradas da rede. A configuração que apresentou o menor
RMSE, considerando o valor médio de 5 treinamentos para cada rede, foi a rede com 23
neurônios, tanto na primeira camada oculta quanto na segunda camada oculta.
0.5
0.45
Treinamento
0.4 Validaçao
Teste
0.35
Erro Médio Quadrático
0.3
0.25
0.2
0.15
0.1
0.05
0
0 100 200 300 400 500 600
Época
65
Capítulo IV: Estudo de Casos
Fato relevante a ser considerado é que todas as redes testadas convergiram por
parada antecipada e no máximo em 1000 épocas. Pode ser observado no gráfico que a
trajetória de todos os erros teve comportamento semelhante, indicando mais uma vez
uma boa distribuição das amostras entre os subconjuntos definidos e também não
houve overfitting significativo. Com a topologia da rede de localização de defeitos AT
escolhida e após o treinamento, foi realizado o teste de desempenho para os
subconjuntos de treinamento, validação, teste e com o conjunto de dados extra. O
gráfico da Figura IV.8 mostra a curva de probabilidade acumulada do erro de localização
para os subconjuntos de treinamento, validação e teste, além do conjunto de dados
extra.
100
90
80
Probabilidade Acumulada (%)
Treinamento
Validaçao
70
Teste
60 Extra
50
40
30
20
10
5 10 15 20 25
Erro de Localizaçao (%)
Pode ser observado que o erro de localização foi menor que 10% para 90% das
amostras analisadas, até mesmo para o conjunto de dados extra. Analisando o gráfico,
observa-se que o conjunto com o pior desempenho foi o conjunto de dados extra.
Dentre os valores de impedância de defeito desse conjunto há valores fora do escopo de
treinamento (103 e 123Ohms). Isso faz com que o desempenho da rede seja depreciado.
Deve-se levar em consideração o seguinte fato:
66
Capítulo IV: Estudo de Casos
100
90
80 85%
Probabilidade Acumulada (%)
90%
70
100%
60
50
40
30
20
10
2 4 6 8 10 12 14 16 18 20
Erro de Localizaçao (%)
67
Capítulo IV: Estudo de Casos
Para análise dessa rede foram utilizadas 1544 amostras para treinamento, 772
para validação e 771 para teste. A partir da média dos erros da rede em relação aos
subconjuntos de dados de treinamento e validação para 5 treinamentos, o gráfico da
Figura IV.10 foi gerado a fim de que fosse escolhida a rede de melhor desempenho.
1.1
Validaçao
1 Treinamento
0.9
0.8
RMSE
0.7
0.6
0.5
0.4
15 20 25 30 35
Neurônios nas Camadas Ocultas
Como pode ser observado na Figura IV.10, a rede que apresentou o menor
RMSE, considerando o valor médio de cinco treinamentos para cada rede, foi a rede
com 30 neurônios, tanto na primeira camada oculta quanto na segunda camada oculta.
Optou-se nesse caso por variar os neurônios na camada oculta de 36, que corresponde a
três vezes o número de entradas até 12, que corresponde ao número de entradas da
rede. O gráfico da Figura IV.11 mostra a trajetória de convergência da rede escolhida.
68
Capítulo IV: Estudo de Casos
200
180 Treinamento
Validaçao
160
Teste
140
Erro Médio Quadrático
120
100
80
60
40
20
0
0 100 200 300 400 500 600
Época
Fato relevante a ser considerado é que todas as redes testadas convergiram por
parada antecipada e no máximo em 1000 épocas e apresentaram características de
convergência semelhantes à rede para localização de defeitos AT.
100
90
80 Validaçao
Probabilidade Acumulada (%)
Extra
70 Teste
60 Treinamento
50
40
30
20
10
0
5 10 15 20 25 30 35 40
Erro de Localizaçao (%)
69
Capítulo IV: Estudo de Casos
Pode ser observado que o erro de localização foi menor que 10% para
aproximadamente 80% das amostras analisadas, com exceção das amostras de
treinamento. Deve-se levar em consideração novamente a combinação considerável
gama de impedâncias de defeito, com valores expressivos de impedância de defeito
aliada à opção de utilizar ângulo de incidência de defeito aleatório. São condições
severas de simulação e os resultados mostram que a rede se comportou de maneira
satisfatória. A fim de que fosse testada a variação de desempenho dessa rede em relação
ao ponto de ocorrência do defeito, foi gerado o gráfico da Figura IV.13.
100
90
80 85%
Probabilidade Acumulada (%)
90%
70 100%
60
50
40
30
20
10
5 10 15 20 25 30 35 40
Erro de Localizaçao (%)
70
Capítulo IV: Estudo de Casos
Para análise dessa rede serão utilizadas 1544 amostras para treinamento, 772 para
validação e 771 para teste. A partir desses subconjuntos de dados o gráfico da Figura
IV.14 foi gerado a fim de que fosse escolhida a rede de melhor desempenho.
Treinamento
0.55 Validação
0.5
0.45
RMSE
0.4
0.35
0.3
0.25
12 14 16 18 20 22 24 26 28 30 32 34 36
Neuronios nas Camadas Ocultas
71
Capítulo IV: Estudo de Casos
12
Treinamento
10 Validaçao
Teste
0
0 50 100 150 200 250 300
Época
Fato relevante a ser considerado é que todas as redes testadas convergiram por
parada antecipada e no máximo em 1000 épocas, mostrando que não houve dificuldades
no treinamento. Com a topologia da rede escolhida e após o treinamento, foi realizado o
teste de desempenho para o conjunto de dados extra. O gráfico da Figura IV.16 mostra
a curva de probabilidade acumulada para os subconjuntos de treinamento, validação e
testes, além do conjunto de dados extra.
100
90
80 Treinamento
Probabilidade Acumulada (%)
70 Validaçao
Teste
60 Extra
50
40
30
20
10
0
5 10 15 20 25
Erro de Localizaçao (%)
72
Capítulo IV: Estudo de Casos
Pode ser observado que o erro de localização foi menor que 10% para 80% das
amostras analisadas, com exceção do conjunto de dados extra. Para Analisar a variação
de desempenho dessa rede em relação ao ponto de ocorrência do defeito, para o
conjunto de dados extra, foi gerado o gráfico da Figura IV.17:
100
90
80
Probabilidade Acumulada (%)
70 85%
90%
60
100%
50
40
30
20
10
0
5 10 15 20 25 30
Erro de Localizaçao (%)
73
Capítulo IV: Estudo de Casos
3.5
Treinamento
Validaçao
3
2.5
RMSE
1.5
0.5
12 15 18 21 24 27 30 33 36
Neurônios nas Camadas Ocultas
Como pode ser observado na Figura IV.18, os neurônios nas camadas ocultas
foram variados de 36 a 12 e a rede que apresentou o menor RMSE, considerando o
valor médio de 5 treinamentos para cada rede, foi a rede com 34 neurônios, tanto na
primeira camada oculta quanto na segunda camada oculta.
50
45 Treinamento
Validaçao
40 Teste
35
Erro Médio Quadratico
30
25
20
15
10
0
0 50 100 150 200 250 300 350 400 450
Época
74
Capítulo IV: Estudo de Casos
100
90
80
Treinamento
Probabilidade Acumulada (%)
70 Validaçao
Teste
60
Extra
50
40
30
20
10
0
5 10 15 20 25 30 35 40 45
Erro de Localizaçao (%)
Como pode ser observado o desempenho dessa rede não atingiu a mesma
eficiência das redes anteriores, ficando o erro de localização foi menor que 10% para
somente 55% das amostras do conjunto de dados extra.
75
Capítulo IV: Estudo de Casos
100
90
80
50
40
30
20
10
0
5 10 15 20 25 30 35 40
Erro de Localizaçao (%)
76
Capítulo IV: Estudo de Casos
140
100
60
Tensão (kV)
20
-20
-60
-100
-140
70 80 90 100 110 120 130 140
Tempo (ms)
-1
96 98 100 102 104 106 108 110 112 114 116 118
Tempo (ms)
1
Saída da Rede de Classificação
0.5
-0.5
-1
1
Saída da Rede de Classificação
-1
1
Saída da Rede de Classificação
-1
1
Saída da Rede de Classificação
0.5
-0.5
-1
0.7
0.6
Saída da Rede de Deteçao
0.5
0.4
0.3
0.2
0.1
-0.1
110 112 114 116 118 120 122 124 126 128 130
Tempo (ms)
77
Capítulo IV: Estudo de Casos
78
Capítulo IV: Estudo de Casos
79
Capítulo IV: Estudo de Casos
0.4
Validação
0.35
Treinamento
0.3
0.25
RMSE
0.2
0.15
0.1
0.05
7 8 9 10 11
Neurônios na Camada Oculta
A Figura IV.23 mostra que a rede com 11 neurônios na camada oculta obteve o
menor RMSE para o subconjunto de validação.
1.5
Treinamento
Validaçao
Teste
1
Erro Médio Quadrático
0.5
0
0 100 200 300 400 500 600 700
Época
80
Capítulo IV: Estudo de Casos
Pode ser observado que mais uma vez a rede detectou 100% dos defeitos
contidos nos subconjuntos de validação e teste e no conjunto de dados extra. Nas
simulações realizadas também foi observado novamente um atraso máximo para
detecção do defeito foi de 3ms.
O gráfico da Figura IV.25 foi gerado a fim de que fosse escolhida a rede de
melhor desempenho, utilizando-se os mesmos critérios do sistema teste I.
81
Capítulo IV: Estudo de Casos
0.4
Validação
0.35
Treinamento
0.3
0.25
RMSE
0.2
0.15
0.1
0.05
0
12 13 14 15 16 17 18 19 20 21 22 23 24
Neurônios na Camada Oculta
Como pode ser observado na Figura IV.25, a rede que apresentou o menor
RMSE, considerando o valor médio em 5 treinamento para cada rede, foi a rede com 21
neurônios na camada oculta.
1.8 Treinamento
Validaçao
1.6 Teste
1.4
Erro Médio Quadrático
1.2
0.8
0.6
0.4
0.2
0
0 100 200 300 400 500 600
Época
82
Capítulo IV: Estudo de Casos
Para análise dessa rede foram utilizadas 1544 amostras para treinamento, 772
para validação e 771 para teste. A partir desses subconjuntos de dados o gráfico da
Figura IV.27 foi gerado, a fim de que fosse escolhida a rede de melhor desempenho,
mantendo-se o critério de menor RMSE em 5 treinamentos consecutivos, considerando-
se o subconjunto de validação.
83
Capítulo IV: Estudo de Casos
0.18
Validação
0.16
Treinamento
0.14
0.12
RMSE
0.1
0.08
0.06
0.04
0.02
12 14 16 18 20 22 24 26 28 30 32 34 36
Neuronios nas Camadas Ocultas
Como pode ser observado na Figura IV.27, o número de neurônios nas camadas
ocultas foi variado de 36, que corresponde a três vezes o número de entradas até 12, que
corresponde ao número de entradas da rede. A configuração que apresentou o menor
RMSE, considerando o valor médio de 5 treinamentos para cada rede, foi a rede com 14
neurônios, tanto na primeira camada oculta quanto na segunda camada oculta. O
gráfico da Figura IV.28 mostra a trajetória de convergência da rede escolhida.
Treinamento
5 Validaçao
Teste
4
Erro Médio Quadratico
0
0 100 200 300 400 500 600 700
Época
84
Capítulo IV: Estudo de Casos
100
95 Treinamento
Validaçao
Probabilidade Acumulada (%)
Teste
90 Extra
85
80
75
70
1 2 3 4 5 6 7 8
Erro de Localizaçao (%)
• Pode ser observado que o erro de localização foi menor que 8% para 100%
das amostras analisadas, até mesmo para o conjunto de dados extra.
Para análise dessa rede foram utilizadas 1544 amostras para treinamento, 772
para validação e 771 para teste. A partir da média dos erros da rede em relação aos
85
Capítulo IV: Estudo de Casos
0.3
Validação
Treinamento
0.25
0.2
RMSE
0.15
0.1
0.05
15 20 25 30 35
Neurônios nas Camadas Ocultas
Como pode ser observado na Figura IV.30, a rede que apresentou o menor
RMSE, considerando o valor médio de cinco treinamentos para cada rede, foi a rede
com 15 neurônios, tanto na primeira camada oculta quanto na segunda camada oculta.
Optou-se, nesse caso, por variar os neurônios na camada oculta de 36, que corresponde
a três vezes o número de entradas até 12, que corresponde ao número de entradas da
rede. O gráfico da Figura IV.31 mostra a trajetória de convergência da rede escolhida.
1.8 Treinamento
Validaçao
1.6
Teste
1.4
Erro Médio Quadrático
1.2
0.8
0.6
0.4
0.2
0
0 50 100 150 200 250 300 350 400
Época
86
Capítulo IV: Estudo de Casos
100
Treinamento
90
Validaçao
Probabilidade Acumulada (%)
Teste
80
Extra
70
60
50
40
30
1 2 3 4 5 6 7 8 9 10 11 12 13
Erro de Localizaçao (%)
Para análise dessa rede serão utilizadas 1544 amostras para treinamento, 772 para
validação e 771 para teste. A partir desses subconjuntos de dados o gráfico da Figura
IV.33 foi gerado a fim de que fosse escolhida a rede de melhor desempenho.
87
Capítulo IV: Estudo de Casos
0.22
Validação
0.2
Treinamento
0.18
0.16
0.14
0.12
0.1
0.08
0.06
0.04
15 20 25 30 35
25
Treinamento
Validaçao
20
Teste
Erro Médio Quadratico
15
10
0
0 50 100 150 200 250 300 350
Época
88
Capítulo IV: Estudo de Casos
100
95
90 Treinamento
Probabilidade Acumulada (%)
85 Validaçao
Teste
80 Extra
75
70
65
60
55
50
5 10 15 20 25
Erro de Localizaçao (%)
Pelo gráfico da Figura IV.35 observa-se que o erro máximo da rede foi de 22%.
Entretanto, o erro de localização foi menor que 10% para mais de 98% das amostras
analisadas.
89
Capítulo IV: Estudo de Casos
0.7
Validação
0.6
Treinamento
0.5
0.4
RMSE
0.3
0.2
Menor RMSE
0.1
0
15 20 25 30 35
Neuronios nas Camadas Ocultas
Como pode ser observado na Figura IV.36, os neurônios nas camadas ocultas
foram variados de 36 a 12 e a rede que apresentou o menor RMSE, considerando o
valor médio de 5 treinamentos para cada rede, foi a rede com 23 neurônios, tanto na
primeira camada oculta quanto na segunda camada oculta. O gráfico da Figura IV.36
mostra a trajetória de convergência da rede escolhida
25
Treinamento
Validaçao
20 Teste
Erro Médio Quadrático
15
10
0
0 50 100 150 200 250
Época
90
Capítulo IV: Estudo de Casos
100
90 Treinamento
Validaçao
Teste
Probabilidade Acumulada (%)
80
Extra
70
60
50
40
30
1 2 3 4 5 6 7 8 9 10 11 12
Erro de Localizaçao (%)
Como pode ser observado, o erro de localização foi menor que 10% para 100%
das amostras analisadas.
IV. 4 Conclusões
Este capítulo apresentou os resultados obtidos através da aplicação da
metodologia proposta para a elaboração de um esquema completo de detecção,
classificação e localização de defeitos em linhas de transmissão. Para isto, foram
utilizados os sistemas IEEE-14 e o sistema equivalente utilizado em BRAHMA [ 26 ].
91
Capítulo IV: Estudo de Casos
92
Capítulo V
Conclusões
V.1 Conclusões
Esta dissertação teve como objetivo a elaboração de um esquema completo de
detecção, classificação e localização de defeitos em linhas de transmissão utilizando
redes neurais artificiais (RNA). Esta metodologia tem como característica importante a
utilização das tensões e correntes trifásicas na freqüência fundamental em somente um
dos terminais na linha. A intenção foi elaborar um sistema de proteção alternativo, que
possa trabalhar em conjunto com métodos convencionais na proteção de linhas de
transmissão, melhorando sua eficiência e precisão.
93
Capítulo V: Conclusões
94
Capítulo V: Conclusões
95
Capítulo V: Conclusões
96
Apêndice A
Técnicas de Otimização
Irrestrita
ξ ( w* ) ≤ ξ ( w) (A. 1)
∇ξ ( w* ) = 0 (A. 2)
Onde:
T
∂ξ ∂ξ ∂ξ
∇ξ ( w) = , ,..., (A. 3)
∂w1 ∂w2 ∂wm
97
Apêndice A: Técnicas de Otimização Irrestrita
Onde:
∇ Operador gradiente.
A idéia é elaborar algoritmos que gerem uma seqüência de vetores de peso a fim
de que a função ξ(w) seja reduzida a cada iteração (representada por n), tal que:
Observa-se, na equação (A. 5), que o valor atual do peso sináptico é igual ao
valor anterior acrescido de um termo que é composto pelo negativo do gradiente da
função de custo ∇ξ(w) e η, que é uma constante que regula o tamanho do passo,
denominada taxa de aprendizagem.
98
Apêndice A: Técnicas de Otimização Irrestrita
1
∆ξ ( w(n)) ∇ξ ( w(n))T .∆w(n) + .∆wT (n).∇ 2ξ ( w(n)).∆w(n) (A. 8)
2
∂ 2ξ ∂ 2ξ ∂ 2ξ
∂w2 ...
1 ∂w1∂w2 ∂w1∂wm
∂ξ2
∂ 2ξ ∂ 2ξ
...
H = ∂w2 ∂w1 ∂w22 ∂w2 ∂wm (A. 9)
# # ... #
∂ 2ξ ∂ 2ξ ∂ 2ξ
∂w ∂w ...
m 1 ∂wm ∂w2 ∂wm2
99
Apêndice A: Técnicas de Otimização Irrestrita
Então:
Isolando ∆w(n):
Como a operação para obtenção de ∆w(n) na equação (A. 11) é matricial, temos
H-1, que é a inversa da Hessiana.
100
Apêndice B
Derivadas do Algoritmo de
Retropropagação
101
Apêndice B: Derivadas do Backpropagation
1 U
ξ ( w) = ∑
2 j =1
(d j − y j ) 2 (B.1)
∂ξ (n)
= ek (n) (B.3)
∂ek (n)
∂ek (n)
= −1 (B.4)
∂yk (n)
102
Apêndice B: Derivadas do Backpropagation
∂yk (n)
= Fk' (vk (n)) (B.6)
∂vk (n)
m
vk (n) = ∑ wkj (n). y j (n) (B.7)
j =0
∂vk (n)
= y j ( n) (B.8)
∂wkj (n)
∂ξ (n)
= −ek (n).Fk' (vk (n)). y j (n) (B.9)
∂wkj (n)
Onde:
∂ξ (n)
∆wkj (n) = −η . (B.11)
∂wkj
103
Apêndice B: Derivadas do Backpropagation
∂ξ (n)
δ k ( n) = (B.13)
∂vk (n)
∂ξ (n)
= d k ( n ) − yk ( n ) (B.15)
∂yk (n)
Como:
Temos:
104
Apêndice B: Derivadas do Backpropagation
Se o neurônio estiver numa camada oculta da rede (no caso da equação (II.24), a
camada a qual pertence o neurônio j), é sabido que o sinal de erro que o alimenta é
gerado na camada à direita da camada a qual pertence. Então, considerando:
1 mL 2
ξ ( n) = ∑ ek (n)
2 k =1
(B.18)
∂ξ (n) mL ∂e (n)
= ∑ ek (n). k (B.19)
∂y j (n) k =1 ∂y j (n)
∂ek (n)
= − Fk' (vk (n)) (B.21)
∂vk (n)
∂vk (n)
= wkj (n) (B.22)
∂y j (n)
105
Apêndice B: Derivadas do Backpropagation
∂ek (n)
= − Fk' (vk (n)).wkj (n) (B.23)
∂y j (n)
∂ξ (n) mL
= −∑ ek (n).Fk' (vk (n)).wkj (n) (B.24)
∂y j (n) k =1
mL
δ j (n) = −∑ ek (n).Fk' (vk (n)).wkj (n).Fj' (v j (n)) (B.25)
k =1
Da equação(B.17), temos
mL
δ j (n) = Fj' (v j (n))∑ δ k (n).wkj (n) (B.27)
k =1
106
Apêndice C
Processamento de Sinais
C.2 Aliasing
A Figura C.1 mostra os passos para o tratamento dos sinais.
Sinal de TC/TP
Filtro Sinal em 60Hz
Conversor Filtro de
A/D Fourier
Anti-Aliasing
107
Apêndice C: Processamento de Sinais
Se um sinal é periódico com período T, ele pode ser expresso por uma série de
Fourier:
∞ 2π
∑a
j kt
x(t ) = k .e T (C.1)
k =−∞
Onde ak é
T /2 2π
1 − jk t
ak =
T ∫
− T /2
x ( t ).e T
dt (C.2)
Para um sinal f(t) contínuo no tempo, a sua transformada de Fourier é dada por:
∞
F ( j Ω) = ∫ f ( t ).e − j Ωt dt (C.3)
−∞
1 ∞
f (t ) =
2π ∫ −∞
F ( j Ω ).e j Ωt d Ω (C.4)
108
Apêndice C: Processamento de Sinais
1
X ( j Ω) = A( j Ω ) * B( j Ω ) (C.5)
2π
Desenvolvendo:
1 ∞
X ( j Ω) =
2π ∫−∞
A( j Ω − j Ω ').B( j Ω ')d Ω ' (C.6)
Onde X(jΩ), A(jΩ) e B(jΩ) são as transformadas de Fourier de x(t), a(t) e b(t),
respectivamente.
1, n = m
δ (n − m ) = (C.7)
0, n ≠ m
∞
x i (t ) = ∑ x ( n ).δ ( t − nT )
n =−∞
(C.8)
x ( n ) = x a ( nT ) (C.9)
109
Apêndice C: Processamento de Sinais
∞
x i (t ) = ∑ x ( nT ).δ ( t − nT )
n =−∞
a (C.10)
∞
p( t ) = ∑ δ ( t − nT )
n =−∞
(C.11)
Constata-se que xi(t) pode ser obtido pela multiplicação do sinal xa(t) no tempo
contínuo por um trem de impulsos p(t), como descreve e equação abaixo:
x i ( t ) = x a ( t ). p( t ) (C.12)
1
Xi ( j Ω) = Xa ( j Ω ) * P ( j Ω ) (C.13)
2π
Observa-se pela equação (C.10) que no intervalo [-T/2, T/2] p(t) é um simples
impulso δ(t). Pela equação (C.2) pode-se calcular os coeficientes ak da série de Fourier de
p(t):
1
ak = (C.14)
T
∞ 2π
1
∑e
j kt
p( t ) = T
(C.15)
T −∞
110
Apêndice C: Processamento de Sinais
Considerando que:
f ( t ) = e j Ω0t (C.16)
F ( j Ω ) = 2πδ ( Ω − Ω 0 ) (C.17)
2π ∞
2π
P( j Ω) =
T
∑ δ (Ω − T
k =−∞
k) (C.18)
1 ∞
2π
Xi ( j Ω) = Xa ( j Ω ) * ∑ δ ( Ω − k) (C.19)
T k =−∞ T
1 ∞ 2π
X i ( j Ω) = ∑
T k =−∞
Xa ( jΩ − j
T
k) (C.20)
111
Apêndice C: Processamento de Sinais
(a) (b)
(c) (d)
112
Apêndice D
113
Apêndice D: Dados dos Sistemas Equivalentes
114
Apêndice D: Dados dos Sistemas Equivalentes
115
Referências Bibliográficas
[1] SILVA, Hélio A., “Localização de Falta em Linhas de Transmissão,
Desconhecendo-se os Parâmetros de Seqüência Zero da Rede”, Tese de
Doutorado, PUC, Rio de Janeiro, Março, 1999.
[2] ONS – OPERADOR NACIONAL DO SISTEMA ELÉTRICO, “Contrato de
Prestação de Serviço de Transmissão”, Brasil, Março de 2002.
[3] MCCULLOCH, W., PITTS, W., “A Logical Calculus of the Ideas Immanent in
Nervous Activity”, Bulletin of Mathematical Biophysics, 1943.
[4] HEBB, D. O., “The organization of Behavior”, John Wiley & Sons, New York,
1949.
[5] ROSENBLATT, R., “The Perceptron: A Probabilistic Model for Information
Storage and Organization in the Brain”, Psychol. Rev.65, 1958.
[6] WIDROW, B, “Generalization and Information Storage in Networks of Adaline
Neurons”, Self-Organizing Systems, 1962.
[7] MINSKY, M., PAPPERT, S., “Perceptrons”, MIT Press, Cambridge, 1969.
[8] HOPFIELD, J. J., “Neural Networks and Physical Systems with Emergent
Collective Computational Abilities”, Proceedings of National Academy of
Sciences, Vol.79, pp. 2554-2558, April, 1982.
[9] RUMELHART, D. E., MCCLELLAND, J. L., “Parallel Distributed
Processing”. MIT Press, Vol.1, 1986.
[ 10 ] WIDROW, B., LEHR, M. A., “30 Years of Adaptive Neural Networks:
Perceptron, Madaline and Backpropagation”. Proceedings of the IEEE, Vol.78,
N.9, September, 1990.
[ 11 ] RAHMAN, S., “Artificial Intelligence in Electric Power Systems: A Survey of
the Japanese Industry”, IEEE Transactions on Power Systems, Vol.8, N.3,
August, 1993.
[ 12 ] CHEN, D., MOHLER, R. R., “Neural-Network-Based Load Modeling and Its
Use in Voltage Stability Analysis”, IEEE Transactions on Control Systems
Technology, Vol.11, N.11, July, 2003.
[ 13 ] LAI, L. L. et al, “Real-Frequency and Harmonic Evaluation Using Artificial
Neural Networks”, IEEE Transactions on Power Delivery, Vol.14, N.1,
116
January, 1999.
[ 14 ] LIM, S.-W., SHOURESHI, R. A., “Neural-Based Monitoring System for Health
Assessment of Electric Transmission Lines”, IEEE Proceedings of the
American Control Conference, Colorado, USA, June, 2003.
[ 15 ] AKIMOTO, Y. et al, “Transient Stability Expert System”, IEEE Transactions
on Power Systems, Vol.4, N.1,pp.312-320, February, 1989.
[ 16 ] ROCKEFELLER, G.D. et al, “Adaptive Transmission Relaying Concepts for
Improved Performance”, IEEE Transactions on Power Delivery, Vol.3, N.4,
October, 1988.
[ 17 ] HOROWITZ, S. H., PHADKE, A. G., THORP, J. S., “Adaptive Transmission
System Relaying”, IEEE Transactions on Power Delivery, Vol.3, N.4, October,
1988.
[ 18 ] THORP, J. S., PHADKE, A. G., “Protecting Power Systems in the Post-
Restructuring Era”, IEEE Computer Applications in Power, Vol. 12, Issue 1,
pp.33–37, January,. 1999.
[ 19 ] PHADKE, A. G., HOROWITZ, S. H, THORP, J. S., “Aspects of Power
System Protection in the Post-Restructuring Era”, IEEE Proceedings of the 32nd
International Conference on System Sciences, 1999.
[ 20 ] RADOJEVIC, Z. M.; TERZIJA, V. V.; DJURIC, M. B.; “Multipurpose
Overhead Lines Protection Algorithm”, IEE Proceedings on Generation,
Transmission and Distribution, Vol.146, Issue 5, pp.441-445, September, 1999.
[ 21 ] HEYDT, G. T.; LIU, C. C.; PHADKE, A. G.; VITTAL, V.; “Solution for the
Crisis in Electric Power Supply”, IEEE Computer Applications in Power,
Vol.14, Issue 3, pp.22-30, July 2001.
[ 22 ] PATTERSON, R., “Signatures and Software Find High Impedance Faults”;
IEEE Computer Applications in Power, Vol.8, Issue 3, pp.12-15, July, 1995.
[ 23 ] SOLLERO et al, “Localização de Faltas em Sistemas de Transmissão a Partir de
Sinais Oscilografados em Ambas as Extremidades da Linha”, XVI SNPTEE –
Seminário Nacional de Produção e Transmissão de Energia Elétrica, Outubro de
2001.
[ 24 ] LI, H. Y. et al, ”A New Type of Differential Feeder Protection Relaying Using
the Global Positioning System for Data Synchronization”, IEEE Transactions
on Power Delivery, Vol. 12, No.3 , July, 1997.
[ 25 ] LIN, Y-H et al, “An Adaptive Fault Locator for Transmission Lines Tapped
117
with a Source of Generation – Using Synchronized Voltage and Current
Phasors”, IEEE Power Engineering Society Summer Meeting, Vol.3, pp.1379 –
1383, July, 2000.
[ 26 ] BRAHMA, S. M., GIRGIS, A. A., “Fault Location on a Transmission Line
Using Synchronized Voltage Measurements”, IEEE Transactions on Power
Delivery, Vol. 19, No. 4, October 2004.
[ 27 ] JIANG, J.A. et al, “A new Protection Scheme for Fault Detection, Direction
Discrimination, Classification and Location in Transmission Lines”, IEEE
Transactions on Power Delivery, Vol. 18, No.2 , January, 2003.
[ 28 ] IEEE POWER SYSTEM RELAYING COMMITTEE, “Synchronized
Sampling and Phasor Measurement for Relaying and Control”, IEEE
Transactions on Power Delivery, Vol. 9, No. 1,pp 442-452, January 1994.
[ 29 ] PHADKE, A. G., “Synchronized Phasor Measurements in Power Systems”,
IEEE Computer Applications in Power Journal, April, 1993.
[ 30 ] TAKAGI, T. et al, “Development of a New Type Fault Locator using the One-
terminal Voltage and Current Data”, IEEE Transactions on Power Apparatus
and Systems, Vol. PAS 101, N.8, August, 1982.
[ 31 ] RANJBAR, A. M., CORY, B. J., “An Improved method for the Digital
Protection of High voltage transmission Line”, IEEE Transactions on Power
Apparatus and Systems, Vol. PAS 94, N.2,pp.554-560, 1975.
[ 32 ] WESTLIN, S. E., BUBENKO, J. A., “Newton-Raphson Technique Applied to
the Fault Location Problem”, IEEE PES Summer Meeting, 1976.
[ 33 ] PHADKE, A. G., “Computer Relaying: Its Impact on Improved Control and
Operation of Power Systems”, IEEE Computer Applications In Power Journal,
1988.
[ 34 ] SIDHU, T. S., SINGH, H., SACHDEV, M. S., “Design, Implementation and
Testing of an Artificial Neural Network Based Fault Direction Discrimination
for Protecting Transmission Lines”, IEEE Transactions on Power Delivery,
Vol. 10, No. 2, April 1995.
[ 35 ] DAS, R., KUNSMAN, S. A., “A Novel Approach for Ground fault Detection”,
57th Annual Conference for Protective Relay Engineers, Texas A & M
University, Texas, April 2004.
[ 36 ] DALSTEIN, T., KULICKE, B., “Neural Network Approach to Fault
Classification for High Speed Protective Relaying”, IEEE Transactions on
Power Delivery, Vol. 10, No.2, April 1995.
118
[ 37 ] OLESKOVICZ, et al, “Redes Neurais Artificiais Aplicadas à Classificação
Rápida de Faltas em Sistemas Elétricos de Potência”, SBA Controle &
Automação, Vol.11, n.3, 2000.
[ 38 ] QI, W., SWIFT, G. W., MACLAREN, P. G., CASTRO, A. V., “An Artificial
Neural Network to Distance Protection”, Intelligent Systems Intelligent Systems
Applications to Power Systems. Proceedings, ISAP '96, International
Conference, pp.226-230, February, 1996.
[ 39 ] COURY, D. V., JORGE, D. C., “Artificial Neural Network Approach to
Distance Protection of Transmission Lines” IEEE Transactions on Power
Delivery, Vol. 13, No. 1, January 1998.
[ 40 ] OTHMAN, M. F., MAHFOUF, M., LINKENS, D. A., “Transmission Lines
fault detection, Classification and Location Using an Intelligent Power System
Stabilizer”, IEEE International Conference on Electric Utility Deregulation,
Restructuring and Power Technologies, Hong Kong, April, 2004.
[ 41 ] OLESKOVICZ, M., et al, “Um Esquema Completo Para Detecção,
Classificação e Detecção de Defeitos em Linha Utilizando Redes Neurais”, XVI
SNPTEE – Seminário Nacional de Produção e Transmissão de Energia Elétrica,
Outubro de 2001.
[ 42 ] RAMOS, Marco Antônio Fernandes, “Sistema de Identificação e Localização de
Faltas em Linhas de Transmissão Baseado em Redes Neurais”, Tese de
Mestrado, PUC, Rio de Janeiro, Agosto, 2002.
[ 43 ] KEZUNOVIC, M., “A Survey of Neural Net Applications to Protective
Relaying and Fault Analysis”, Engineering Intelligent Systems, Vol. 5,
December, 1997.
[ 44 ] HAYKIN, S.,”Redes Neurais: Princípios e Prática”. Editora Bookman, 2001.
[ 45 ] WIDROW, B.; RUMELHART, D.E.; LEHR, M.A., “Neural Networks:
Applications in Industry, Business and Science”, Communications of ACM,
Vol.37, N.3, March, 1994.
[ 46 ] REZENDE, S. O. et al, “Sistemas inteligentes: Fundamentos e Aplicações”,
Editora Manole Ltda, 2003.
[ 47 ] CYBENKO, G., “Approximation by Superpositions of a Sigmoid Function”,
Mathematics of Control, Signals and Systems 2, pp.303-314, 1989.
[ 48 ] KOHONEN, T., “Self-Organization and Associative Memory”, 2nd Edition,
Springer, 1988.
119
[ 49 ] CARPENTER, G. A.; GROSSBERG, S., “ART-2: Self-Organization of a Stable
Category Recognition Codes for Analog Input Patterns”, Applied Optics,
Vol.26, N.23, p.4919-4930, 1987.
[ 50 ] MEYER, C., GANASCIA, J-G, ZUCKER, J-D., “Learning Strategies in Games
by Anticipation”. Proceedings of the fifteenth International Joint Conference on
Artificial Intelligence, IJCAI'97. Morgan Kaufman Editor, 1997.
[ 51 ] BRAGA, A. P., CARVALHO, A. C. P. L. F., LUDERMIR, T. B., “Redes
Neurais Artificiais: Teoria e Aplicações”, Editora LTC, Rio de Janeiro, 2000.
[ 52 ] KOVACS, Z. L., “Redes Neurais Artificiais: Fundamentos e Aplicações”,
Edição Acadêmica, São Paulo, 1996.
[ 53 ] RIEDMILLER, M., BRAUN, H. “A Direct Adaptive Method for Faster
Backpropagation Learning: The RPROP Algorithm”. IEE International
Proceedings on Neural Networks, pp.586-591, San Francisco, USA, 1993.
[ 54 ] REED, R., “Pruning Algorithms – A Survey”. IEEE Transactions on Neural
Networks, 4(5):740-746, 1993.
[ 55 ] ALTERNATIVE Transient Program. Rule Book, Leuven EMTP Center (LEC),
1987.
[ 56 ] MATLAB, The MathWorks Inc, 2000.
[ 57 ] POWER SYSTEM PROTECTION, Vol.4: “Digital Protection and Signaling”,
Edited by The Training Association, Institute of Electrical Engineers, 1995.
[ 58 ] ABB Relays, “REL 100 Series: User´s Guide”, Version 2.3, 1992.
[ 59 ] STEVENSON JR, W. D., “Elementos de Análise de Sistemas de Potência”,
Editora McGraw-Hill do Brasil Ltda, 1978.
[ 60 ] PHADKE, A. G., THORP, J. S., “Computer Relaying for Power Systems”, Ed.
SRP Ltda, England, 1988.
[ 61 ] DINIZ, P. S. R., SILVA, E. A. B., NETTO, S. L., “Processamento Digital de
Sinais”, ARTMED Editora A.S., São Paulo, SP, 2002.
120