Anda di halaman 1dari 132

REDES NEURAIS ARTIFICIAIS APLICADAS NA DETECÇÃO,

CLASSIFICAÇÃO E LOCALIZAÇÃO DE DEFEITOS EM LINHAS DE


TRANSMISSÃO

ÂNGELO ROCHA DE OLIVEIRA

DISSERTAÇÃO SUBMETIDA AO CORPO DOCENTE DA COORDENAÇÃO


DO PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA DA
UNIVERSIDADE FEDERAL DE JUIZ DE FORA COMO PARTE DOS
REQUISITOS NECESSÁRIOS PARA A OBTENÇÃO DO GRAU DE MESTRE
EM ENGENHARIA ELÉTRICA.

Aprovada por:

_____________________________________________
Prof. Paulo Augusto Nepomuceno Garcia, D.Sc - UFJF

_____________________________________________
Profa. Carmen Lúcia Tancredo Borges, D.Sc - UFRJ

_____________________________________________
Prof. Hélio Antônio da Silva, D.Sc - UFJF

_____________________________________________
Prof. Márcio de Pinho Vinagre, D.Sc - UFJF

JUIZ DE FORA, MG – BRASIL.


AGOSTO DE 2005
OLIVEIRA, ÂNGELO ROCHA

Redes Neurais Artificiais Aplicadas na Detecção,


Classificação e Localização de Defeitos em Linhas de
Transmissão [Juiz de Fora] 2005.
XI, 132 p. 29,7 cm. (UFJF, M. Sc, Engenharia Elétrica,
2005)
Tese – Universidade Federal de Juiz de Fora
1. Redes Neurais Artificiais
2. Detecção, Classificação e Localização de Defeitos em
Linhas de Transmissão
3. Proteção de Linhas de Transmissão
I. UFJF II. Título (Série)

ii
Aos meus pais, Maurilo e Ângela,
ao meu irmão, Murilo
e à minha noiva Marcella
com muito carinho.

iii
AGRADECIMENTOS

Primeiramente a Deus, a causa primária de todas as coisas.

Ao Professor Paulo Augusto Nepomuceno Garcia pela excelência na orientação


e dedicação dispensadas para a realização deste trabalho. Além dos ensinamentos,
contribuições e segurança transmitida, fatores fundamentais não só para a realização
desta dissertação, mas também para minha formação profissional.

Aos Professores Márcio de Pinho Vinagre e Hélio Antônio da Silva pelos


conselhos, incentivos e ensinamentos passados durante o curso de pós-graduação.

Ao LABSPOT (Laboratório de Sistemas de Potência da Faculdade de


Engenharia Elétrica da Universidade Federal de Juiz de Fora), pela disponibilidade de
utilização de recursos computacionais.

A todos os professores e colegas do curso de pós-graduação que direta ou


indiretamente contribuíram para a realização desta dissertação, em especial ao
acadêmico Geano Elias Rocha pela fundamental ajuda na fase final dos trabalhos.

Ao meu pai Maurilo Marcelino de Oliveira, minha mãe Ângela Maria Rocha de
Oliveira, meu irmão Murilo, minha noiva Marcella, minha madrinha Suely e todos os
meus familiares pelos incentivos e apoio, sem o qual seria impossível a realização desse
curso de pós-graduação.

iv
Resumo da Dissertação apresentada à UFJF como parte dos requisitos necessários
para a obtenção do grau de Mestre em Ciências (M. Sc.)

REDES NEURAIS ARTIFICIAIS APLICADAS NA DETECÇÃO,


CLASSIFICAÇÃO E LOCALIZAÇÃO DE DEFEITOS EM LINHAS DE
TRANSMISSÃO

Ângelo Rocha de Oliveira

Agosto / 2005

Orientador: Paulo Augusto Nepomuceno Garcia, D. Sc.

Programa: Engenharia Elétrica

Este trabalho apresenta um sistema completo para detecção, classificação e


localização de defeitos em linhas de transmissão, baseado em redes neurais artificiais
(RNA) diretamente alimentadas, por meio da análise de tensões e correntes trifásicas
na freqüência fundamental, em somente um dos terminais na linha. Através de
simulações de defeitos feitas com o software ATP, um banco de dados é gerado. Os
dados são amostrados a uma freqüência de 960Hz e a rede de detecção de defeitos
recebe os sinais provenientes de um filtro de Fourier recursivo. Esta rede, que possui
12 entradas, as quais correspondem aos módulos e ângulos das tensões e correntes
trifásicas e 1 saída, que tem a função de, a cada milésimo de segundo, avaliar o
estado de operação da linha: normal ou sob defeito. Para que não haja atuação da
proteção de forma precipitada, o sinal para atuação da proteção somente é enviado
após dez saídas consecutivas indicando defeito. Quando a rede de detecção acusa
curto-circuito, o módulo de classificação, que é composto de uma rede neural com 12
entradas e 4 saídas, recebe os sinais do sistema na região de defeito e identifica as
fases envolvidas no distúrbio, bem como o envolvimento da terra. Com a
identificação das fases envolvidas, o módulo de localização de defeitos, que é
composto por redes especialistas para cada tipo de defeito, recebe as mesmas
entradas apresentadas ao módulo de classificação. Cada rede neural constituinte deste
módulo possui 12 entradas e uma saída, que indica o local de ocorrência do distúrbio.

v
Testes realizados mostram um sistema eficiente para detecção, classificação e
localização de defeitos em linhas de transmissão.

vi
Abstract of Dissertation presented to UFJF as a partial fulfillment of the
requirements for a Master of Science degree (M. Sc.)

ARTIFICIAL NEURAL NETWORKS APPLIED IN FAULT DETECTION,


CLASSIFICATION AND LOCATION IN TRANSMISSION LINES

Ângelo Rocha de Oliveira

August / 2005

Advisor: Paulo Augusto Nepomuceno Garcia, D. Sc.

Department: Electrical Engineering

This work presents a complete system to fault detection, classification and


location in transmission lines, based on Artificial Neural Networks (ANN), through
three-phase voltage and current analysis, in fundamental frequency, in only one end
of the line. Through fault simulations with software ATP, a data bank is generated.
The data is sampled in 960Hz and the detection neural network receives the signals
from a recursive Fourier filter. This net, that has 12 inputs, that correspond to the
modules and angles of three-phase voltage and current and 1 output, that has a
function to evaluate the operation status of the line: normal or under disturbance. In
order to avoid abrupt operation, the signal to protection is sent only after 10
consecutive output indicating fault.When the detection neural net detects a fault, the
classification module, that is composed by a neural net with 12 inputs and 4 outputs,
receives the signals from the line in the fault region and identifies the phases
involved in the disturbance, as well as earth involvement. With the identification of
the involved phases, the location module, that is composed by specialist neural nets
to each kind of fault, receives the same samples presented to the classification
module. Each neural network of this module has 12 inputs and 1 output, that indicate
the location of the disturbance. The simulation results show an efficient system to
fault detection, classification and location.

vii
Sumário
Capítulo I ......................................................................................................................1
I.1 Motivações da Dissertação..................................................................................1
I.2 Objetivo da Dissertação ......................................................................................2
I.3 Revisão Bibliográfica..........................................................................................2
I.4 Publicações Decorrentes da Dissertação .............................................................6
I.5 Estrutura da Dissertação......................................................................................6
Capítulo II.....................................................................................................................8
II.1 Considerações Iniciais .......................................................................................8
II.2 O Cérebro Humano ............................................................................................9
II.3 Modelagem do Neurônio Artificial..................................................................11
II.3.1 Tipos de Função de Ativação....................................................................13
II.3.2 Arquiteturas de Rede.................................................................................15
II.3.2.1 Redes Diretas de Uma Camada..........................................................15
II.3.2.2 Redes Diretas (feed-forward) de Camadas Múltiplas........................16
II.3.2.3 Redes Recorrentes (feed-backward) ..................................................17
II.3.3 Aprendizagem ...........................................................................................18
II.3.3.1 Aprendizagem com Professor ............................................................19
II.3.3.2 Aprendizagem sem Professor ............................................................20
II.3.3.2.1 Aprendizagem por Reforço.........................................................20
II.3.3.2.2 Aprendizagem Não-Supervisionada ...........................................22
II.3.4 Tarefas de Aprendizagem .........................................................................22
II.3.5 Perceptrons de Uma Camada ....................................................................24
II.3.5.1 Perceptron de Rosenblatt ...................................................................25
II.3.5.2 Adaline...............................................................................................27
II.3.6 Perceptrons de Múltiplas Camadas...........................................................31
II.3.6.1 Algoritmo de Retropropagação (Backpropagation) ..........................32
II.3.6.2 Desempenho do Algoritmo de Retropropagação...............................37
II.3.6.3 Generalização do Conhecimento .......................................................37
II.3.6.4 Algoritmo de Treinamento “Trainrp” ................................................40
II.4 Conclusões .......................................................................................................41
Capítulo III .................................................................................................................42
III. 1 Considerações Iniciais ...................................................................................42
III.2 Sistema Equivalente e Simulação de Defeitos ...............................................42
III.3 Módulo de Detecção de Defeitos....................................................................46
III.4 Módulo de Classificação de Defeitos .............................................................49
III.5 Módulo de Localização de Defeitos ...............................................................51
III.6 Esquema Completo de Proteção de Linhas de Transmissão ..........................52
III.7 Conclusões......................................................................................................53
Capítulo IV .................................................................................................................55
IV.1 Considerações Iniciais....................................................................................55
IV.2 Sistema Teste I ...............................................................................................55
IV.2.1 Geração de Dados....................................................................................56
IV.2.2 Definição da Topologia das RNA ...........................................................58
IV.2.3 Rede de Detecção: Treinamento e Desempenho.....................................59
IV.2.4 Rede de Classificação: Treinamento e Desempenho ..............................61
IV.2.5 Rede de Localização: Treinamento e Desempenho ................................63

viii
IV.2.5.1 Defeitos FASE-TERRA .......................................................................64
IV.2.5.2 Defeitos FASE-FASE ..........................................................................67
IV.2.5.3 Defeitos FASE-FASE-TERRA ............................................................71
IV.2.5.4 Defeitos FASE-FASE-FASE ...............................................................73
IV.2.6 Esquema Completo de Detecção, Classificação e Localização de
Defeitos: Teste de Desempenho. ........................................................................76
IV.3 Sistema Teste II ..............................................................................................79
IV.3.1 Rede de Detecção: Treinamento e Desempenho.....................................79
IV.3.2 Rede de Classificação: Treinamento e Desempenho ..............................81
IV.3.3 Rede de Localização: Treinamento e Desempenho ................................83
IV.3.3.1 Defeitos FASE-TERRA ...................................................................83
IV.3.3.2 Defeitos FASE-FASE ......................................................................85
IV.3.3.3 Defeitos FASE-FASE-TERRA ........................................................87
IV.3.3.4 Defeitos FASE-FASE-FASE ...........................................................89
IV. 4 Conclusões ....................................................................................................91
Capítulo V ..................................................................................................................93
V.1 Conclusões.......................................................................................................93
V.2 Propostas de Desenvolvimentos Futuros .........................................................95
Apêndice A .................................................................................................................97
A.1 Considerações Iniciais .....................................................................................97
A.2 Método da Descida Mais Íngreme...................................................................98
A.3 Método de Newton ..........................................................................................99
Apêndice B ...............................................................................................................101
B.1 Considerações Iniciais ...................................................................................101
B.2 Formulação Matemática da Retropropagação ...............................................101
Apêndice C ...............................................................................................................107
C.1 Considerações Iniciais ...................................................................................107
C.2 Aliasing ..........................................................................................................107
Apêndice D ...............................................................................................................113
D.1 Considerações Iniciais ...................................................................................113
D.2 Sistema Teste I..............................................................................................113
D.3 Sistema Teste II ............................................................................................114
Referências Bibliográficas........................................................................................116

ix
Lista de Figuras
Figura II.1 - Neurônio Humano..................................................................................10
Figura II.2 - Modelo do Neurônio Artificial...............................................................11
Figura II.3 - Função Linear.........................................................................................13
Figura II.4 - Função Limiar. .......................................................................................13
Figura II.5 - Função Rampa........................................................................................14
Figura II.6 - Função Sigmóide....................................................................................14
Figura II.7 - Rede Direta de 1 Camada.......................................................................16
Figura II.8 - Rede Direta de Múltiplas Camadas........................................................17
Figura II.9 - Rede Recorrente. ....................................................................................17
Figura II.10 - Aprendizagem Supervisionada.............................................................19
Figura II.11 - Aprendizagem por Reforço. .................................................................21
Figura II.12 - Aprendizagem Não-Supervisionada.....................................................22
Figura II.13 - Aproximação de Funções.....................................................................24
Figura II.14 - Controle de Processos. .........................................................................24
Figura II.15 - Perceptron com 1 Neurônio. ................................................................26
Figura II.16 - Adaline. ................................................................................................28
Figura II.17 - Rede com 2 Camadas Ocultas..............................................................32
Figura III.1 - Sistema Equivalente..............................................................................43
Figura III.2 - Módulo de Detecção de Defeitos..........................................................47
Figura III.3 - Rede Neural 12-X-1 para Detecção de Defeitos...................................48
Figura III.4 - Módulo de Classificação de Defeitos. ..................................................49
Figura III.5 - Rede Neural 12-X-4 para Classificação de Defeitos. ...........................50
Figura III.6 - Módulo de Localização de Defeitos. ....................................................51
Figura III.7 - Rede Neural 12-X-X-1 para Localização de Defeitos. .........................52
Figura IV.1 - Sistema IEEE-14. .................................................................................56
Figura IV.2 - Desempenho da Rede de Detecção X Neurônios na Camada Oculta
para os Subconjuntos de Treinamento e Validação....................................................60
Figura IV.3 - Convergência da Rede com 10 Neurônios na Camada Oculta.............60
Figura IV.4 - Desempenho da Rede de Classificação X Neurônios na Camada Oculta
para os Subconjuntos de Treinamento e Validação....................................................62
Figura IV.5 - Convergência da Rede com 15 Neurônios na Camada Oculta.............62
Figura IV.6 - Desempenho da Rede de Localização AT X Neurônios nas Camadas
Ocultas para os Subconjuntos de Treinamento e Validação.......................................65
Figura IV.7 - Convergência da Rede com 23 Neurônios nas Camadas Ocultas. .......65
Figura IV.8 - Curva de Probabilidade Acumulada para Rede de Localização de
Defeitos AT. ...............................................................................................................66
Figura IV.9 - Curva de Probabilidade Acumulada para o Conjunto de Dados Extra
em Relação ao Ponto de Ocorrência do Defeito.........................................................67
Figura IV.10 - Desempenho da Rede de Localização AB X Neurônios nas Camadas
Ocultas para os Subconjuntos de Treinamento e Validação.......................................68
Figura IV.11 - Convergência da Rede com 30 Neurônios nas Camadas Ocultas. .....69
Figura IV.12 - Curva de Probabilidade Acumulada para Rede de Localização de
Defeitos AB. ...............................................................................................................69
Figura IV.13 - Curva de Probabilidade Acumulada para o Conjunto de Dados Extra
em Relação ao Ponto de Ocorrência do Defeito.........................................................70

x
Figura IV.14 - Desempenho da Rede de Localização ABT X Neurônios nas Camadas
Ocultas para os Subconjuntos de Treinamento e Validação.......................................71
Figura IV.15 - Convergência da Rede com 14 Neurônios nas Camadas Ocultas. .....72
Figura IV.17 - Curva de Probabilidade Acumulada para o Conjunto de Dados Extra
em Relação ao Ponto de Ocorrência do Defeito.........................................................73
Figura IV.18 - Desempenho da Rede de Localização ABC X Neurônios nas Camadas
Ocultas para os Subconjuntos de Treinamento e Validação.......................................74
Figura IV.19 - Convergência da Rede com 34 Neurônios nas Camadas Ocultas. .....74
Figura IV.20 - Curva de Probabilidade Acumulada para Rede de Localização de
Defeitos ABC. ............................................................................................................75
Figura IV.21 - Curva de Probabilidade Acumulada para o Conjunto de Dados Extra
em Relação ao Ponto mais Distante de Ocorrência do Defeito..................................76
Figura IV.22 - Simulação de Operação do Esquema Completo para Detecção,
Classificação e Localização de Defeitos em Linhas de Transmissão.........................77
Figura IV.23 - Desempenho da Rede de Detecção X Neurônios na Camada Oculta
para o Subconjunto de Treinamento e Validação.......................................................80
Figura IV.24 – Convergência da Rede com 11 Neurônios na Camada Oculta. .........80
Figura IV.25 - Desempenho da Rede de Classificação X Neurônios na Camada
Oculta para o Subconjunto de Treinamento e Validação. ..........................................82
Figura IV.26 - Convergência da Rede com 21 Neurônios na Camada Oculta...........82
Figura IV.27 - Desempenho da Rede de Localização AT X Neurônios nas Camadas
Ocultas para o Subconjunto de Treinamento e Validação..........................................84
Figura IV.28 - Convergência da Rede com 14 Neurônios nas Camadas Ocultas. .....84
Figura IV.29 - Curva de Probabilidade Acumulada para Rede de Localização de
Defeitos AT. ...............................................................................................................85
Figura IV.30 - Desempenho da Rede de Localização AB X Neurônios nas Camadas
Ocultas para o Subconjunto de Treinamento e Validação..........................................86
Figura IV.31 - Convergência da Rede com 15 Neurônios nas Camadas Ocultas. .....86
Figura IV.32 - Curva de Probabilidade Acumulada para Rede de Localização de
Defeitos AB. ...............................................................................................................87
Figura IV.33 - Desempenho da Rede de Localização ABT X Neurônios nas Camadas
Ocultas para o Subconjunto de Treinamento e Validação..........................................88
Figura IV.34 - Convergência da Rede com 19 Neurônios nas Camadas Ocultas. .....88
Figura IV.35 - Curva de Probabilidade Acumulada para Rede de Localização de
Defeitos ABT..............................................................................................................89
Figura IV.36 - Desempenho da Rede de Localização ABC X Neurônios nas Camadas
Ocultas para o Subconjunto de Treinamento e Validação..........................................90
Figura IV.37 - Convergência da Rede com 23 Neurônios nas Camadas Ocultas. .....90
Figura IV.38 - Curva de Probabilidade Acumulada para Rede de Localização de
Defeitos ABC. ............................................................................................................91
Figura C.1 – Esquema de Processamento dos Sinais. ..............................................107
Figura C.2 – Sinais no Domínio da Freqüência. ......................................................112

xi
Lista de Tabelas
Tabela III.1 - Tabela-verdade da saída da rede de classificação. ...............................50
Tabela IV.1 – Percentual de Acertos da Rede de Detecção. ......................................61
Tabela IV.2 - Percentual de Acertos da Rede de Classificação..................................63
Tabela IV. 3 – Percentual de Acertos da Rede de Detecção. .....................................81
Tabela IV.4 - Percentual de Acertos da Rede de Classificação..................................83
Tabela C.1 – Parâmetros da Linha de Transmissão..................................................113
Tabela C.2 – Impedâncias das Fontes. .....................................................................114
Tabela C.3 – Tensões Atrás das Barras. ...................................................................114
Tabela C.4 – Parâmetros da Linha de Transmissão..................................................114
Tabela C.5 – Impedâncias das Fontes. .....................................................................114
Tabela C.6 – Tensões Atrás das Barras. ...................................................................114
Tabela C.7 – Condições de Operação para Simulação.............................................115

xii
Capítulo I: Introdução

Capítulo I

Introdução

I.1 Motivações da Dissertação


A linha de transmissão é, dentre todos os equipamentos de um sistema elétrico
de potência, o que está mais sujeito a defeitos, tendo em vista sua vulnerabilidade em
relação a descargas atmosféricas, que são as principais fontes geradoras de distúrbios.
Logo, o principal objetivo dos sistemas de proteção de linhas de transmissão é impedir
que defeitos em sua área de atuação comprometam a integridade da linha, bem como a
estabilidade do sistema [ 1 ].

Contudo, devido à normalização do novo modelo do Setor Elétrico Brasileiro,


que impõe penalidades para a empresa transmissora pelo não fornecimento da energia
[ 2 ], o desligamento não programado de uma linha de transmissão pode resultar em
descontos da receita anual da empresa transmissora, que são aplicados sobre o tempo de
indisponibilidade da linha. Portanto, além da questão da qualidade e continuidade do
fornecimento, o fator econômico, que é fundamental em um ambiente competitivo,
exige um sistema de proteção e localização de defeitos de forma ágil e eficiente para
linhas de transmissão.

Sendo assim, através de uma rápida detecção do defeito com subseqüente


identificação das fases envolvidas e a sua localização, isola-se o trecho ao mesmo tempo
em que se agiliza o seu reparo, reduzindo o tempo de indisponibilidade da linha e

1
Capítulo I: Introdução

conseqüentemente as possíveis penalidades.

Todavia, a tecnologia disponível atualmente no mercado é de propriedade de


empresas estrangeiras e conseqüentemente possuem valores extremamente elevados.
Assim, o desenvolvimento de algoritmos e equipamentos que contribuam para uma
maior eficiência dos sistemas de detecção, classificação e localização de defeitos em
linhas de transmissão são de grande relevância para o setor elétrico nacional.

I.2 Objetivo da Dissertação


Esta dissertação tem como objetivo a elaboração de um esquema completo de
detecção, classificação e localização de defeitos em linhas de transmissão utilizando
redes neurais. Esta metodologia tem como característica importante a utilização das
tensões e correntes trifásicas na freqüência fundamental, que são sinais comuns em
todas as subestações, em somente um dos terminais na linha. A intenção é elaborar um
sistema de proteção alternativo, que possa trabalhar em conjunto com métodos
convencionais na proteção de linhas de transmissão, melhorando sua eficiência e
precisão.

I.3 Revisão Bibliográfica


Os primeiros estudos envolvendo Redes Neurais Artificiais (RNA) iniciaram-se
com a publicação de [ 3 ] por McCulloch e Pitts, considerada a referência número 1
para redes neurais, seguido de Hebb [ 4 ], Rosenblath [ 5 ], Widrow [ 6 ] e Minsky [ 7 ].

Após um período de estagnação nas pesquisas durante a década de 70, em 1982


surge o trabalho de Hopfield [ 8 ] e mais tarde Rumelhart [ 9 ]. A partir desse ponto
surgem diversos trabalhos com aplicações de redes neurais artificiais em diversas áreas
do conhecimento humano, como comentado em [ 10 ] e [ 11 ].

Referente a aplicações de redes neurais em sistemas de potência, podem ser


citados trabalhos como [ 12 ] no que concerne a modelagem de cargas, [ 13 ] na área de
monitoração de harmônicos, [ 14 ] no diagnóstico de falhas mecânicas em condutores

2
Capítulo I: Introdução

de linhas de transmissão e [ 15 ] em estabilidade transitória, dentre outras.

Especificamente em proteção de sistemas de potência, o conceito de proteção


adaptativa é um fator que estimulou o desenvolvimento de novas tecnologias. Este
conceito foi abordado inicialmente em [ 16 ] e [ 17 ]. Em [ 16 ] tem-se os conceitos de
proteção adaptativa de linhas de transmissão, os quais incluem modificações on-line nas
regulagens, características ou lógica de relés em resposta a modificações como
contingências relacionadas à perda de linhas ou geradores do sistema. Em [ 17 ] são
descritos resultados de uma investigação sobre as possibilidades do uso de técnicas
digitais para adaptar o sistema de controle e proteção de linhas de transmissão às
modificações do sistema em tempo real, com o desenvolvimento de estratégias
adaptativas para minimizar os problemas com confiabilidade, otimizando a performance
do sistema. Este conceito foi implementado através de algoritmos de relés digitais.
Discussões adicionais relativas aos conceitos de proteção adaptativa podem ser
encontradas em [ 18 ], [ 19 ], [ 20 ] , [ 21 ] e [ 22 ].

Assim, diversas metodologias utilizando os conceitos de proteção adaptativa


para a proteção de linhas de transmissão vêm sendo desenvolvidas e apresentadas na
literatura. Dentre essas técnicas, destacam-se as que utilizam medições nos dois
extremos da linha de transmissão [ 23 ],[ 24 ], [ 25 ], [ 26 ] e [ 27 ]. Em [ 23 ] é descrito
um módulo de localização de defeitos em linhas de transmissão a ser incorporado ao
Sistema Interligado de Apoio à Análise de Perturbações – SINAPE (CEPEL). O
módulo utiliza fasores de tensão e corrente de defeito de ambas as extremidades da linha
de transmissão através do processamento das amostras armazenadas por oscilógrafos
digitais. Nesse caso os sinais são sincronizados por satélite (GPS – Global Positioning
System), o qual age sobre o disparo dos oscilógrafos corrigindo o instante de disparo do
registrador. No entanto, não há garantia de que as amostras foram obtidas no mesmo
instante de tempo. Para minimizar esse erro, aumenta-se a freqüência de amostragem.
Em [ 24 ] é descrito um relé diferencial que utiliza medições sincronizadas das duas
extremidades da linha de transmissão, com estrutura de sincronização de sinais
semelhante à utilizada em [ 23 ]. Em [ 25 ], aplicando-se a técnica PMU (Phasor
Measurement Units) para sincronização de sinais, é mostrado um algoritmo para
localização de defeitos em linhas de transmissão usando superposição dos fasores de
tensão e corrente nos dois terminais da linha de transmissão. As unidades de medição de
fasores são instaladas nas duas extremidades da linha de transmissão e um gerador

3
Capítulo I: Introdução

global de sincronismo (GSCG – Global Synchronism Clock Generator) estabelece o sinal de


referência para sincronismo das medições, garantindo assim grande precisão na
sincronização dos sinais amostrados. Em [ 26 ], onde também é utilizada a técnica PMU,
é descrito um método de localização de defeitos para linhas de transmissão usando
medições sincronizadas de tensão dos dois terminais da linha e as matrizes de
impedância de fonte atrás das barras, para uma dada linha sob estudo. Da mesma
maneira, em [ 27 ] é apresentado um esquema completo para proteção de linhas de
transmissão utilizando medições sincronizadas com a técnica PMU em ambas as
extremidades da linha.

Em [ 28 ] e [ 29 ] são examinados diversos métodos de sincronização de sinais e


é possível observar que, apesar de eficientes, esses métodos requerem uma complexa
estrutura de operação. Deve-se considerar também que nem sempre há disponibilidade
de acesso aos sinais registrados nas duas extremidades em tempo hábil, de forma a
serem utilizados para monitoração de defeitos, limitando-se a aplicação dessas técnicas.

Com isso, os métodos que utilizam sinais de tensão e corrente em apenas um


terminal também devem ser considerados importantes, como é o caso do método de
Takagi [ 30 ]. O Método de Takagi é um dos mais conhecidos de localização de defeitos
a partir de medições em um terminal. Este método baseia-se no cálculo da reatância da
linha de transmissão sob defeito e se propõe a corrigir distorções provocadas por
diferentes carregamentos da linha de transmissão e resistência de defeito, porém,
depende do fiel mapeamento das componentes de seqüência zero da linha de
transmissão.

Ainda em relação aos métodos que utilizam sinais em um único terminal, os


mesmos normalmente baseiam-se em equações de rede [ 31 ][ 32 ] e como mencionado
em [ 33 ] e [ 24 ], são sensíveis a variações dos parâmetros do sistema, tais como
impedâncias da fonte, ângulo de incidência de defeito, condições de carregamento do
sistema, etc. Em [ 31 ] é apresentado um método de localização de defeitos através de
relés de distância. Esse método utiliza a impedância medida no instante do defeito e só
funciona para curtos francos. Em [ 32 ] é apresentado um algoritmo de localização de
defeitos que aplica o método de Newton-Raphson às equações de rede para indicar o local
de ocorrência do defeito. Embora seja eficiente, necessita de atualizações da impedância
de fonte do terminal remoto sempre que ocorrer uma modificação no sistema.

4
Capítulo I: Introdução

Sendo assim, diversos trabalhos que utilizam RNA têm sido apresentados como
alternativa para proteção de linhas de transmissão. Referente às aplicações de redes
neurais na detecção de defeitos em sistemas de potência, pode-se citar [ 34 ] e [ 35 ]. Em
[ 34 ] é descrito um discriminador de direção de defeito que utiliza uma rede neural
multicamadas diretamente alimentada para analisar os valores instantâneos de tensão e
corrente da linha de transmissão e assim tomar decisões. Em [ 35 ] é encontrada uma
abordagem para detecção de defeitos de alta impedância a partir de medições de
corrente em um terminal, a partir da tecnologia de processamento de sinais utilizada em
dispositivos comerciais, utilizando-se algoritmos baseados em redes neurais, estatística
de ordem superior e transformada wavelet.

Aplicações para classificação de defeitos podem ser encontradas em [ 36 ] e


[ 37 ]. Em [ 36 ] utilizam-se RNA e conceitos de processamento digital de sinais para
implementar um esquema de classificação de defeitos a partir de amostras de tensão e
corrente. Em [ 37 ] os mesmos conceitos são utilizados com a diferença de que em [ 36 ]
a rede neural possui 30 entradas, que são 5 amostras consecutivas das tensões e
correntes trifásicas da linha de transmissão e em [ 37 ] a rede neural tem 24 entradas,
constituídas por 4 amostras consecutivas das tensões e correntes trifásicas da linha.

Trabalhos desenvolvidos em [ 38 ] e [ 39 ] podem ser citados como aplicações


de RNA para localização de defeitos em linhas de transmissão. Em [ 38 ] encontra-se
uma aplicação de redes neurais em proteção de distância. A ênfase do trabalho está na
criação de um sistema de detecção mais seletivo no que concerne a defeitos com
resistência de arco, onde a contribuição da seqüência zero dificulta a localização do
defeito. Também em [ 39 ] observa-se a utilização de redes neurais como classificadores
de padrão para operação de relés de distância.

Podem ser citados ainda trabalhos como [ 40 ] e [ 41 ] como desenvolvimentos


de esquemas para detecção, classificação e localização de defeitos em linhas de
transmissão utilizando inteligência artificial. Em [ 40 ] é utilizada uma técnica
denominada seleção ótima de características no domínio wavelet e supervisionada por
redes neurais num esquema completo de detecção, classificação e localização de defeitos
em LT. De maneira semelhante, em [ 41 ] é apresentado um modelo alternativo
utilizando redes neurais com 24 entradas, que são os valores consecutivos de tensão e
corrente trifásicas da linha.

5
Capítulo I: Introdução

De forma geral, os trabalhos utilizando redes neurais em proteção de linhas de


transmissão caracterizam-se por restringir alguns parâmetros de simulação, tais como
valores de impedância de defeito, valores dos ângulos de incidência de defeitos, etc.
Estas considerações podem limitar a aplicação de RNA em casos reais [ 42 ].

Devido a esses e outros motivos, a aplicação de redes neurais artificiais em


proteção de linhas de transmissão ainda é incipiente, constituindo um campo promissor
para pesquisas, onde o objetivo é promover uma melhoria no desempenho dos sistemas
de proteção convencionais ou até mesmo substituí-los [ 43 ].

I.4 Publicações Decorrentes da Dissertação


“Redes Neurais Artificiais Aplicadas na Detecção e Classificação de Faltas em
Linhas de Transmissão”, artigo aceito no VI Congresso Latino Americano de Geração e
Transmissão de Energia Elétrica (CLAGTEE), Mar Del Plata, Novembro de 2005.

I.5 Estrutura da Dissertação


Além desse capítulo, esta dissertação contém mais quatro capítulos e três
apêndices. O capítulo II é uma introdução a RNA, onde são apresentadas as
características gerais de redes neurais, bem como os conceitos que envolvem
arquiteturas de redes, processos de treinamento e técnicas para melhoria de
desempenho.

O capítulo III trata da aplicação de RNA em proteção de linhas de transmissão.


São abordadas questões relativas ao modelo de linhas de transmissão, à utilização do
software ATP para simulação dos defeitos, à montagem de banco de dados para
treinamento das redes neurais assim como as características dos módulos de detecção,
classificação e localização de defeitos.

No capítulo IV são apresentados e discutidos os resultados obtidos mediante a


aplicação da metodologia proposta. Para tanto, são utilizados dois sistemas teste.

6
Capítulo I: Introdução

No capítulo V são apresentadas as principais conclusões do trabalho e sugestões


para desenvolvimentos futuros.

O Apêndice A apresenta alguns aspectos de técnicas de otimização irrestrita.

O Apêndice B apresenta a formulação matemática do algoritmo de


retropropagação, utilizado para treinamento de RNA.

O Apêndice C apresenta uma breve explanação sobre processamento de sinais.

Finalizando, o Apêndice D mostra os dados dos sistemas elétricos equivalentes


utilizados nesta dissertação.

7
Capítulo II

Redes Neurais Artificiais

II.1 Considerações Iniciais


A motivação do estudo e aplicação de Redes Neurais Artificiais (RNA) passa
pelo reconhecimento de que o cérebro humano processa informações de uma forma
distinta do computador digital convencional. Com a capacidade de organizar sua
estrutura neuronal, é capaz de realizar certos processamentos, como reconhecer padrões
mais rapidamente que o computador digital.

Um cérebro é uma máquina que tem uma grande habilidade de desenvolver suas
próprias regras. Uma rede neural artificial, por conseguinte, deve ter a capacidade de
modelar a maneira como o cérebro realiza uma tarefa. O principal atrativo para o uso de
RNA na solução de problemas é a capacidade de aprender através de exemplos e de
generalizar o conhecimento aprendido.

Conceitualmente, uma rede neural é um processador maciçamente paralelamente


distribuído, constituído de unidades de processamento simples, que têm a propensão
natural para armazenar conhecimento experimental e torná-lo disponível para uso [ 44 ].

As principais características das redes neurais são [ 44 ]:

• Possibilidade de considerar o comportamento não linear dos fenômenos


físicos;

8
Capítulo II: Redes Neurais Artificiais

• Necessidade de pouco conhecimento estatístico sobre o ambiente onde a


rede está inserida;

• Capacidade de aprendizagem, obtida através de exemplos entrada/saída


que sejam representativos do ambiente;

• Habilidade de aproximar qualquer mapeamento entrada/saída de


natureza contínua;

• Adaptabilidade;

• Generalização;

• Tolerância a falhas;

• Informação contextual;

• Armazenamento do conhecimento adquirido, através de forças de


conexão entre neurônios, conhecidas como pesos sinápticos.

Assim, cada vez mais as redes neurais vêm sendo empregadas nos mais diversos
campos do conhecimento.

II.2 O Cérebro Humano


O cérebro humano é considerado o mais fascinante processador baseado em
carbono existente [ 44 ]. Todas as funções e movimentos do organismo estão
relacionados ao funcionamento destas pequenas células. Os neurônios estão conectados
uns aos outros através de sinapses, e juntos formam uma grande rede, chamada rede
neural. As sinapses transmitem estímulos através de diferentes concentrações de Na+ e
K+, e o resultado disto pode ser estendido por todo o corpo humano. Esta grande rede
proporciona uma fabulosa capacidade de processamento e armazenamento de
informação.

9
Capítulo II: Redes Neurais Artificiais

Tipicamente os neurônios são de cinco a seis ordens de grandeza mais lentos


que as portas lógicas em silício (10-3s x 10-9s). Entretanto, o cérebro compensa a taxa de
operação relativamente baixa (do neurônio) pelo expressivo número de células nervosas,
com conexões maciças entre si [ 44 ].

Estima-se que haja aproximadamente 10 bilhões de neurônios no córtex


humano e 60 trilhões de conexões entre os mesmos [ 44 ]. As conexões entre os
neurônios, também chamadas de sinapses, são as unidades que medeiam as interações
entre os neurônios. Uma sinapse é uma conexão simples que pode impor ao neurônio
que a recebe um estímulo que pode excitá-la ou inibi-la, mas não pode provocar os dois
efeitos ao mesmo tempo.

Células piramidais, como a da Figura II.1, são um dos tipos mais comuns de
neurônio do córtex, os quais recebem a maioria de seus estímulos por meio de espinhas
dendritais. Essas células são capazes de receber dez mil ou mais conexões sinápticas e
podem se projetar sobre milhares de células-alvo [ 44 ].

Figura II.1 - Neurônio Humano.

Os dendritos, como mostrados na Figura II.1 formam uma região onde os sinais
de entrada são recebidos. O corpo do neurônio, também chamado de somma, é
responsável por coletar e combinar informações vindas de outros neurônios. Os axônios
são as vias através das quais o sinal é transportado até a outra extremidade do neurônio.
Estes podem ser vistos como linhas de transmissão, pois são longos, finos e possuem
alta resistência elétrica e capacitância, distribuídos uniformemente ao longo de sua
extensão [ 44 ].

10
Capítulo II: Redes Neurais Artificiais

As sinapses constituem o patamar fundamental quando se trata de organização


anatômica do cérebro. Em patamares superiores temos os microcircuitos neurais, que
nada mais são do que sinapses agrupadas para uma determinada operação funcional. O
conjunto desses circuitos forma subunidades dendritais dentro das árvores dos
neurônios, que são numerosas em um neurônio. Em seqüência, têm-se os circuitos
locais, que são conjuntos de neurônios. Posteriormente os circuitos inter-regionais,
formados por caminhos, colunas, mapas topográficos, abrangendo diversas áreas do
cérebro.

É importante ressaltar que os neurônios que formam redes neurais artificiais são
primitivos em comparação com aqueles encontrados no cérebro.

II.3 Modelagem do Neurônio Artificial


O modelo do neurônio artificial é mostrado na Figura II.2.

Bias
bk

Entrada
x1
Wk1

x2
Wk2 vk Saída
F(vk) yk

xm Somador Função de Ativação


Wkm

Figura II.2 - Modelo do Neurônio Artificial.

Sendo o neurônio uma unidade de processamento de informação fundamental


para a operação de uma rede neural, podemos identificar três elementos básicos em seu
modelo:

• Sinapse: Conexão caracterizada por um “peso” ou “força própria”.


Uma sinapse m, que está conectada a um neurônio k, recebe um sinal xm

11
Capítulo II: Redes Neurais Artificiais

que por sua vez é multiplicado pelo peso sináptico wkm. No caso de
modelagem de neurônios artificiais, os valores dos pesos podem ser
também negativos se as sinapses forem inibitórias, ou positivos, se as
sinapses forem excitatórias. Os pesos sinápticos têm a função de
determinar a importância dos sinais de determinada região.

• Somador: Combinador linear, que realiza o somatório das entradas do


neurônio, ponderadas pela ação dos respectivos pesos sinápticos.

• Função de Ativação: Função que restringe a amplitude do sinal de


saída ao condicionar a ativação do sinal à ultrapassagem de um
determinado limiar pelo valor da soma ponderada das entradas. Os
intervalos típicos de normalização de saída são [0,1] e [-1,1].

OBS.: Complementarmente, tem-se o bias, que tem aplicação externa e tem a


capacidade de aumentar ou diminuir a entrada da função de ativação.

Matematicamente, um neurônio pode ser descrito como:

yk = F ( vk + bk ) (II.1)

Onde:

m
vk = ∑ wkj .x j (II.2)
j =1

Onde:

x1, x2, x3,... , xm Vetor de entrada.

wk1, wk2, wk3,... , wkm Pesos sinápticos do neurônio k.

vk Saída do combinador linear (Somador).

bk Bias.

12
Capítulo II: Redes Neurais Artificiais

F( ) Função de ativação.

yk Saída do neurônio k.

II.3.1 Tipos de Função de Ativação

A função de ativação F(v) define a saída de um neurônio em termos do campo


induzido v. Podemos citar quatro tipos básicos de função de ativação: linear, limiar,
rampa (linear por partes) e sigmoidal.

A função linear está ilustrada na Figura II.3:

Figura II.3 - Função Linear.

E é definida pela equação (II.3):

F (vk ) = vk (II.3)

A função limiar está ilustrada na Figura II.4

Figura II.4 - Função Limiar.

13
Capítulo II: Redes Neurais Artificiais

E é definida como:

0, vk < 0
F (vk ) =  (II.4)
 1, vk ≥ 0

A função de ativação rampa, mostrada na Figura II.5,

F(vk)

-s +s vk

Figura II.5 - Função Rampa.

Nada mais é do que a função linear em uma faixa [-s,+s] e saturada fora desta
faixa, como descreve a equação (II.5):

0, vk ≤ − s
 m

F (vk ) =  ∑ wkj x j + bk , − s < vk < + s (II.5)
 j =1
1, vk ≥ + s

A função sigmóide, ilustrada na Figura II.6, é uma função semilinear, limitada e


monótona. É definida como uma função estritamente crescente que exibe um
balanceamento adequado entre comportamento linear e não-linear.

F(vk)
1

0 vk

Figura II.6 - Função Sigmóide.

14
Capítulo II: Redes Neurais Artificiais

Um exemplo de função sigmoidal é a função logística, definida pela equação


(II.6):

1
F (vk ) = (II.6)
1 + e( − vk / T )

Onde T determina a inclinação da sigmóide. Quando T tende a zero, a função


assume características de uma função limiar.

Quando é desejável que a função de ativação tenha uma forma anti-simétrica em


relação à origem, assumindo assim valores entre [-1,+1], pode-se utilizar, por exemplo, a
função tangente hiperbólica.

II.3.2 Arquiteturas de Rede

Definir a arquitetura de uma RNA é muito importante devido ao fato de que seu
arranjo depende do problema a ser tratado pela rede. Ademais, a arquitetura da rede está
intimamente relacionada ao algoritmo de aprendizagem usado para treinamento. Na
escolha da estrutura a ser utilizada são analisados: número de camadas, número de nós,
tipo de conexões entre os nós e a topologia da rede.

Em geral, podemos identificar três tipos básicos de arquiteturas:

II.3.2.1 Redes Diretas de Uma Camada

São redes neurais constituídas por apenas um agrupamento de neurônios que


recebem informação simultaneamente. Este agrupamento recebe o nome de camada.
Esse tipo de rede também é acíclica, ou seja, não possui laços de realimentação. Como
pode ser observado na Figura II.7, há uma camada de nós de fonte que recebem sinais
de excitação do meio externo e estes se conectam com a camada de neurônios, que por
sua vez, ligam-se aos nós de saída da rede [ 44 ].

15
Capítulo II: Redes Neurais Artificiais

Figura II.7 - Rede Direta de 1 Camada.

Esse tipo de rede é utilizado em telecomunicações, onde modems de alta


velocidade de transmissão utilizam equalizadores adaptativos de linha e canceladores
adaptativos de eco. Cada um desses sistemas adaptativos utiliza uma rede neural [ 45 ].

II.3.2.2 Redes Diretas (feed-forward) de Camadas Múltiplas

São redes que, assim como as redes de uma camada, possuem fluxo de
informação unidirecional, porém, neste caso, há presença de camadas ocultas, cujos nós
computacionais são chamados de neurônios ocultos. Devido ao conjunto extra de
conexões sinápticas e da riqueza de interações neurais, as camadas ocultas são capazes
de extrair características complexas do ambiente em que atuam [ 44 ].

Nas redes de múltiplas camadas, como a mostrada na Figura II.8, cada camada
tem uma função específica. A camada de saída final recebe os estímulos da camada
intermediária e constrói a resposta global para o padrão de ativação fornecido pelos nós
de fonte da camada de entrada. As camadas intermediárias funcionam como extratoras
de características, codificando através de seus pesos as características apresentadas nos
padrões de entrada, fazendo com que a rede crie uma representação própria do
problema, com mais riqueza e complexidade [ 46 ].

Uma rede neural artificial necessita de no máximo duas camadas intermediárias,


com um número suficiente de unidades por camada, para produzir quaisquer
mapeamentos, e redes com apenas uma camada intermediária são suficientes para
aproximar qualquer função contínua, conforme demonstrado por Cybenko em [ 47 ].

16
Capítulo II: Redes Neurais Artificiais

Figura II.8 - Rede Direta de Múltiplas Camadas.

Aplicações de redes de múltiplas camadas podem ser citadas na área de


reconhecimento de caracteres. Por exemplo, redes neurais que reconhecem caracteres da
língua japonesa, constituídas de 10 milhões de sinapses, possuem desempenho bem
superior ao dos sistemas convencionais. Outra aplicação é em controle de qualidade,
onde existem aplicações na área de detecção de nível de contaminação, classificação de
erros em alto-falantes e até avaliação do grau de pureza do suco de laranja.

II.3.2.3 Redes Recorrentes (feed-backward)

Redes recorrentes são redes que possuem pelo menos um laço de realimentação,
como está ilustrado na Figura II.9. A presença de laços de realimentação tem um
impacto profundo na capacidade de aprendizagem da rede e no seu desempenho devido
ao seu comportamento dinâmico. Além disso, os laços de realimentação envolvem o uso
de ramos particulares compostos de elementos de atraso unitário, o que resulta em um
comportamento dinâmico não-linear, quando se admite que a rede neural tenha
unidades não-lineares.

Figura II.9 - Rede Recorrente.

17
Capítulo II: Redes Neurais Artificiais

Como exemplos de redes recorrentes pode-se citar:

• Rede de Hopfield: Desenvolvida por J.J.Hopfield [ 8 ]. É utilizada para


reconhecimento de imagens;

• Rede de Kohonen: Desenvolvida pelo Prof. Teuvo Kohonen [ 48 ], é


utilizada para classificação de padrões, otimização de problemas e
simulações.

• Redes ART (Adaptive Resonance Theory): Representa um único


neurônio artificial que recebe entrada de várias outras unidades
semelhantes [ 49 ]. Tem por base as características da teoria da
ressonância adaptativa, que consiste na habilidade de se adaptar diante de
novas entradas. É utilizada para reconhecimento de sinais de radar e
processamento de imagens.

II.3.3 Aprendizagem

O objetivo da aprendizagem é determinar a intensidade das conexões entre os


neurônios em uma rede neural. O conjunto de procedimentos bem definidos para
adaptar os parâmetros de uma RNA, de modo a fazer com que ela aprenda determinada
função, recebe o nome de algoritmo de aprendizagem.

O que distingue os diversos algoritmos de aprendizagem existentes é o modo


pelo qual o ajuste de pesos é feito. Aplicar um algoritmo de aprendizagem a uma
determinada rede neural consiste em apresentar à rede padrões de informação num
processo iterativo onde os pesos sinápticos serão ajustados, adquirindo dessa maneira o
conhecimento do ambiente no qual irá operar.

Basicamente há dois tipos de paradigmas de aprendizagem: Aprendizagem com


Professor e Aprendizagem sem Professor.

18
Capítulo II: Redes Neurais Artificiais

II.3.3.1 Aprendizagem com Professor

Também denominada Aprendizagem Supervisionada, é o método de aprendizagem


em que a rede possui um “professor” que possui conhecimento a respeito de
determinado ambiente. Quando a rede recebe uma informação deste ambiente, o
“professor” fornece juntamente a resposta esperada para determinado estímulo.

Como pode ser observado na Figura II.10, a rede utiliza como orientação para o
ajuste dos pesos sinápticos um sinal de erro gerado pela discrepância entre a saída
esperada (fornecida pelo “professor”) e a saída obtida (calculada). A cada par entrada-
saída esperada apresentada à rede, um sinal de erro é gerado e os pesos sinápticos são
ajustados de forma a minimizar o erro de saída da rede. Um dos parâmetros
normalmente utilizados para aferição do desempenho de uma RNA é a soma dos erros
quadráticos das saídas da rede para todo universo de amostras [ 45 ]. O erro quadrático é
também utilizado como função objetivo a ser minimizada pelo algoritmo de
treinamento. O algoritmo mais utilizado para treinamento com professor é o algoritmo
de retropropagação [ 9 ], também chamado Backpropagation, que será detalhado na seção
II.3.6.1.

Figura II.10 - Aprendizagem Supervisionada.

Podem ser citados como exemplos típicos de aprendizagem com professor


problemas de aproximação de funções, modelagem de sistemas e classificação de dados.

19
Capítulo II: Redes Neurais Artificiais

II.3.3.2 Aprendizagem sem Professor

Nesse paradigma de aprendizagem não há um par entrada-saída esperada sendo


entregue à rede: a rede recebe os estímulos do ambiente sem os valores de resposta
esperados, ou seja, não há professor para supervisionar a aprendizagem.

Aqui são discriminados dois tipos de aprendizagem sem professor: Aprendizagem


por Reforço e Aprendizagem Não-Supervisionada.

II.3.3.2.1 Aprendizagem por Reforço

Esse paradigma é baseado na idéia de que, se estados satisfatórios ocorrem


devido à determinada ação, então a tendência do sistema de produzir esta ação particular
é reforçada; caso contrário, a tendência é enfraquecida. Em se tratando de sistemas
biológicos, quanto maior a satisfação obtida em decorrência de determinada experiência,
maiores serão as chances de ocorrer o aprendizado[ 44 ].

Apesar de não haver professor indicando as respostas esperadas para os


estímulos do ambiente, este paradigma fornece base para que haja interação da rede com
o ambiente, desenvolvendo a habilidade para realização das tarefas a partir dos
resultados de sua própria experiência, caracterizando assim um problema de
aprendizagem baseado em comportamento. Esse paradigma é adequado quando se
consideram problemas para situações dinâmicas, em que é muito complexo reunir um
conjunto satisfatório de pares entrada-saída para treinamento. Dessa maneira, a rede
aprende a tomar boas decisões a partir da observação de seu próprio comportamento e
melhora suas ações através de um mecanismo de reforço. Esse tipo de aprendizagem é
inspirado na aprendizagem infantil humana. Uma criança costuma realizar ações
aleatórias e, de acordo com as respostas de seus pais (elogio ou reclamação), aprende
quais daquelas ações são boas e quais são ruins.

No diagrama da Figura II.11, pode ser observado que o sinal de reforço que a
rede recebe é gerado por um “crítico”, que recebe um sinal do ambiente através de um
processo de decisão que pode ser por exemplo o processo Markoviano [ 44 ]. Se a ação
acarretar uma degradação no desempenho da rede, o reforço será negativo, fazendo com

20
Capítulo II: Redes Neurais Artificiais

que a ação ocorra com menos chance em situações futuras. Se, por outro lado, a ação
resultar em uma melhoria de desempenho da rede, ocorrerá um reforço positivo, com
maior probabilidade de ocorrência dessa ação no futuro. O objetivo da aprendizagem é
a maximização do reforço e conseqüentemente a melhoria do desempenho [ 45 ]. Em
termos de programação neurodinâmica, podemos dizer que as boas decisões da rede são
tomadas com base em seu próprio comportamento e o reforço auxilia na melhoria de
suas ações.

Essas características da aprendizagem por reforço a tornam uma opção


naturalmente interessante para resolver o problema de adaptação ao usuário, que tem
como fator crítico a necessidade de constante aprendizado. Além disso, a não utilização
de conhecimento do domínio de aplicação torna o método genérico para ser aplicado
por exemplo, em diferentes tipos de jogos eletrônicos [ 50 ].

A aprendizagem por reforço é utilizada quando não se consegue obter exemplos


de comportamento correto para as situações que o agente enfrenta ou quando o agente
atuará em um ambiente desconhecido.

Figura II.11 - Aprendizagem por Reforço.

21
Capítulo II: Redes Neurais Artificiais

II.3.3.2.2 Aprendizagem Não-Supervisionada

O objetivo de um algoritmo para aprendizagem auto-organizada é descobrir


padrões significativos ou características nos dados de entrada e fazer esta descoberta
sem um professor.

Quando as únicas informações disponíveis são os valores de entrada da rede, a


tarefa de aprendizagem é descobrir correlações entre os exemplos de treinamento.
Inicialmente, o número de categorias ou classes não está definido. Isso significa que a
rede tem que achar atributos estatísticos relevantes, ou seja, ela tem que desenvolver
uma representação própria dos estímulos apresentados às suas entradas. Há necessidade
de haver redundância de dados de entrada, sem o qual seria impossível encontrar
padrões. Alguns métodos de implementação de aprendizado não-supervisionado são
Hebbiano e por Competição [ 44 ]. A Figura II.12 ilustra este tipo de aprendizagem:

Figura II.12 - Aprendizagem Não-Supervisionada.

Como exemplo de aplicação de aprendizagem não-supervisionada pode-se citar


o problema de identificação de usuários de cartão de crédito com base em seus perfis de
compra. É um problema de categorização de dados, onde a rede deve retornar o
número de classes de usuários e quais pertencem a cada classe [ 45 ].

II.3.4 Tarefas de Aprendizagem

Quando se trabalha com RNA é importante ressaltar que o tipo de algoritmo de


aprendizagem a ser utilizado está intimamente relacionado com a tarefa a ser executada
pela rede. A seguir, algumas tarefas básicas de aprendizagem:

• Associação de Padrões

Pode-se classificar a associação em auto-associação e heteroassociação. No


primeiro caso, apresenta-se um conjunto de padrões para que ocorra a fase de

22
Capítulo II: Redes Neurais Artificiais

armazenamento desse conjunto. Após essa fase, são apresentados à rede os mesmos
padrões, porém com características distorcidas. Nesta fase a rede deve recordar-se dos
padrões apresentados e, através de associação, apresentar resposta correta ao estímulo.
Observa-se nesse caso o uso de aprendizagem não-supervisionada. Já para a
heteroassociação, como existe um conjunto de pares entrada-saída esperados, utiliza-se
aprendizagem supervisionada.

• Reconhecimento de Padrões

O processo de reconhecimento de padrões passa por uma fase de treinamento,


onde se apresenta à rede um conjunto de padrões (repetidamente), juntamente com a
classe à qual cada padrão pertence. Com a fase de treinamento completa, são
apresentados à rede padrões nunca antes vistos pela rede, mas que pertencem às
mesmas classes dos elementos utilizados na fase de treinamento. A rede adquire a
capacidade de identificar a qual classe pertence cada nova entrada apresentada, a partir
da extração de características promovida na fase de treinamento. Para o caso de redes de
múltiplas camadas, realiza-se aprendizagem supervisionada e as camadas ocultas são
responsáveis pela extração de características do ambiente. Um maior detalhamento
sobre redes de múltiplas camadas será feito nas seções subseqüentes.

• Aproximação de Funções

Nesta tarefa, o objetivo é treinar uma rede neural que seja capaz, a partir de um
conjunto de pares entradas-saídas, de mapear uma determinada relação funcional que
contemple o universo de amostras sob análise.

Na Figura II.13 a entrada x é apresentada à RNA e à função desconhecida f(x).


As saídas esperadas e obtidas geram um sinal de erro que é usado para orientar a
calibração dos pesos da rede. O processo é dado por encerrado quando o sinal de erro é
reduzido a valores inferiores a uma determinada tolerância. Nesse caso é clara aplicação
de aprendizagem supervisionada.

23
Capítulo II: Redes Neurais Artificiais

Figura II.13 - Aproximação de Funções.

• Controle

Redes neurais também podem ser utilizadas em controle de processos em um


determinado sistema. Considere o diagrama mostrado na Figura II.14

Figura II.14 - Controle de Processos.

Observa-se que a saída do processo é alimentada de volta para a entrada, para


ser subtraída de um sinal de referência provido por uma fonte externa, a fim de que um
sinal de erro seja composto, o qual será aplicado à RNA para que seja feito o ajuste de
seus parâmetros livres. O ajuste tem o objetivo de fazer com que a saída do processo
siga o sinal de referência, através do fornecimento de entradas apropriadas ao processo.
Aqui, encontra-se outra tarefa que requer aprendizagem supervisionada.

II.3.5 Perceptrons de Uma Camada

O perceptron é a forma mais simples de uma RNA classificadora de padrões que


podem ser separados por um hiperplano, ou seja, linearmente separáveis. É composto
basicamente por uma unidade neuronal, com seus pesos sinápticos ajustáveis, acrescido
do bias. Devido ao fato de que o primeiro algoritmo dedicado ao treinamento do
perceptron ter sido desenvolvido por Rosenblatt [ 5 ], é comum designar perceptron
como Perceptron de Rosenblatt. Outra característica importante do Perceptron de Rosenblatt

24
Capítulo II: Redes Neurais Artificiais

está no fato de que um perceptron com somente uma unidade neuronal é capaz de
classificar padrões com duas classes. Quando se acrescentam unidades neuronais ao
perceptron, ele se torna capaz de classificar padrões com mais de duas classes, desde que
as mesmas sejam linearmente separáveis, ou seja, hiperplanos delimitarão os limites
entre as classes.

O modelo Adaline(Adaptive Linear Neuron) [ 6 ] é contemporâneo ao modelo


do perceptron. Ambos são baseados na idéia de existir elementos de processamento
executando operações de soma ponderada e posterior comparação com um valor limiar
e são treinados através de aprendizagem supervisionada, porém com abordagens
diferentes.

Os modelos do perceptron e do Adaline diferem entre si pelo algoritmo


empregado para treinamento [ 51 ]. O algoritmo de treinamento do Adaline,
denominado Algoritmo do Mínimo Quadrado Médio, popularmente conhecido como Regra
Delta, deu origem ao algoritmo de retropropagação ou Backpropagation, para perceptrons de
múltiplas camadas. O modelo Adaline também se diferencia do perceptron pelo fato de
que o erro de saída é calculado em relação à sua saída linear e não em relação à sua saída
não linear, como no perceptron, que será visto a seguir.

II.3.5.1 Perceptron de Rosenblatt

Como pode ser observado na Figura II.15, o perceptron consiste de um


combinador linear (Somador) seguido por uma função limiar(F(v)), caracterizando assim
uma modelagem de neurônio não-linear. O Somador calcula uma combinação linear das
entradas aplicadas aos pesos sinápticos, agregando um bias externo. O campo local
induzido resultante é submetido à função de ativação F(v), que nesse caso é a função
sinal, a qual se parece com a função limiar (Figura II.4), sendo que a saída é levada para
+1 se a entrada for positiva ou -1, se a entrada for negativa.

25
Capítulo II: Redes Neurais Artificiais

Figura II.15 - Perceptron com 1 Neurônio.

Para que seja descrito o algoritmo de aprendizagem do perceptron, é necessário


considerar os seguintes elementos:

x(n)=[+1,x1(n), x2(n), x3(n),... , xm(n)] Vetor de entrada.

w(n)=[b(n),w1(n), w2(n), w3(n),... , Vetor de pesos sinápticos, incluindo


wm(n)] bias b(n).

y(n) Saída obtida.

d(n) Saída desejada.

η Taxa de aprendizagem (0<η<1).


Controla o ajuste aplicado ao vetor
peso, ou seja, o tamanho do passo
que se dá em determinada direção.
Representa a rapidez com que o vetor
de pesos será atualizado.

A idéia do algoritmo de aprendizagem do perceptron é fazer com que, durante o


treinamento, seja obtido ∆w a ser aplicado ao vetor de pesos sinápticos w de forma que:

w(n + 1) = w(n) + η∆w (II.7)

26
Capítulo II: Redes Neurais Artificiais

Com w(n+1) mais próximo da solução que w(n).

Os seguintes passos formam o algoritmo de aprendizagem do perceptron:

i. Inicializar o vetor de pesos w, por exemplo, w(0)=0 [ 44 ];

ii. Estimular o neurônio, aplicando o vetor de entrada x(n) e calcular, por


conseguinte, a saída obtida:

m +1
y (n) = F (∑ wi (n) xi (n)) (II.8)
i =1

iii. Calcular o sinal de erro:

e( n ) = d ( n ) − y ( n ) (II.9)

Neste ponto cabe uma observação importante. Como a função de ativação


utilizada é a função sinal e lembrando que o perceptron é um separador linear, a saída
desejada d(n) será “1” para um determinado conjunto ou classe C1 e “-1” para outro
conjunto ou classe C2.

iv. Atualizar o vetor de pesos:

w(n + 1) = w(n) + η .e(n).x(n) (II.10)

v. Incrementar o tempo n e voltar ao passo ii.

II.3.5.2 Adaline

O algoritmo de aprendizagem do modelo Adaline baseia-se na idéia de se obter


um ponto mínimo através de um processo iterativo local, com um conjunto de
treinamento de cada vez. Esse método é conhecido como Regra Delta.

27
Capítulo II: Redes Neurais Artificiais

Considere a Figura II.16.

Figura II.16 - Adaline.

A idéia do algoritmo de aprendizagem do modelo Adaline tem as mesmas bases


adotadas para aprendizado do perceptron, ou seja:

w(n + 1) = w(n) + η∆w (II.11)

Considerando o mesmo raciocínio aplicado no Perceptron de Rosenblatt, w(n+1)


mais próximo da solução que w(n). Os seguintes passos formam o algoritmo de
aprendizagem do modelo Adaline:

i. Inicializar o vetor de pesos w, ou seja, w(0)=0 [ 44 ];

ii. Estimular o neurônio, aplicando o vetor de entrada x(n) e calcular, por


conseguinte, a saída do combinador linear:

v(n) = xT (n).w(n) (II.12)

Onde xT é o x vetor transposto.

iii. Calcular o sinal de erro:

e( n ) = d ( n ) − v ( n ) (II.13)

28
Capítulo II: Redes Neurais Artificiais

iv. Para atualizar o vetor de pesos, tem-se que considerar os valores


instantâneos para a função de custo:

1
ξ ( w) = e2 (n) (II.14)
2

Diferenciando a função de custo em relação ao vetor de peso sináptico w, no


tempo n, temos:

∂ξ ( w) ∂e(n)
= e( n ) (II.15)
∂w ∂w

Substituindo a equação (II.14) na equação (II.15):

e(n) = d (n) − xT (n).w(n) (II.16)

Derivando o erro e(n) em relação ao peso sináptico:

∂e(n)
= − x ( n) (II.17)
∂w(n)

Substituindo a equação (II.17) na equação (II.15):

∂ξ (n)
= − x(n).e(n) (II.18)
∂w(n)

Como pode ser observado, a equação (II.18) é o gradiente da função de custo


ξ(w) em relação ao vetor de pesos sinápticos w, no tempo n. Aplicando o conjugado do
gradiente como parâmetro de atualização do vetor de pesos, temos:

w(n + 1) = w(n) + η .e(n).x(n) (II.19)

29
Capítulo II: Redes Neurais Artificiais

Sendo η é uma constante de proporcionalidade que define a rapidez com que o


vetor de pesos é modificado.

v. Incrementar o tempo n e voltar ao passo ii.

Pode-se então descrever a atualização dos pesos sinápticos da seguinte maneira:

∂ξ (n)
w(n + 1) = w(n) + η . (II.20)
∂w

Considerando ∆w(n), como:

∂ξ (n)
∆w(n) = −η . (II.21)
∂w

Podemos reescrever a equação (II.20) como:

w(n + 1) = w(n) − ∆w(n) (II.22)

A equação (II.22) define a Regra Delta.

Como pode ser observado, comparando-se as equações (de atualização do


Perceptron de Rosenblatt e do modelo Adaline), as regras de atualização dos pesos
aparentemente são idênticas. Porém, a equação de ajuste para o Perceptron de Rosenblatt foi
obtida para a saída do neurônio após a aplicação da função de ativação, enquanto que
para o modelo Adaline a equação de ajuste é oriunda da saída do combinador linear do
neurônio.

No Apêndice A podem ser encontradas mais informações sobre otimização


irrestrita, conceito aplicado no desenvolvimento da Regra Delta.

No próximo tópico será descrito o algoritmo de retropropagação e sua relação com a


Regra Delta [ 44 ][ 51 ][ 52 ].

30
Capítulo II: Redes Neurais Artificiais

II.3.6 Perceptrons de Múltiplas Camadas

Redes de múltiplas camadas são aquelas que apresentam pelo menos uma
camada intermediária e sua característica mais atrativa é a capacidade de tratar dados que
não são linearmente separáveis. As suas regras de treinamento são uma generalização da
Regra Delta, empregada para o treinamento do modelo Adaline.

Podemos discriminar, em perceptrons de múltiplas camadas, três tipos básicos


de camadas: a camada de entrada, ou nós de fonte, a camada oculta, que são constituídas de nós
computacionais e a camada de saída.

Em redes de múltiplas camadas, à medida que um sinal atravessa suas camadas,


as funções implementadas tornam-se cada vez mais complexas. Essas camadas ocultas
da rede têm a capacidade de gerar uma codificação interna dos padrões da entrada, que é
usada para a definição da saída da rede, desempenhando assim a função de extratores de
características.

Com relação à capacidade da rede em função do número de camadas ocultas, é


sabido que uma camada intermediária faz com que a rede seja capaz de aproximar
qualquer função contínua e duas camadas ocultas são suficientes para aproximar
qualquer função matemática [ 47 ].

Em termos de funcionalidade, podemos apresentar a organização das camadas


de uma rede de múltiplas camadas como: A camada de entrada, também chamada de
conjunto de nós de fonte, é responsável por apresentar os padrões de entrada à rede e não
realiza processamento algum. As camadas intermediárias funcionam como extratores de
características, com a codificação interna dessas características traduzindo-se no ajuste
dos pesos sinápticos. Finalmente, a camada de saída tem a função de construir os padrões
de resposta da rede.

Para treinamento de redes de múltiplas camadas é utilizado um algoritmo que se


baseia na regra de aprendizagem por correção de erro, denominado algoritmo de
retropropagação, que será descrito na próxima seção.

31
Capítulo II: Redes Neurais Artificiais

II.3.6.1 Algoritmo de Retropropagação (Backpropagation)

Podemos sintetizar a dinâmica do algoritmo de retropropagação em dois


procedimentos básicos: a propagação do efeito de um vetor de entrada através da rede e a
propagação do sinal de erro gerado na saída da rede em sentido contrário ao das
conexões sinápticas, comumente chamado de retropropagação. Quando os padrões são
entregues às entradas e seu efeito se propaga através da rede, os pesos sinápticos são
fixos. Seu ajuste ocorre quando o sinal de erro é retropropagado através da rede. A
Figura II.17 mostra uma rede com duas camadas ocultas. O termo camada oculta
provém do fato de que essas camadas não têm ligação direta nem com a entrada, nem
com a saída da rede.

Camada 1 de Camada 2 de
Camada de Neurônios Neurônios
Nós de Fonte Ocultos Ocultos

Camada
de Saída

Saída

Figura II.17 - Rede com 2 Camadas Ocultas.

Definindo o neurônio em negrito na camada2 como neurônio j e o neurônio em


negrito na camada de saída como neurônio k, pode-se gerar a seguinte representação em
grafos orientados [ 44 ], como ilustrado na Figura II.18:

Neurônio j Neurônio k
+1 +1

dk(n)

wj0(n) wk0(n)

wji(n) wkj(n) vk(n) F(.) ek(n)


vj(n) F(.) yj(n) yk(n) -1
yi(n)

Figura II.18 - Grafo Orientado.

32
Capítulo II: Redes Neurais Artificiais

Como pode ser observado na Figura II.18, foi selecionado um neurônio


pertencente a uma camada oculta e outro pertencente à camada de saída. A partir desses
posicionamentos dos neurônios na rede, o algoritmo de retropropagação será descrito.

• Passo i

Primeiramente, é necessário inicializar os pesos sinápticos da rede (matriz w).


Geralmente essa inicialização é realizada zerando a matriz de pesos sinápticos [ 44 ].

• Passo ii

Apresentar à rede os padrões de entrada com suas respectivas saídas desejadas.


Nesse ponto, cabe observar que pode ser apresentado um par entrada-saída desejada
por vez, como também todos os pares entrada-saída desejada, para então ser calculado o
erro da saída da rede. No primeiro caso, diz-se que a aprendizagem é realizada em modo
seqüencial e no segundo caso, a aprendizagem é realizada em modo por lote. A principal
diferença entre os dois modos reside no fato de que o modo seqüencial requer menor
capacidade de armazenamento de dados em memória que o modo por lote. Este, por
sua vez, fornece uma estimativa mais precisa de direção de convergência para o vetor
gradiente. A cada passo do processo iterativo, que consiste no cálculo do erro de saída
da rede com subseqüente ajuste dos pesos sinápticos, dá-se o nome de época.

A equação (II.23) define o conjunto de treinamento, com as entradas e saídas


esperadas, que serão apresentadas à rede:

Ψ = {( xld , yld )}
L

l =1
(II.23)

A ação subseqüente à apresentação das entradas e saídas esperadas é o cálculo


do erro da rede. O caminho do estímulo aplicado à entrada até a saída da rede será
descrito no passo iii.

33
Capítulo II: Redes Neurais Artificiais

• Passo iii

De acordo com a Figura II.18, podemos definir o campo local induzido do


neurônio j como:

m
v j (n) = ∑ w ji (n). yi (n) + b j (n) (II.24)
i =0
Onde m representa o número de entradas aplicadas ao neurônio j e
wj0(n)=bj(n).

Dessa maneira, a saída do neurônio j é:

y j (n) = Fj (v j (n)) (II.25)

Onde Fj(.) é a função de ativação, que descreve a relação funcional de entrada-


saída associada ao neurônio j.

A partir da Figura II.18, podemos também definir o campo local induzido do


neurônio k como:

m
vk (n) = ∑ wkj (n). y j (n) + bk (n) (II.26)
i =0

Onde m novamente representa o número de entradas aplicadas ao neurônio k e


wk0(n)=bk(n).

Dessa maneira, a saída do neurônio k é:

yk (n) = Fk (vk (n)) (II.27)

Onde Fk(.) é a função de ativação, que descreve a relação funcional de entrada-


saída associada ao neurônio k.

34
Capítulo II: Redes Neurais Artificiais

Observando as equações (II.23) e (II.25), podemos definir a seguinte equação


v (jl ) (n)
para o campo local induzido de um neurônio j, situado na camada l:

ml
v (n) = ∑ w(jil ) (n). yil −1 (n)
(l )
j (II.28)
i =0

w(jil ) (n)
Onde ml representa o tamanho da camada l, é o peso sináptico do
neurônio j na camada l, que por sua vez é alimentado pelo neurônio i da camada l-
( l −1)
1(camada anterior) e yi (n) representa a saída do neurônio i na camada l-1, na
iteração n. Essa formulação também contempla o bias, uma vez que o mesmo contribui
no campo induzido quando i=0.

A saída do neurônio j na camada l pode ser descrita como:

y (jl ) (n) = Fj (v (jl ) (n)) (II.29)

Lembrando que a primeira camada de uma rede de múltiplas camadas (nós de


fonte) não realiza processamento algum, se o neurônio j estiver na primeira camada
oculta então sua entrada será:

j ( n) = x j ( n)
y (0) 1
(II.30)

Onde o índice 0 indica que a saída pertence aos nós de fonte e o índice 1 indica
que o termo do lado direito da igualdade é entrada da primeira camada oculta.

Por outro lado, se o neurônio j está na camada de saída, temos:

y (j L ) (n) = y out
j (n) (II.31)

35
Capítulo II: Redes Neurais Artificiais

y out
j (n)
Onde o termo indica o j-ésimo elemento do vetor de saída da rede yout,
no instante n e L é a última camada da rede.

No passo iv, calcula-se o erro da rede e os pesos sinápticos são ajustados.

• Passo iv

O procedimento de ajuste dos pesos sinápticos da rede é iniciado com o cálculo


do erro de saída da rede. De acordo com o grafo da Figura II.18, o erro para a camada
de saída da rede será:

ek (n) = d k (n) − ykout (n) (II.32)

Onde dk é o k-ésimo elemento do vetor de respostas desejadas. Observa-se que


aqui há a consideração de que há mais de uma saída para a rede, o que seria uma
generalização da camada de saída da rede da Figura II.17.

A partir da equação (II.33) podemos, calcular o gradiente local através da


generalização da equação (II.22):

wkj (n + 1) = wkj (n) + η .δ k (n). yk (n) (II.33)

A dedução do cálculo do gradiente δk pode ser encontrada no Apêndice B.

A equação acima é aplicada para atualização de pesos sinápticos de neurônios


situados na camada de saída da rede. Para atualização de pesos em camadas ocultas da
rede, a atualização é feita pela equação (II.34):

w ji (n + 1) = w ji (n) + η .δ j (n). y j (n) (II.34)

Novamente, a dedução do cálculo do gradiente δj pode ser encontrada no


Apêndice B.

36
Capítulo II: Redes Neurais Artificiais

O processo de apresentação de padrões de entrada e correção dos pesos


sinápticos perdura até que tenha sido realizado determinado número de épocas
(iterações), quando o erro médio quadrático for inferior a um valor pré-estabelecido ou
quando o desempenho de generalização atingir o máximo. Na próxima seção este assunto será
discutido com mais detalhes.

II.3.6.2 Desempenho do Algoritmo de Retropropagação

A maioria das técnicas para melhorar o desempenho do algoritmo de


retropropagação foi desenvolvida de forma empírica, baseada em tentativa e erro.
Alguns procedimentos relevantes serão descritos a seguir.

Primeiramente, pode-se discorrer sobre a função de ativação. Esta é uma das partes
mais importantes, quando se trata de redes com múltiplas camadas. Isso se deve ao fato
de a escolha de uma função de ativação contemplar sempre uma função que seja não-
linear e diferenciável, a fim de que ela possa solucionar problemas não linearmente
separáveis e que o gradiente possa ser calculado, direcionando o ajuste de pesos.
Ademais, podemos dizer que a escolha de uma função de ativação anti-simétrica
(F(-v)=-F(v)) faz com que a rede seja treinada mais rapidamente [ 44 ].

Outro aspecto importante diz respeito valor das taxas de aprendizagem. Um


algoritmo que utiliza taxa de aprendizagem fixa tende a ser lento em sua convergência,
pois o mesmo nem sempre será adequado a todas as superfícies de erro. A solução para
este problema é uma taxa de aprendizagem adaptativa. Um exemplo de aplicação de taxa
de aprendizagem adaptativa pode ser encontrado numa variante do algoritmo de
retropropagação denominado trainrp, que é descrito na seção II.3.6.4.

II.3.6.3 Generalização do Conhecimento

É desejável que uma rede neural, após sofrer treinamento, seja capaz de produzir
respostas corretas a estímulos externos, mesmo que estes não sejam exatamente iguais
aos estímulos utilizados no seu treinamento. Esta capacidade de generalização está
relacionada aos seguintes fatores: o tamanho e a representatividade do conjunto de

37
Capítulo II: Redes Neurais Artificiais

treinamento em relação ao ambiente no qual a rede irá operar, a arquitetura da rede e o


grau de complexidade do ambiente.

A complexidade do problema é uma característica que não se pode controlar. A


partir dessa premissa, para que possa ocorrer uma boa generalização, pode-se manter
fixa a arquitetura da rede e investigar o tamanho do conjunto de amostras ideal ou
estabelecer um conjunto de treinamento fixo e investigar a melhor arquitetura de rede
para esse conjunto[ 44 ].

Outra questão relevante é a escolha do universo de amostras que serão


apresentadas à rede neural. A parcela de amostras que serão utilizadas para treinamento
deve possuir uma quantidade de dados que representem as características do problema a
ser solucionado. Se essa premissa não for seguida, a rede também perde sua capacidade
de generalização, especializando-se nos dados de treinamento e sendo incapaz de
reconhecer estímulos externos, se for apresentado a ela um número excessivo de
estímulos nesta fase.

Geralmente, o número de neurônios na camada oculta é definido


empiricamente. Uma proposta é a utilização da equação mostrada na equação (II.35)
[ 44 ]:

W
N= (II.35)

Onde:

N Número de amostras do conjunto de treinamento.

W Número de parâmetros livres da rede, incluindo bias.

∈ Erro percentual desejado, em valores decimais.

38
Capítulo II: Redes Neurais Artificiais

Essa equação sugere que N seja 1/∈ vezes maior que é o número de parâmetros
livres da rede neural. Para um erro desejado de 10%, o número de amostras de
treinamento deve ser 10 vezes maior que W.

O cuidado na determinação da quantidade de neurônios nas camadas


intermediárias se deve ao fato de que se houver um número excessivo de neurônios, a
rede pode se tornar tão flexível que passa a ser especialista no conjunto de treinamento,
caracterizando assim uma situação denominada overfitting. Por outro lado, um número
reduzido de neurônios levará a rede lidar com um excesso de restrições na tentativa de
modelar o problema, levando muito tempo para encontrar a solução.

Uma ferramenta estatística denominada validação cruzada [ 54 ] é um poderoso


artifício para se evitar overfitting. Primeiramente, o universo dos dados de treinamento é
subdividido em um subconjunto de treinamento e um subconjunto de teste, de forma
aleatória. Da mesma maneira, é realizada a divisão do subconjunto de treinamento em
dois outros subconjuntos: estimação e validação. O treinamento, feito com o
subconjunto de estimação, é interrompido periodicamente e o erro da rede em relação
ao subconjunto de validação é calculado. Quando o erro do subconjunto de validação
começa a crescer, mesmo com o erro de treinamento decrescendo, decide-se por
interromper o treinamento. Para garantir que não houve ajuste excessivo da rede para o
conjunto de validação, testa-se a mesma com o subconjunto de testes. Após essa etapa a
rede pode ser considerada treinada.

A Figura II. 19 ilustra o treinamento por validação cruzada:

Figura II. 19 - Validação Cruzada.

39
Capítulo II: Redes Neurais Artificiais

II.3.6.4 Algoritmo de Treinamento “Trainrp”

Trainrp (resilient backpropagation): Redes de múltiplas camadas geralmente usam


funções de ativação sigmóides nas camadas ocultas. Essas funções mapeiam uma
entrada com faixa de variação infinita em uma saída com faixa de variação finita.
Funções sigmoidais são caracterizadas pelo fato de sua inclinação aproximar-se de zero
quando a entrada se torna grande. Isso faz com que o gradiente nesse ponto assuma
valores muito pequenos, levando assim a atualizações muito suaves nos pesos
sinápticos, mesmo quando estes estão distantes dos valores ótimos [ 53 ].

Para solucionar o problema de magnitude do gradiente, aproveita-se apenas o


sinal da derivada do erro quadrático para determinar a direção de atualização dos pesos
sinápticos. O valor de atualização dos pesos e bias é acrescido de um valor η+ toda vez
que a derivada da função de performance relativa a determinado peso mantém o mesmo
sinal por duas iterações consecutivas, acelerando a convergência. O valor de atualização
decresce de um fator η- toda vez que a derivada da função de performance relativa a
determinado peso muda de sinal em relação á iteração anterior, corrigindo a direção de
ajuste. Se a derivada for zero, o valor de atualização se mantém o mesmo.

A equação (II.36) define o cálculo dos incrementos dos pesos:

 + ∂E (t − 1) ∂E (t )
η ∆ ji (t − 1), se . >0 (0 < η − < 1)
 ∂w ji ∂w ji
 ∂E (t − 1) ∂E (t )
∆ ji (t ) = η − ∆ ji (t − 1), se . <0 (η + > 1) (II.36)
 ∂w ji ∂w ji
 ∂E (t − 1) ∂E (t )
∆ ji (t − 1), se . =0
 ∂w ji ∂w ji

Em termos computacionais, esse algoritmo possui um desempenho satisfatório,


uma vez que somente é armazenado durante o processo o vetor gradiente e é um
algoritmo que utiliza modo por lote simples com rápida convergência e pouca exigência
de memória. É considerado o melhor algoritmo quando se trata de problemas de
reconhecimento de padrões [ 51 ].

40
Capítulo II: Redes Neurais Artificiais

II.4 Conclusões
Neste capítulo foram apresentados os conceitos básicos de redes neurais
artificiais, bem como a modelagem e treinamento. Inicialmente foi feita uma breve
abordagem das características das células neuronais humanas e em seguida introduziu-se
o modelo de neurônio artificial, que procura simular seu funcionamento. Em seguida
foram mostradas as arquiteturas de redes neurais existentes, com ênfase nas redes
diretamente alimentadas, que são as redes utilizadas nesta tese. Dando suporte aos
conceitos utilizados no desenvolvimento deste trabalho, foi apresentado de forma
detalhada o algoritmo de treinamento de redes diretamente alimentadas, conhecido
como algoritmo de retropropagação, com uma análise de fatores que determinam seu
desempenho. Também foi apresentada a função de treinamento trainrp, utilizada em
todas as redes deste trabalho.

41
Capítulo III

Aplicação de Redes Neurais


Artificiais para Proteção de
Linhas de Transmissão

III. 1 Considerações Iniciais


A motivação para a utilização de RNA em proteção decorre da grande
capacidade que essas estruturas possuem para reconhecimento de padrões somado ao
fato de que, apesar de muito estudado na literatura, ainda é um problema em aberto
[ 43 ].

A seguir são abordadas questões relativas ao modelo do sistema equivalente, à


utilização do software ATP [ 55 ] para simulação dos defeitos, à montagem de banco de
dados para treinamento das redes neurais, assim como características dos módulos de
detecção, classificação e localização de defeitos.

III.2 Sistema Equivalente e Simulação de Defeitos


Para que seja possível a aplicação de RNA nos módulos que compõem o sistema
de proteção, faz-se necessária a montagem de um banco de dados

42
Capítulo III: Aplicação de Redes Neurais para Proteção de Linhas de Transmissão

para treinamento das redes envolvidas no processo. No presente trabalho, optou-se pela
montagem deste banco de dados a partir de simulações realizadas no ATP[ 55 ]. Para
tanto, é necessária a utilização de um sistema equivalente conforme ilustrado pela Figura
III.1.

K M
Z Kabc L1 L2 Z Mabc
SK SM

I Fabc
Z Fabc

Figura III.1 - Sistema Equivalente.

Onde:

SK e SM Representa os geradores equivalentes do sistema atrás das


barras K e M, respectivamente.

ZKabc e ZMabc Representa as impedâncias equivalentes atrás das barras


K e M, respectivamente.

L1 e L2 L1 representa a distância da barra onde são colhidas as


amostras até o ponto de defeito.

L1 + L2 = Comprimento total da linha de transmissão sob


estudo.

ZFabc Representa a impedância de curto-circuito.

IFabc Representa a corrente de defeito.

Para cada variação de carga no sistema ou situação de contingência, os


equivalentes do sistema são recalculados e inseridos no ATP.

43
Capítulo III: Aplicação de Redes Neurais para Proteção de Linhas de Transmissão

Os seguintes parâmetros são variados para cada situação do sistema:

• Tipo de Defeito: Refere-se às fases envolvidas no defeito, bem como o


envolvimento da Terra. Nesse trabalho foram considerados os seguintes
defeitos: AT, BT, CT, AB, BC, AC, ABT, BCT, ACT, ABC;

• Localização do Defeito: Medição feita a partir do ponto de aquisição dos


sinais. Nesse caso considerou-se de 0 a 100%, ou seja, “0” significa defeito no
terminal onde estão sendo colhidos os sinais e “100%” significa defeito no outro
terminal da linha de transmissão;

• Ângulo de Incidência de Defeito: Para elucidar o que ocorre com a corrente


no instante de ocorrência de um defeito, considere uma tensão em corrente
alternada (CA) aplicada a um circuito com valores constantes de resistência e
indutância:

V = V sen(ωt + α ) (III.1)

Na equação (III.1) , considerando-se t=0 o instante de aplicação do defeito, α


determinará o módulo da tensão neste instante. Sendo a equação (III.2) define a
tensão num circuito RL como:
di
V = Ri + L (III.2)
dt

Igualando as equações (III.1) e (III.2):

di
V sen(ωt + α ) = Ri + L (III.3)
dt

Resolvendo a equação (III.3):

V  −
Rt

i= .  sen(ωt + α − θ ) − e L .sen(α − θ ) (III.4)
Z  

Onde:

Z = R 2 + (ω L )2 (III.5)

44
Capítulo III: Aplicação de Redes Neurais para Proteção de Linhas de Transmissão

θ = tan −1(ω L / R ) (III.6)

Na equação (III.4), observa-se que o primeiro termo varia senoidalmente com o


tempo, sendo considerado o valor de regime permanente da corrente num
circuito RL para uma determinada tensão aplicada. Já o segundo termo não é
periódico e decresce exponencialmente com uma constante de tempo L/R. Esse
termo é denominado componente de corrente contínua (CC) do sinal.
Analisando a equação (III.4), se a componente de regime permanente for
diferente de zero em t=0, ocorre o aparecimento da componente CC a fim de
que a condição física de ter-se corrente igual a zero no instante t=0. Quando α-
θ=0 ou α-θ=π, não ocorre o aparecimento de componente CC. Entretanto, se
no instante de ocorrência de um defeito α-θ=±π/2 a componente CC terá seu
valor máximo, correspondente ao valor máximo da componente senoidal [ 59 ].
Neste trabalho foi estabelecido que o ângulo de incidência de defeito seria
aleatório, como ocorre em situações reais;

• Impedância de Defeito: Impedância considerada entre os condutores


envolvidos no defeito e/ou a Terra. Neste trabalho, o valor da impedância de
defeito foi variado de 0 a 123 Ohms.

• Carregamento do sistema: Com o aumento ou diminuição das cargas do


sistema o fluxo de potência na linha sob estudo varia e essa variação deve ser
encarada pela rede neural como uma condição de operação normal do sistema.
Foi considerado um aumento de até 15% nas cargas do sistema durante as
simulações;

• Contingências no sistema: Quando ocorre uma contingência no sistema,


como por exemplo, perda de uma ou mais linhas de transmissão, ocorrem
alterações na operação da linha, que devem ser consideradas como situações
normais, uma vez que a linha problemática não é a que está sendo monitorada
pelo sistema de proteção sob estudo.

45
Capítulo III: Aplicação de Redes Neurais para Proteção de Linhas de Transmissão

De posse desse conjunto de variáveis para formar o banco de dados, foram


realizadas simulações no ATP, onde foi determinada uma freqüência de amostragem de
960Hz para aquisição dos sinais de corrente e tensão apresentados às entradas das redes
neurais. A partir desse ponto, cada módulo que compõe o sistema de proteção trata seus
sinais de entrada de uma forma particular.

Pode ser observado que a montagem do banco de dados é extremamente


trabalhosa e complexa, uma vez que várias situações são simuladas para diversos tipos
de defeito e diversos locais ao longo da linha de transmissão. Para solucionar esse
problema foi desenvolvido um programa em C++ com a função de manipular o
software ATP, gerando automaticamente o banco de dados a partir do qual as redes
neurais são treinadas e simuladas. É importante ressaltar que o banco de dados
armazena os módulos das tensões e correntes em P.U. e os ângulos em graus.

Com relação à construção da estrutura do sistema de proteção, todos os


algoritmos de formação do banco de dados e tratamento dos sinais foram desenvolvidos
no software MATLAB [ 56 ], assim como as RNA que compõem os módulos. Nas
seções subseqüentes a estrutura de cada módulo será detalhada a fim de sejam
mostrados seus componentes e seu funcionamento.

III.3 Módulo de Detecção de Defeitos


O módulo de DETECÇÃO é responsável por determinar o estado de operação
da linha: normal ou sob defeito. Os sinais recebidos da linha são correntes e tensões
trifásicas. A freqüência de amostragem desses sinais, como descrito anteriormente, foi
960Hz e utilizou-se filtro anti-aliasing [ 57 ], na freqüência de corte de 480 Hz, a fim de se
garantir que o filtro de Fourier recursivo fosse capaz de extrair as componentes de
freqüência fundamental das tensões e correntes da linha de transmissão. O Apêndice C
discorre a respeito da filtragem de sinais utilizada nesta tese. A Figura III.2 ilustra o
módulo de detecção de defeitos.

46
Capítulo III: Aplicação de Redes Neurais para Proteção de Linhas de Transmissão

Tensões e Correntes Trifásicas


Amostradas a 960Hz

cont=cont+1 cont=0
Rede de
Detecção

Não

Defeito Sim 1 -1
cont==10? Saída
Detectado

Figura III.2 - Módulo de Detecção de Defeitos.

Como pode ser observado na Figura III.2, o módulo de detecção de defeitos


recebe os sinais de tensão e corrente trifásicas de um dos terminais da linha de
transmissão a uma freqüência de 960Hz, que passam por um filtro recursivo de 1 ciclo
para que as componentes de freqüência fundamental sejam mostradas à rede de
detecção. A cada milésimo de segundo a rede, através do valor de sua saída, mostra o
estado de operação da linha de transmissão. O critério para detecção do defeito é a
ocorrência de 10 valores consecutivos indicativos de defeito, ou seja, saída “1”. Esse
critério é baseado na filosofia de operação do relé numérico REL-100 da ABB [ 58 ],
que aguarda 10 ocorrências consecutivas de indicação de defeito a fim de que não seja
tomada uma decisão precipitada, no que concerne à operação de disjuntores. Este
procedimento tem por objetivo evitar a operação indevida do sistema de proteção diante
de erros de medições provocados por transformadores de tensão capacitivos e outras
causas, como surtos e sinais espúrios.

Após sucessivas simulações para determinação do número de entradas das redes


neurais, foi estabelecido que a rede neural componente do módulo de detecção, assim
como as redes dos demais módulos, teria 12 entradas, que seriam módulos e ângulos das
componentes de 60Hz das tensões e correntes trifásicas. Sendo assim, para cada
milésimo de segundo, módulos e ângulos de tensão e corrente de cada fase seriam
apresentados à rede neural, ou seja, a cada instante amostrado a rede receberia estímulo
em suas 12 entradas. A Figura III.3 ilustra a rede neural de detecção.

47
Capítulo III: Aplicação de Redes Neurais para Proteção de Linhas de Transmissão

Camada de Entrada
|Va|

θ Va Camada Oculta
|Vb|

θ Vb
|Vc| Camada
de Saída
θ Vc
Falta ?
|Ia|

θ Ia
|Ib|

θ Ib
|Ic|

θ Ic
Figura III.3 - Rede Neural 12-X-1 para Detecção de Defeitos.

No que concerne à arquitetura da rede neural para detecção, foi escolhida uma
rede do tipo diretamente alimentada (feed-forward), por se tratar de um tipo de rede
com excelente desempenho no reconhecimento de padrões. Quanto ao tratamento das
entradas da rede, os módulos das tensões e correntes trifásicas assim como os
respectivos ângulos foram normalizados no intervalo [-1,1].

A saída também foi normalizada entre [-1,1] e caracterizando-se assim o valor


“-1” para situação de rede sob condições normais e “1” para situação de rede sob
defeito.

Com relação às funções de ativação utilizadas, optou-se, tanto para a camada


oculta quanto para a camada de saída a função tangente sigmóide. A função de
treinamento utilizada foi “resilient backpropagation”, também chamada de
“retropropagação elástica” [ 53 ].

O universo de treinamento foi dividido em 3 subconjuntos formados de forma


aleatória: treinamento (50%), validação (25%) e teste (25%).

O paradigma de aprendizagem foi supervisionado em modo por lote (batch), ou


seja, as atualizações de pesos sinápticos somente ocorrem quando todo o conjunto de

48
Capítulo III: Aplicação de Redes Neurais para Proteção de Linhas de Transmissão

treinamento é mostrado à rede neural. Como critério de convergência, optou-se por


validação cruzada com parada antecipada [ 44 ]. Nas simulações, valores de saída
maiores que “0” foram considerados “1”, ou seja, condições de rede sob defeito e
valores de saída menores que “0” foram considerados “-1”, ou seja, condições de rede
normal. Com esse critério, não há saída indefinida para a rede.

Com relação ao número de neurônios na camada oculta, foram realizados testes


para se determinar a melhor configuração.

III.4 Módulo de Classificação de Defeitos


O módulo de classificação de defeitos é ilustrado pela Figura III.4.

Tensões e Correntes
Trifásicas de Defeito

Defeito
Detectado
Módulo de
Classificação

Módulo de Fases Envolvidas


Localização

Figura III.4 - Módulo de Classificação de Defeitos.

Pela Figura III.4, observa-se que esse módulo somente é ativado na ocorrência
de defeitos e tem a função de identificar as fases envolvidas no defeitos, bem como o
envolvimento de Terra. Os sinais que são apresentados à rede nesse módulo também
passam por um filtro anti-aliasing na freqüência de 480Hz, com subseqüente filtragem
dos sinais em 60 Hz através de um filtro de Fourier recursivo. A informação de sua
saída determina qual a rede será ativada para a localização do defeito, como será visto
mais adiante.

A rede neural de classificação de defeitos é ilustrada pela Figura III.5.

49
Capítulo III: Aplicação de Redes Neurais para Proteção de Linhas de Transmissão

Camada de Entrada
|Va|

θ Va Camada Oculta
Camada
|Vb|
de Saída
θ Vb A

|Vc|
B
θ Vc
|Ia|
C
θ Ia
|Ib| T

θ Ib
|Ic|

θ Ic

Figura III.5 - Rede Neural 12-X-4 para Classificação de Defeitos.

Observa-se na Figura III.5 que, diferentemente da rede de detecção, que


somente possui uma saída, a rede de classificação possui quatro neurônios na camada de
saída, representando cada uma das fases (A, B e C) e o envolvimento com a terra (T). A
Tabela III.1 elucida o arranjo da saída da rede. A palavra lógica da saída determina o
tipo de defeito.

Tabela III.1 - Tabela-verdade da saída da rede de classificação.


Valor da Saída
Tipo de Defeito
A B C T
AT 1 -1 -1 1
BT -1 1 -1 1
CT -1 -1 1 1
AB 1 1 -1 -1
BC -1 1 1 -1
AC 1 -1 1 -1
ABT 1 1 -1 1
BCT -1 1 1 1
ACT 1 -1 1 1
ABC 1 1 1 -1

Da mesma maneira que na rede de detecção, as saídas foram normalizadas no


intervalo [-1,1]. Os valores de entrada, que também são os módulos das tensões e

50
Capítulo III: Aplicação de Redes Neurais para Proteção de Linhas de Transmissão

correntes trifásicas, assim como os respectivos ângulos, foram normalizados no


intervalo [-1,1]. As funções de ativação da camada oculta e da camada de saída são, da
mesma forma que no modulo de detecção, tangente sigmóide. Com relação ao número
de neurônios na camada oculta, foram realizados testes para se determinar a melhor
configuração.

Com relação à função de treinamento utilizada, optou-se por “resilient


backpropagation”, a mesma utilizada no módulo de detecção. O paradigma de
aprendizagem também foi supervisionado em modo por lote (batch), com parada
antecipada via validação cruzada.

III.5 Módulo de Localização de Defeitos


O módulo de localização de defeitos é ilustrado na Figura III.6.

Tensões e Correntes
Trifásicas de Defeito

Fases Envolvidas
Módulo de no Defeito
Localização

Local do Defeito

Figura III.6 - Módulo de Localização de Defeitos.

Uma vez identificado o tipo de defeito, os sinais de ciclo completo na região de


defeito são mostrados ao módulo de localização de defeitos. Esses sinais são os mesmos
utilizados na entrada da rede de classificação. Como são conhecidos os condutores
envolvidos no distúrbio, redes especialistas para cada tipo de defeito têm a função de
localizá-lo, ou seja, o módulo de localização de defeitos possui uma rede neural
especialista para cada tipo de defeito: AT, BT, CT, AB, BC, AC, ABT, BCT, ACT, ABC.

A arquitetura básica de cada uma dessas redes é ilustrada pela Figura III.7.

51
Capítulo III: Aplicação de Redes Neurais para Proteção de Linhas de Transmissão

Camada de Entrada
|Va|

θ Va Camada Camada
Oculta 1 Oculta 2
|Vb|

θ Vb
|Vc| Camada
de Saída
θ Vc Local da Falta
|Ia|

θ Ia
|Ib|

θ Ib
|Ic|

θ Ic
Figura III.7 - Rede Neural 12-X-X-1 para Localização de Defeitos.

Como pode ser observado na Figura III.7, cada rede neural possui 12 entradas e
2 camadas ocultas que justificam-se pelo fato de que, nesse caso, necessita-se de mais
precisão na saída e não simplesmente uma saída em dois níveis. A saída da rede é
sempre um valor entre “0” e “1”, sendo “0” para defeitos no terminal onde se está
colhendo os sinais e “1” para defeitos localizados no outro terminal da linha de
transmissão. Com relação ao número de neurônios nas camadas ocultas, para cada rede
foram realizados testes para se determinar a melhor configuração.

III.6 Esquema Completo de Proteção de Linhas de


Transmissão
Finalmente, o esquema completo para detecção, classificação e localização de
defeitos em linhas de transmissão é mostrado na Figura III.8.

52
Capítulo III: Aplicação de Redes Neurais para Proteção de Linhas de Transmissão

Tensões e Correntes Trifásicas


Amostradas a 960Hz

cont=cont+1 cont=0
Rede de
Tensões e Correntes Detecção
Trifásicas de Defeito

Não
Tensões e Correntes
Trifásicas de Defeito Módulo de Defeito Sim 1 -1
cont==10? Saída
Classificação Detectado

Módulo de
Fases Envolvidas
Localização

Local do Defeito

Figura III.8 - Esquema Completo de Detecção, Classificação e Localização de Defeitos


em Linhas de Transmissão.

Como pode ser observado na Figura III.8, o módulo de detecção de defeitos


verifica a cada instante o estado de operação da linha de transmissão.

Detectado o defeito, o módulo de classificação é ativado. Os sinais da linha


passam pelo filtro anti-aliasing e pelo filtro de Fourier recursivo. As entradas da rede
neural de classificação recebem então os sinais em 60 Hz, de um ciclo completo na
região de defeito. A rede neural externa uma palavra lógica que determina os condutores
envolvidos no distúrbio e se há envolvimento de Terra.

Quando o módulo de classificação identifica os condutores envolvidos no


defeito, o módulo de localização é ativado e os mesmos sinais utilizados na entrada da
rede de classificação de defeitos são entregues ao módulo de localização. Dentro desse
módulo, que possui uma rede especialista para cada tipo de defeito, os sinais alimentam
a RNA especialista e então é feita a determinação do local onde o defeito ocorreu.

III.7 Conclusões
Neste capítulo, foram apresentados os módulos que compõem o esquema
completo de detecção, classificação e localização de defeitos em linhas de transmissão,
bem como a estrutura de geração de dados para treinamento dessas redes. O modelo do
sistema equivalente a ser simulado é então inserido num programa desenvolvido em
C++ para que diversas situações de curto-circuito sejam geradas com o software ATP.

53
Capítulo III: Aplicação de Redes Neurais para Proteção de Linhas de Transmissão

Também foi descrita a estrutura básica das redes neurais que compõem o sistema de
detecção, classificação e localização de defeitos em linhas de transmissão. Características
como o número de neurônios nas camadas ocultas para cada rede serão definidos no
decorrer do Capítulo IV.

54
Capítulo IV

Estudo de Casos

IV.1 Considerações Iniciais


O objetivo deste capítulo é apresentar os resultados obtidos através da aplicação
da metodologia proposta para um esquema completo de detecção, classificação e
localização de defeitos em linhas de transmissão. Para tanto, serão utilizados o sistema
IEEE-14 e o sistema equivalente utilizado em BRAHMA [ 26 ].

IV.2 Sistema Teste I


O primeiro sistema testado foi o sistema IEEE-14, que é composto por 14
barras, 20 circuitos e 5 unidades de geração. A linha escolhida para realização dos testes
foi a que conecta as barras 13 e 14. A Figura IV.1 mostra o sistema IEEE-14 e em
destaque está a linha que será estudada. Para o estudo foi considerada como tensão de
operação da linha 138kV e comprimento de 100km.

55
Capítulo IV: Estudo de Casos

Figura IV.1 - Sistema IEEE-14.

IV.2.1 Geração de Dados

Para viabilizar a análise, foi necessário montar o sistema equivalente, conforme


mostrado na Figura III.1. A partir desse equivalente, o programa desenvolvido em
linguagem C++ gerou o banco de dados que foi utilizado no processo de treinamento e
testes das RNA.

Para a montagem deste banco de dados foram consideradas ainda as seguintes


condições de operação do sistema:

• Saída da linha de transmissão entre as barras 6 e 11;

• Saída da linha de transmissão entre as barras 6 e 13;

• Saída simultânea das linhas de transmissão entre as barras 6 e 11 e entre


as barras 6 e 13;

• Sobrecarga de 5% em todas as cargas do sistema;

• Sobrecarga de 10% em todas as cargas do sistema;

56
Capítulo IV: Estudo de Casos

• Sobrecarga de 15% em todas as cargas do sistema.

Além de alterações nas condições do sistema, os seguintes parâmetros foram


variados para formação do universo de treinamento:

• Tipos de defeito: AT, BT, CT, AB, BC, AC, ABT, BCT, ACT, ABC ;

• Impedâncias de defeito: 0, 5, 10, 15, 20, 25, 30, 35, 40, 45, 50, 55, 60, 65,
70, 75, 80, 85, 90, 95 e 100Ω;

• Locais de aplicação de defeito: 0, 5, 10, 15, 20, 25, 30, 35, 40, 45, 50, 55,
60, 65, 70, 75, 80, 85, 90, 95 e 100% ;

• Ângulo de Incidência de defeito: aleatório.

Para realização de testes complementares, os seguintes parâmetros foram


variados para obtenção de um conjunto de simulação extra:

• Tipo de defeito: AT, BT, CT, AB, BC, AC, ABT, BCT, ACT, ABC;

• Impedância de defeito: 3, 27, 48, 67, 84, 103, 123Ω.

• Localização do defeito: 3, 11, 19, 26, 52, 65, 83, 91, 99%;

• Ângulo de incidência de defeito: aleatório.

É importante ressaltar que o banco de dados gerados para cada tipo de rede foi
dividido em subconjunto de treinamento (50%), subconjunto de validação (25%) e
subconjunto de testes (25%).

57
Capítulo IV: Estudo de Casos

IV.2.2 Definição da Topologia das RNA

O critério para a escolha da melhor configuração de rede neural é baseado na


rede que obtiver o menor RMSE(Root Mean Squared Error) [ 46 ], que nada mais é que a
raiz quadrada do erro médio quadrático ou MSE(Mean Squared Error), para o
subconjunto de validação, considerando-se 5 treinamentos para cada configuração de
rede. O MSE é definido na equação (IV. 1) como:

2
N Dj − S j
MSE = ∑ (IV. 1)
j =1 N

Onde:

Dj e Sj Representa respectivamente as saídas desejadas e


obtidas da rede neural.

N Representa o número de amostras.

E o RMSE é definido na equação (IV. 2) como:

2
N Dj − S j
RMSE = ∑ j =1 N
(IV. 2)

Os seguintes parâmetros da rede já estavam preestabelecidos:

• Camada de entrada: 12 neurônios;

• Camada de saída, para rede de detecção e localização: 1 neurônio;

• Camada de saída, para rede de classificação: 4 neurônios;

• Normalização da entrada: [-1,1];

58
Capítulo IV: Estudo de Casos

• Normalização da saída: [-1,1], para as redes de detecção e classificação e


[0,1] para a rede de localização;

• Função de ativação para camada oculta: tangente sigmóide;

• Função de ativação para camada de saída, para as redes de detecção e


classificação: tangente sigmóide;

• Função de ativação para camada de saída, para a rede de localização:


puramente linear;

• Paradigma de aprendizagem: Supervisionado, em modo por lote;

• Função de treinamento: trainrp.

A convergência poderia ser alcançada quando o MSE for menor que 0.001, por
parada antecipada via validação cruzada ou pelo limite máximo de 20000 épocas.

Visto que os parâmetros acima seriam constantes, seria variado somente o


número de neurônios na camada oculta, no caso das redes de detecção e classificação.
Para as redes de localização de defeitos, que possuem 2 camadas ocultas, a consideração
a seria feita é que o número de neurônios da camada oculta 1 seria sempre igual ao
número de neurônios da camada oculta 2, ou seja, para que fosse encontrada a melhor
configuração de cada rede, as 2 camadas ocultas teriam seu número de neurônios
variados na mesma proporção.

IV.2.3 Rede de Detecção: Treinamento e Desempenho

A rede de detecção de defeitos recebeu um universo de amostras de situações de


curto-circuito de 493920 dados e 200000 amostras da linha sob condições normais de
operação, totalizando 693920 dados. Esse conjunto foi dividido em subconjunto de
treinamento (composto de 346960 amostras), de validação (composto de 173480
amostras) e de teste (composto de 173480 amostras).

59
Capítulo IV: Estudo de Casos

A partir dos subconjuntos de treinamento e validação foi gerado o gráfico da


Figura IV.2, que mostra o comportamento do RMSE da rede para estes subconjuntos. A
fim de que fosse escolhida a rede de melhor desempenho, foram feitas simulações com
cinco topologias diferentes.

0.95
Validaçao
0.9
Treinamento

0.85

0.8
RMSE

0.75

0.7

0.65

0.6

0.55
7 8 9 10 11
Neuronios na Camada Oculta

Figura IV.2 - Desempenho da Rede de Detecção X Neurônios na Camada Oculta para


os Subconjuntos de Treinamento e Validação.

Como pode ser observado na Figura IV.2, a rede que apresentou o menor
RMSE, considerando o valor médio de cinco treinamentos para cada rede, foi a rede
com 10 neurônios na camada oculta.

O gráfico da Figura IV.3 mostra a trajetória de convergência da rede escolhida.

1.6

1.4 Treinamento
Validaçao
1.2 Teste

1
MSE

0.8

0.6

0.4

0.2
0 5 10 15 20 25 30 35 40 45 50
Época

Figura IV.3 - Convergência da Rede com 10 Neurônios na Camada Oculta.

60
Capítulo IV: Estudo de Casos

Fato relevante a ser considerado é que todas as redes testadas convergiram por
parada antecipada e no máximo em 60 épocas, o que mostra que, apesar do conjunto de
amostras ser grande, não houve dificuldades no treinamento. Pode ser observado
também que o erro do subconjunto de teste comportou-se de forma semelhante ao erro
do subconjunto de validação, indicando uma distribuição de dados satisfatória e também
pode ser observado que não houve overfitting relevante. O percentual de sucesso na
detecção do defeito é mostrado pela Tabela IV.1.

Tabela IV.1 – Percentual de Acertos da Rede de Detecção.


DEFEITOS
CONJUNTO
DETECTADOS
Validação 100%
Teste 100%
Extra 100%

Pode ser observado que a rede detectou 100% dos defeitos contidos nos
subconjuntos de validação e teste e no conjunto de dados extra. Nas simulações
realizadas, atraso máximo para detecção do defeito foi de 3ms.

IV.2.4 Rede de Classificação: Treinamento e Desempenho

O universo de treinamento para a rede de classificação foi constituído somente


por amostras da rede sob defeitos, totalizando 30870 amostras. Esse conjunto foi
dividido em subconjunto de treinamento (composto de 15435 amostras), de validação
(composto de 7718 amostras) e de teste (composto de 7717 amostras).

O gráfico da Figura IV.4 foi gerado a fim de que fosse escolhida a rede de
melhor desempenho. O critério adotado foi o mesmo utilizado para a rede de detecção
de defeitos, ou seja, foi escolhida a configuração de rede que obteve o menor RMSE
após 5 treinamento, considerando-se o subconjunto de validação.

61
Capítulo IV: Estudo de Casos

0.13

0.12
Treinamento
Validação
0.11

RMSE 0.1

0.09

0.08

0.07

0.06
12 13 14 15 16 17 18 19 20 21 22 23 24
Neurônios na Camada Oculta

Figura IV.4 - Desempenho da Rede de Classificação X Neurônios na Camada Oculta


para os Subconjuntos de Treinamento e Validação.

No caso da rede de classificação, como o universo de amostras era bem menor


que no caso da rede de detecção, foi possível realizar os testes para a escolha da melhor
rede com uma variação maior de neurônios na camada oculta. Optou-se então por variar
os neurônios na camada oculta de 24, que corresponde a duas vezes o número de
entradas até 12, que corresponde ao número de entradas da rede. Como pode ser
observado na Figura IV.4, a rede que apresentou o menor RMSE, considerando o valor
médio em 5 treinamentos para cada rede, foi a rede com 15 neurônios na camada oculta.

O gráfico da Figura IV.5 mostra a trajetória de convergência da rede escolhida.

1.5

Treinamento
Validaçao
Teste
1
MSE

0.5

0
0 50 100 150 200 250 300 350 400 450 500
Época

Figura IV.5 - Convergência da Rede com 15 Neurônios na Camada Oculta.

62
Capítulo IV: Estudo de Casos

Deve ser ressaltado que todas as redes testadas convergiram por parada
antecipada e no máximo em 600 épocas. Pode ser observado que os subconjuntos
considerados percorreram semelhantes trajetórias de convergência, indicando uma
divisão satisfatória das amostras, sem overfitting significativo.

O desempenho da rede de classificação é mostrado pela Tabela IV.2:

Tabela IV.2 - Percentual de Acertos da Rede de Classificação.


NÚMERO DE
CONJUNTO ACERTOS
AMOSTRAS
Validação 7718 99.91%
Teste 7717 99.9%
Extra 4410 99.8%

Pode ser observado que a rede obteve rendimentos acima de 99%, até mesmo
para conjunto de dados extra, o que mostra grande capacidade de generalização.

IV.2.5 Rede de Localização: Treinamento e Desempenho

De forma que este desenvolvimento não se torne repetitivo, será analisada


somente uma rede de localização para cada tipo de defeito. Neste ponto cabem algumas
observações com relação aos procedimentos e análises das redes de localização de
defeitos:

• A convergência poderá ser estabelecida quando o RMSE for menor que


0.0001, por parada antecipada via validação cruzada ou para número de
épocas superior a 5000;

• Na busca da melhor configuração para as redes, será considerado sempre


que o número de neurônios da primeira camada oculta é igual ao número
de neurônios da segunda camada oculta.

Devido ao fato do universo de amostras ser bem menor que no caso da rede de
detecção, também, neste caso, foi possível realizar os testes para a escolha da melhor
rede com uma maior variação de neurônios na camada oculta. Optou-se então por variar

63
Capítulo IV: Estudo de Casos

os neurônios nas camadas ocultas de 36, que corresponde a três vezes o número de
entradas, até 12, que corresponde ao número de entradas da rede.

Os erros de localização serão calculados pela equação (IV. 3):

|D−S |
Erro % = x100% (IV. 3)
L

Onde:

D, S Representam respectivamente as saídas desejadas e


obtidas da rede neural de localização de defeitos.

L Representa o comprimento da linha de transmissão.

IV.2.5.1 Defeitos FASE-TERRA

Em consonância com o comentário feito na seção IV.2.5, foi analisada a rede


neural para localização de defeitos AT, representando as redes de localização de defeitos
FASE-TERRA.

Para análise dessa rede foram utilizadas 1544 amostras para treinamento, 772
para validação e 771 para teste. A partir desses subconjuntos de dados o gráfico da
Figura IV.6 foi gerado a fim de que fosse escolhida a rede de melhor desempenho,
mantendo-se o critério de menor RMSE em 5 treinamentos consecutivos, considerando-
se o subconjunto de validação.

64
Capítulo IV: Estudo de Casos

0.5
Validaçao
0.45 Treinamento

0.4

0.35
RMSE

0.3

0.25

0.2

0.15

0.1
12 16 20 24 28 32 36
Neuronios nas Camadas Ocultas

Figura IV.6 - Desempenho da Rede de Localização AT X Neurônios nas Camadas


Ocultas para os Subconjuntos de Treinamento e Validação.

Como pode ser observado na Figura IV.6, o número de neurônios nas camadas
ocultas foi variado de 36, que corresponde a três vezes o número de entradas até 12, que
corresponde ao número de entradas da rede. A configuração que apresentou o menor
RMSE, considerando o valor médio de 5 treinamentos para cada rede, foi a rede com 23
neurônios, tanto na primeira camada oculta quanto na segunda camada oculta.

O gráfico da Figura IV.7 mostra a trajetória de convergência da rede escolhida.

0.5

0.45
Treinamento
0.4 Validaçao
Teste
0.35
Erro Médio Quadrático

0.3

0.25

0.2

0.15

0.1

0.05

0
0 100 200 300 400 500 600
Época

Figura IV.7 - Convergência da Rede com 23 Neurônios nas Camadas Ocultas.

65
Capítulo IV: Estudo de Casos

Fato relevante a ser considerado é que todas as redes testadas convergiram por
parada antecipada e no máximo em 1000 épocas. Pode ser observado no gráfico que a
trajetória de todos os erros teve comportamento semelhante, indicando mais uma vez
uma boa distribuição das amostras entre os subconjuntos definidos e também não
houve overfitting significativo. Com a topologia da rede de localização de defeitos AT
escolhida e após o treinamento, foi realizado o teste de desempenho para os
subconjuntos de treinamento, validação, teste e com o conjunto de dados extra. O
gráfico da Figura IV.8 mostra a curva de probabilidade acumulada do erro de localização
para os subconjuntos de treinamento, validação e teste, além do conjunto de dados
extra.

100

90

80
Probabilidade Acumulada (%)

Treinamento
Validaçao
70
Teste
60 Extra

50

40

30

20

10
5 10 15 20 25
Erro de Localizaçao (%)

Figura IV.8 - Curva de Probabilidade Acumulada para Rede de Localização de Defeitos


AT.

Pode ser observado que o erro de localização foi menor que 10% para 90% das
amostras analisadas, até mesmo para o conjunto de dados extra. Analisando o gráfico,
observa-se que o conjunto com o pior desempenho foi o conjunto de dados extra.
Dentre os valores de impedância de defeito desse conjunto há valores fora do escopo de
treinamento (103 e 123Ohms). Isso faz com que o desempenho da rede seja depreciado.
Deve-se levar em consideração o seguinte fato:

• A combinação de uma considerável gama de impedâncias de defeito, aliada à


opção de utilizar ângulo de incidência de defeito aleatório constitui um
desafio de generalização para qualquer sistema de localização de defeitos.

66
Capítulo IV: Estudo de Casos

A fim de se investigar a variação de desempenho dessa rede em relação ao ponto


de ocorrência do defeito, foi gerado o gráfico da Figura IV.9.

100

90

80 85%
Probabilidade Acumulada (%)

90%
70
100%
60

50

40

30

20

10
2 4 6 8 10 12 14 16 18 20
Erro de Localizaçao (%)

Figura IV.9 - Curva de Probabilidade Acumulada para o Conjunto de Dados Extra em


Relação ao Ponto de Ocorrência do Defeito.

Analisando o gráfico da Figura IV.9, podemos observar a melhoria no


desempenho da rede neural quando são extraídos do conjunto de dados extra defeitos
ocorridos acima de 90% e 85% do ponto de aquisição dos sinais. Observa-se que a rede
obteve erro de até 10% para aproximadamente 95% das amostras com defeitos
ocorridos até 90% do ponto de aquisição dos sinais e erros de até 10% para mais de
95% das amostras para defeitos ocorridos até 85% do ponto de medição.

Para os defeitos BT e CT o comportamento da rede neural foi semelhante,


apresentando os mesmos rendimentos e as mesmas dificuldades que a rede para
localização de defeitos AT.

IV.2.5.2 Defeitos FASE-FASE

Adotando-se o mesmo procedimento para os defeitos FASE-TERRA, foi


analisada a rede neural para localização de defeitos AB, representando as redes de
localização de defeitos FASE-FASE.

67
Capítulo IV: Estudo de Casos

Para análise dessa rede foram utilizadas 1544 amostras para treinamento, 772
para validação e 771 para teste. A partir da média dos erros da rede em relação aos
subconjuntos de dados de treinamento e validação para 5 treinamentos, o gráfico da
Figura IV.10 foi gerado a fim de que fosse escolhida a rede de melhor desempenho.

1.1
Validaçao
1 Treinamento

0.9

0.8
RMSE

0.7

0.6

0.5

0.4

15 20 25 30 35
Neurônios nas Camadas Ocultas

Figura IV.10 - Desempenho da Rede de Localização AB X Neurônios nas Camadas


Ocultas para os Subconjuntos de Treinamento e Validação.

Como pode ser observado na Figura IV.10, a rede que apresentou o menor
RMSE, considerando o valor médio de cinco treinamentos para cada rede, foi a rede
com 30 neurônios, tanto na primeira camada oculta quanto na segunda camada oculta.
Optou-se nesse caso por variar os neurônios na camada oculta de 36, que corresponde a
três vezes o número de entradas até 12, que corresponde ao número de entradas da
rede. O gráfico da Figura IV.11 mostra a trajetória de convergência da rede escolhida.

68
Capítulo IV: Estudo de Casos

200

180 Treinamento
Validaçao
160
Teste
140
Erro Médio Quadrático
120

100

80

60

40

20

0
0 100 200 300 400 500 600
Época

Figura IV.11 - Convergência da Rede com 30 Neurônios nas Camadas Ocultas.

Fato relevante a ser considerado é que todas as redes testadas convergiram por
parada antecipada e no máximo em 1000 épocas e apresentaram características de
convergência semelhantes à rede para localização de defeitos AT.

Com a topologia da rede escolhida e após o treinamento da rede, foi realizado o


teste de desempenho para o conjunto de dados extra. O gráfico da Figura IV.12 mostra
a curva de probabilidade acumulada do erro de localização para os subconjuntos de
treinamento, validação e teste, bem como o conjunto de dados extra.

100

90

80 Validaçao
Probabilidade Acumulada (%)

Extra
70 Teste
60 Treinamento

50

40

30

20

10

0
5 10 15 20 25 30 35 40
Erro de Localizaçao (%)

Figura IV.12 - Curva de Probabilidade Acumulada para Rede de Localização de Defeitos


AB.

69
Capítulo IV: Estudo de Casos

Pode ser observado que o erro de localização foi menor que 10% para
aproximadamente 80% das amostras analisadas, com exceção das amostras de
treinamento. Deve-se levar em consideração novamente a combinação considerável
gama de impedâncias de defeito, com valores expressivos de impedância de defeito
aliada à opção de utilizar ângulo de incidência de defeito aleatório. São condições
severas de simulação e os resultados mostram que a rede se comportou de maneira
satisfatória. A fim de que fosse testada a variação de desempenho dessa rede em relação
ao ponto de ocorrência do defeito, foi gerado o gráfico da Figura IV.13.

100

90

80 85%
Probabilidade Acumulada (%)

90%
70 100%

60

50

40

30

20

10
5 10 15 20 25 30 35 40
Erro de Localizaçao (%)

Figura IV.13 - Curva de Probabilidade Acumulada para o Conjunto de Dados Extra em


Relação ao Ponto de Ocorrência do Defeito.

Analisando o gráfico da Figura IV.13 observa-se que para defeitos ocorridos a


até 85% da linha de transmissão a rede obteve erros de localização de até 10% para
aproximadamente 88% das amostras do conjunto de dados extra. Tendo em vista que
um esquema de proteção de LT possui um localizador em cada terminal da linha, este
erro pode ser facilmente eliminado.

70
Capítulo IV: Estudo de Casos

IV.2.5.3 Defeitos FASE-FASE-TERRA

Para os defeitos FASE-FASE-TERRA, será analisada a rede responsável pela


localização de defeitos ABT.

Para análise dessa rede serão utilizadas 1544 amostras para treinamento, 772 para
validação e 771 para teste. A partir desses subconjuntos de dados o gráfico da Figura
IV.14 foi gerado a fim de que fosse escolhida a rede de melhor desempenho.

Treinamento
0.55 Validação

0.5

0.45
RMSE

0.4

0.35

0.3

0.25

12 14 16 18 20 22 24 26 28 30 32 34 36
Neuronios nas Camadas Ocultas

Figura IV.14 - Desempenho da Rede de Localização ABT X Neurônios nas Camadas


Ocultas para os Subconjuntos de Treinamento e Validação.

Da mesma forma que nas redes de localização anteriores, o número de


neurônios nas camadas ocultas foi variado de 36 a 12, como pode ser observado na
Figura IV.14. A rede que apresentou o menor RMSE, considerando o valor médio de 5
treinamentos para cada rede, foi a rede com 14 neurônios, tanto na primeira camada
oculta quanto na segunda camada oculta.

O gráfico da Figura IV.15 mostra a trajetória de convergência da rede escolhida.

71
Capítulo IV: Estudo de Casos

12
Treinamento
10 Validaçao
Teste

Erro Médio Quadrático 8

0
0 50 100 150 200 250 300
Época

Figura IV.15 - Convergência da Rede com 14 Neurônios nas Camadas Ocultas.

Fato relevante a ser considerado é que todas as redes testadas convergiram por
parada antecipada e no máximo em 1000 épocas, mostrando que não houve dificuldades
no treinamento. Com a topologia da rede escolhida e após o treinamento, foi realizado o
teste de desempenho para o conjunto de dados extra. O gráfico da Figura IV.16 mostra
a curva de probabilidade acumulada para os subconjuntos de treinamento, validação e
testes, além do conjunto de dados extra.

100

90

80 Treinamento
Probabilidade Acumulada (%)

70 Validaçao
Teste
60 Extra
50

40

30

20

10

0
5 10 15 20 25
Erro de Localizaçao (%)

Figura IV.16 - Curva de Probabilidade Acumulada para Rede de Localização de Defeitos


ABT.

72
Capítulo IV: Estudo de Casos

Pode ser observado que o erro de localização foi menor que 10% para 80% das
amostras analisadas, com exceção do conjunto de dados extra. Para Analisar a variação
de desempenho dessa rede em relação ao ponto de ocorrência do defeito, para o
conjunto de dados extra, foi gerado o gráfico da Figura IV.17:

100

90

80
Probabilidade Acumulada (%)

70 85%
90%
60
100%
50

40

30

20

10

0
5 10 15 20 25 30
Erro de Localizaçao (%)

Figura IV.17 - Curva de Probabilidade Acumulada para o Conjunto de Dados Extra em


Relação ao Ponto de Ocorrência do Defeito.

Pelo gráfico da Figura IV.17 observa-se um aumento do percentual de amostras


com erro de até 10% na localização de 70% para em torno de 88%, quando se considera
um conjunto de amostras com dados de defeitos localizados a até 85% da linha de
transmissão. Novamente é pertinente observar que um esquema de proteção de LT
possui um localizador em cada terminal da linha, o que possibilita a eliminação deste
erro.

IV.2.5.4 Defeitos FASE-FASE-FASE

Para análise da rede responsável pela localização de defeitos envolvendo


simultaneamente as fases A, B e C, foram utilizadas 1544 amostras para treinamento,
772 para validação e 771 para teste. A partir desses subconjuntos de dados o gráfico da
Figura IV.18 foi gerado a fim de que fosse escolhida a rede de melhor desempenho.

73
Capítulo IV: Estudo de Casos

3.5
Treinamento
Validaçao
3

2.5
RMSE

1.5

0.5
12 15 18 21 24 27 30 33 36
Neurônios nas Camadas Ocultas

Figura IV.18 - Desempenho da Rede de Localização ABC X Neurônios nas Camadas


Ocultas para os Subconjuntos de Treinamento e Validação.

Como pode ser observado na Figura IV.18, os neurônios nas camadas ocultas
foram variados de 36 a 12 e a rede que apresentou o menor RMSE, considerando o
valor médio de 5 treinamentos para cada rede, foi a rede com 34 neurônios, tanto na
primeira camada oculta quanto na segunda camada oculta.

O gráfico da Figura IV.19 mostra a trajetória de convergência da rede escolhida.

50

45 Treinamento
Validaçao
40 Teste
35
Erro Médio Quadratico

30

25

20

15

10

0
0 50 100 150 200 250 300 350 400 450
Época

Figura IV.19 - Convergência da Rede com 34 Neurônios nas Camadas Ocultas.

74
Capítulo IV: Estudo de Casos

Todas as redes testadas convergiram por parada antecipada e no máximo em


1000 épocas. A trajetória de convergência da rede teve as mesmas características das
redes analisadas anteriormente, com o erro de validação comportando-se de forma
semelhante ao erro de teste, mostrando divisão de amostras satisfatória. Com a
topologia da rede escolhida e após o treinamento, foi realizado o teste de desempenho
para os subconjuntos de treinamento, validação, teste e o conjunto de dados extra. O
gráfico da Figura IV.20 mostra a curva de probabilidade acumulada do erro de
localização para esses conjuntos:

100

90

80
Treinamento
Probabilidade Acumulada (%)

70 Validaçao
Teste
60
Extra
50

40

30

20

10

0
5 10 15 20 25 30 35 40 45
Erro de Localizaçao (%)

Figura IV.20 - Curva de Probabilidade Acumulada para Rede de Localização de Defeitos


ABC.

Como pode ser observado o desempenho dessa rede não atingiu a mesma
eficiência das redes anteriores, ficando o erro de localização foi menor que 10% para
somente 55% das amostras do conjunto de dados extra.

A fim de que fosse testada a sensibilidade dessa rede em relação ao ponto de


ocorrência do defeito, foi gerado o gráfico da Figura IV.21.

75
Capítulo IV: Estudo de Casos

100

90

80

Probabilidade Acumulada (%)


85%
70 90%
100%
60

50

40

30

20

10

0
5 10 15 20 25 30 35 40
Erro de Localizaçao (%)

Figura IV.21 - Curva de Probabilidade Acumulada para o Conjunto de Dados Extra em


Relação ao Ponto mais Distante de Ocorrência do Defeito.

Observa-se um salto no desempenho da rede quando são considerados defeitos


localizados a até 85% do ponto de aquisição das amostras, indicando uma acentuada
perda de desempenho no que concerne a defeitos próximos ao terminal oposto ao local
de aquisição de sinais. Este fato ocorre devido à conjunção de dois fatores: o primeiro é
a ocorrência do defeito em pontos distantes do terminal de aquisição dos sinais. O
segundo é devido a defeitos com alta impedância. De toda forma, como nos casos
anteriores, deve-se considerar a existência de localizadores de defeito em ambos os
terminais da linha, o que permitirá a eliminação deste erro.

IV.2.6 Esquema Completo de Detecção, Classificação e


Localização de Defeitos: Teste de Desempenho.

Para o teste do esquema completo foram utilizadas amostras do conjunto de


dados extra. Será exibida nesta seção uma simulação de defeito que será totalmente
analisada pelo sistema de proteção proposto neste trabalho. O distúrbio analisado
ocorreu a 100ms do início da simulação, com uma impedância de defeito de 70 Ohms,
do tipo AT, a 70% da linha em relação ao local de aquisição dos sinais.

A Figura IV.22 ilustra uma operação completo do esquema.

76
Capítulo IV: Estudo de Casos

140

100

60

Tensão (kV)
20

-20

-60

-100

-140
70 80 90 100 110 120 130 140
Tempo (ms)

Saída da Rede de Deteçao

-1
96 98 100 102 104 106 108 110 112 114 116 118
Tempo (ms)

1
Saída da Rede de Classificação

0.5

-0.5

-1

100 105 110 115 120 125 130


Tempo (ms)

1
Saída da Rede de Classificação

-1

100 105 110 115 120 125 130


Tempo (ms)

1
Saída da Rede de Classificação

-1

100 105 110 115 120 125 130


Tempo (ms)

1
Saída da Rede de Classificação

0.5

-0.5

-1

100 105 110 115 120 125 130


Tempo (ms)
0.8

0.7

0.6
Saída da Rede de Deteçao

0.5

0.4

0.3

0.2

0.1

-0.1
110 112 114 116 118 120 122 124 126 128 130
Tempo (ms)

Figura IV.22 - Simulação de Operação do Esquema Completo para Detecção,


Classificação e Localização de Defeitos em Linhas de Transmissão.

77
Capítulo IV: Estudo de Casos

O funcionamento do esquema completo pode ser entendido da seguinte


maneira:

• O módulo de detecção de defeitos recebe, a cada milésimo de segundo,


amostras de tensão e corrente da linha de transmissão. Esses sinais passam
por um filtro anti-aliasing e por um filtro de Fourier recursivo, que alimenta
as entradas da rede neural de detecção de defeitos. Como critério para
detecção utilizou-se como base o relé numérico REL 100 [ 58 ], amplamente
utilizado em sistemas de proteção comerciais. Esse relé possui a seguinte
diretiva: só é considerado defeito quando ocorrem 10 registros consecutivos
indicando defeito. É prudente aguardar os 10 registros positivos para que o
defeito seja confirmado, a fim de que não seja tomada uma decisão
precipitada no que concerne à operação de disjuntores. Este procedimento
tem por objetivo evitar a operação indevida do sistema de proteção diante de
erros de medições provocados por transformadores de tensão capacitivos,
sinais espúrios, etc, como já dito anteriormente. Pelos gráficos 1 e 2 da
Figura IV.22 observa-se que a saída da rede acusou uma situação de defeito
com atraso de 3ms em relação à saída esperada. Foi então aguardado o
registro de 10 saídas consecutivas indicando a presença de situação de
defeito para que o sinal para atuação da proteção fosse enviado;

• A partir da constatação da existência do defeito, o módulo de classificação


recebe os sinais da rede situados totalmente na região de defeito, ou seja, 1
ciclo completo de amostras de defeito e assim como o módulo de detecção,
filtra esses sinais a fim de que as componentes de 60Hz sejam apresentadas à
rede neural de classificação de defeitos. Os gráficos 3, 4, 5 e 6 da Figura
IV.22 representam, respectivamente, as saídas relacionadas às fases A, B, C e
o envolvimento da Terra no distúrbio. Pode ser observado que o sinal de
saída da rede foi alterado de -1 para 1 nos gráficos 3 e 6, indicando que o
defeito envolveu a fase A e a Terra;

• Com o defeito identificado, os sinais da linha de transmissão que foram


utilizados pela rede de classificação são apresentados à rede especialista
referente àquele tipo de defeito, dentro do módulo de localização de

78
Capítulo IV: Estudo de Casos

defeitos. O gráfico 7 da Figura IV.22 mostra o comportamento da saída da


rede de localização de defeitos AT quando os sinais oriundos do módulo de
classificação foram apresentados às suas entradas. O nível da saída foi
elevado de 0 para 0.68, indicando ocorrência do defeito a 68% do ponto do
onde os sinais foram amostrados. Como a localização real do defeito foi
70%, o erro de localização foi então de 2%.

• Observa-se nos módulos de classificação e localização de defeitos um atraso


de 1ms. Dessa forma o defeito foi localizado em 18ms. Considerando-se que
sistemas convencionais necessitam de 50ms a 83ms para atuar (o que
corresponde a 3-5 ciclos), pode-se concluir que o esquema proposto é
sensivelmente mais rápido do que os convencionais.

IV.3 Sistema Teste II


O sistema teste II foi extraído de [ 26 ] e representa um sistema equivalente para
estudo de uma linha de transmissão de 500kV com 200 milhas de extensão.

Como havia disponibilidade apenas dos parâmetros do sistema equivalente, para


simulação de diferentes condições de operação da linha de transmissão sob estudo,
foram feitas modificações percentuais nos parâmetros do sistema equivalente iguais às
modificações observadas no sistema teste I, onde havia disponibilidade do sistema
completo e onde, para cada alteração na operação da linha, os parâmetros do sistema
equivalente eram recalculados. Os parâmetros deste sistema teste, bem como suas
variações estão disponibilizados no Apêndice D.

IV.3.1 Rede de Detecção: Treinamento e Desempenho

A rede de detecção de defeitos recebeu, como no caso do sistema teste I, um


universo de amostras de situações de curto-circuito de 496920 dados e 200000 amostras
da linha sob condições normais de operação, totalizando 693920 dados. Esse conjunto
foi dividido em subconjunto de treinamento (composto de 346960 amostras), de
validação (composto de 173480 amostras) e de teste (composto de 173480 amostras).

79
Capítulo IV: Estudo de Casos

Da mesma maneira; a partir dos subconjuntos de treinamento e validação foi


gerado o gráfico da Figura IV.23, que mostra o comportamento do RMSE da rede para
estes subconjuntos. A fim de que fosse escolhida a rede de melhor desempenho foram
feitas simulações com cinco topologias diferentes.

0.4

Validação
0.35
Treinamento

0.3

0.25
RMSE

0.2

0.15

0.1

0.05
7 8 9 10 11
Neurônios na Camada Oculta

Figura IV.23 - Desempenho da Rede de Detecção X Neurônios na Camada Oculta para


o Subconjunto de Treinamento e Validação.

A Figura IV.23 mostra que a rede com 11 neurônios na camada oculta obteve o
menor RMSE para o subconjunto de validação.

O gráfico da Figura IV.24 mostra a trajetória de convergência da rede escolhida:

1.5

Treinamento
Validaçao
Teste

1
Erro Médio Quadrático

0.5

0
0 100 200 300 400 500 600 700
Época

Figura IV.24 – Convergência da Rede com 11 Neurônios na Camada Oculta.

80
Capítulo IV: Estudo de Casos

Observa-se que todas as redes testadas convergiram por parada antecipada e no


máximo em 900 épocas, o que mostra que, apesar do conjunto de amostras ser grande,
não houve dificuldades no treinamento, como ocorreu no sistema teste I. Pode ser
observado também que o erro do subconjunto de teste comportou-se de forma
semelhante ao erro do subconjunto de validação, indicando uma distribuição de dados
satisfatória ente os subconjuntos e também pode ser observado que não houve overfitting
relevante. O percentual de sucesso na detecção do defeito é mostrado pela Tabela IV. 3:

Tabela IV. 3 – Percentual de Acertos da Rede de Detecção.


DEFEITOS
CONJUNTO
DETECTADOS
Validação 100%
Teste 100%
Extra 100%

Pode ser observado que mais uma vez a rede detectou 100% dos defeitos
contidos nos subconjuntos de validação e teste e no conjunto de dados extra. Nas
simulações realizadas também foi observado novamente um atraso máximo para
detecção do defeito foi de 3ms.

IV.3.2 Rede de Classificação: Treinamento e Desempenho

Da mesma maneira que a rede de classificação do sistema teste I, o universo de


treinamento para a rede de classificação foi constituído somente por amostras da rede
sob defeitos, totalizando 30870 amostras. Esse conjunto foi dividido em subconjunto de
treinamento (composto de 15435 amostras), de validação (composto de 7718 amostras)
e de teste (composto de 7717 amostras).

O gráfico da Figura IV.25 foi gerado a fim de que fosse escolhida a rede de
melhor desempenho, utilizando-se os mesmos critérios do sistema teste I.

81
Capítulo IV: Estudo de Casos

0.4

Validação
0.35
Treinamento

0.3

0.25
RMSE

0.2

0.15

0.1

0.05

0
12 13 14 15 16 17 18 19 20 21 22 23 24
Neurônios na Camada Oculta

Figura IV.25 - Desempenho da Rede de Classificação X Neurônios na Camada Oculta


para o Subconjunto de Treinamento e Validação.

Como pode ser observado na Figura IV.25, a rede que apresentou o menor
RMSE, considerando o valor médio em 5 treinamento para cada rede, foi a rede com 21
neurônios na camada oculta.

O gráfico da Figura IV.26 mostra a trajetória de convergência da rede escolhida

1.8 Treinamento
Validaçao
1.6 Teste

1.4
Erro Médio Quadrático

1.2

0.8

0.6

0.4

0.2

0
0 100 200 300 400 500 600
Época

Figura IV.26 - Convergência da Rede com 21 Neurônios na Camada Oculta.

82
Capítulo IV: Estudo de Casos

Pode ser observado que, de maneira semelhante ao ocorrido com a rede do


sistema teste I, os subconjuntos considerados percorreram semelhantes trajetórias de
convergência, indicando uma divisão satisfatória das amostras, sem overfitting
significativo.

O desempenho da rede de classificação é mostrado pela Tabela IV.4, e como


pode ser visto, o percentual de acerto mostra uma rede com excelente desempenho.

Tabela IV.4 - Percentual de Acertos da Rede de Classificação.


NÚMERO DE
CONJUNTO ACERTOS
AMOSTRAS
Validação 7718 99.91%
Teste 7717 99.95%
Extra 4410 99.9%

IV.3.3 Rede de Localização: Treinamento e Desempenho

A seguir, descreve-se o comportamento de cada uma das redes que compõem o


módulo de localização.

IV.3.3.1 Defeitos FASE-TERRA

Para análise dessa rede foram utilizadas 1544 amostras para treinamento, 772
para validação e 771 para teste. A partir desses subconjuntos de dados o gráfico da
Figura IV.27 foi gerado, a fim de que fosse escolhida a rede de melhor desempenho,
mantendo-se o critério de menor RMSE em 5 treinamentos consecutivos, considerando-
se o subconjunto de validação.

83
Capítulo IV: Estudo de Casos

0.18

Validação
0.16
Treinamento

0.14

0.12
RMSE

0.1

0.08

0.06

0.04

0.02
12 14 16 18 20 22 24 26 28 30 32 34 36
Neuronios nas Camadas Ocultas

Figura IV.27 - Desempenho da Rede de Localização AT X Neurônios nas Camadas


Ocultas para o Subconjunto de Treinamento e Validação.

Como pode ser observado na Figura IV.27, o número de neurônios nas camadas
ocultas foi variado de 36, que corresponde a três vezes o número de entradas até 12, que
corresponde ao número de entradas da rede. A configuração que apresentou o menor
RMSE, considerando o valor médio de 5 treinamentos para cada rede, foi a rede com 14
neurônios, tanto na primeira camada oculta quanto na segunda camada oculta. O
gráfico da Figura IV.28 mostra a trajetória de convergência da rede escolhida.

Treinamento
5 Validaçao
Teste

4
Erro Médio Quadratico

0
0 100 200 300 400 500 600 700
Época

Figura IV.28 - Convergência da Rede com 14 Neurônios nas Camadas Ocultas.

84
Capítulo IV: Estudo de Casos

Todas as redes testadas convergiram por parada antecipada e no máximo em


1000 épocas. Pode ser observado na Figura IV.28 que a trajetória de todos os erros teve
comportamento semelhante, indicando mais uma vez uma boa distribuição das amostras
entre os subconjuntos definidos e também não houve overfitting significativo. Com a
topologia da rede de localização de defeitos AT escolhida e após o treinamento da rede,
foi realizado o teste de desempenho para os subconjuntos de treinamento, validação,
teste e com o conjunto de dados extra.

O gráfico da Figura IV.29 mostra a curva de probabilidade acumulada para os


subconjuntos de treinamento, validação e teste, além do conjunto de dados extra.

100

95 Treinamento
Validaçao
Probabilidade Acumulada (%)

Teste
90 Extra

85

80

75

70
1 2 3 4 5 6 7 8
Erro de Localizaçao (%)

Figura IV.29 - Curva de Probabilidade Acumulada para Rede de Localização de Defeitos


AT.

• Pode ser observado que o erro de localização foi menor que 8% para 100%
das amostras analisadas, até mesmo para o conjunto de dados extra.

IV.3.3.2 Defeitos FASE-FASE

Para análise dessa rede foram utilizadas 1544 amostras para treinamento, 772
para validação e 771 para teste. A partir da média dos erros da rede em relação aos

85
Capítulo IV: Estudo de Casos

subconjuntos de dados de treinamento e validação para 5 treinamentos, o gráfico da


Figura IV.30 foi gerado a fim de que fosse escolhida a rede de melhor desempenho.

0.3
Validação
Treinamento
0.25

0.2
RMSE

0.15

0.1

0.05
15 20 25 30 35
Neurônios nas Camadas Ocultas

Figura IV.30 - Desempenho da Rede de Localização AB X Neurônios nas Camadas


Ocultas para o Subconjunto de Treinamento e Validação.

Como pode ser observado na Figura IV.30, a rede que apresentou o menor
RMSE, considerando o valor médio de cinco treinamentos para cada rede, foi a rede
com 15 neurônios, tanto na primeira camada oculta quanto na segunda camada oculta.
Optou-se, nesse caso, por variar os neurônios na camada oculta de 36, que corresponde
a três vezes o número de entradas até 12, que corresponde ao número de entradas da
rede. O gráfico da Figura IV.31 mostra a trajetória de convergência da rede escolhida.

1.8 Treinamento
Validaçao
1.6
Teste
1.4
Erro Médio Quadrático

1.2

0.8

0.6

0.4

0.2

0
0 50 100 150 200 250 300 350 400
Época

Figura IV.31 - Convergência da Rede com 15 Neurônios nas Camadas Ocultas.

86
Capítulo IV: Estudo de Casos

Todas as redes testadas convergiram por parada antecipada e no máximo em 800


épocas e apresentaram características de convergência semelhantes à rede para
localização de defeitos FASE-TERRA.

Com a topologia da rede escolhida e após o treinamento, foi realizado o teste de


desempenho para o conjunto de dados extra. O gráfico da Figura IV.32 mostra a curva
de probabilidade acumulada do erro de localização para os subconjuntos de
treinamento, validação e teste, bem como o conjunto de dados extra.

100

Treinamento
90
Validaçao
Probabilidade Acumulada (%)

Teste
80
Extra

70

60

50

40

30
1 2 3 4 5 6 7 8 9 10 11 12 13
Erro de Localizaçao (%)

Figura IV.32 - Curva de Probabilidade Acumulada para Rede de Localização de Defeitos


AB.

Analisando o gráfico da Figura IV.32, observa-se que o erro máximo de


localização foi de 13% e que o erro foi menor que 5% para mais de 95% do conjunto de
amostras.

IV.3.3.3 Defeitos FASE-FASE-TERRA

Para análise dessa rede serão utilizadas 1544 amostras para treinamento, 772 para
validação e 771 para teste. A partir desses subconjuntos de dados o gráfico da Figura
IV.33 foi gerado a fim de que fosse escolhida a rede de melhor desempenho.

87
Capítulo IV: Estudo de Casos

0.22
Validação
0.2
Treinamento
0.18

0.16

0.14

0.12

0.1

0.08

0.06

0.04
15 20 25 30 35

Figura IV.33 - Desempenho da Rede de Localização ABT X Neurônios nas Camadas


Ocultas para o Subconjunto de Treinamento e Validação.

Da mesma forma que nas redes de localização anteriores, o número de


neurônios nas camadas ocultas foi variado de 36 a 12, como pode ser observado na
Figura IV.33. A rede que apresentou o menor RMSE, considerando o valor médio de 5
treinamentos foi a rede com 19 neurônios, tanto na primeira camada oculta quanto na
segunda camada oculta.

O gráfico da Figura IV.34 mostra a trajetória de convergência da rede escolhida

25

Treinamento
Validaçao
20
Teste
Erro Médio Quadratico

15

10

0
0 50 100 150 200 250 300 350
Época

Figura IV.34 - Convergência da Rede com 19 Neurônios nas Camadas Ocultas.

88
Capítulo IV: Estudo de Casos

Todas as redes testadas convergiram por parada antecipada e no máximo em


1000 épocas. Com a topologia da rede escolhida e após o treinamento da rede, foi
realizado o teste de desempenho para o conjunto de dados extra. O gráfico da Figura
IV.35 mostra a curva de probabilidade acumulada para os subconjuntos de treinamento,
validação e testes, além do conjunto de dados extra.

100

95

90 Treinamento
Probabilidade Acumulada (%)

85 Validaçao
Teste
80 Extra
75

70

65

60

55

50
5 10 15 20 25
Erro de Localizaçao (%)

Figura IV.35 - Curva de Probabilidade Acumulada para Rede de Localização de Defeitos


ABT.

Pelo gráfico da Figura IV.35 observa-se que o erro máximo da rede foi de 22%.
Entretanto, o erro de localização foi menor que 10% para mais de 98% das amostras
analisadas.

IV.3.3.4 Defeitos FASE-FASE-FASE

Para análise da rede responsável pela localização de defeitos envolvendo


simultaneamente as fases A, B e C, foram utilizadas 1544 amostras para treinamento,
772 para validação e 771 para teste. A partir desses subconjuntos de dados o gráfico da
Figura IV.36 foi gerado a fim de que fosse escolhida a rede de melhor desempenho.

89
Capítulo IV: Estudo de Casos

0.7

Validação
0.6
Treinamento

0.5

0.4
RMSE

0.3

0.2
Menor RMSE

0.1

0
15 20 25 30 35
Neuronios nas Camadas Ocultas

Figura IV.36 - Desempenho da Rede de Localização ABC X Neurônios nas Camadas


Ocultas para o Subconjunto de Treinamento e Validação.

Como pode ser observado na Figura IV.36, os neurônios nas camadas ocultas
foram variados de 36 a 12 e a rede que apresentou o menor RMSE, considerando o
valor médio de 5 treinamentos para cada rede, foi a rede com 23 neurônios, tanto na
primeira camada oculta quanto na segunda camada oculta. O gráfico da Figura IV.36
mostra a trajetória de convergência da rede escolhida

25

Treinamento
Validaçao
20 Teste
Erro Médio Quadrático

15

10

0
0 50 100 150 200 250
Época

Figura IV.37 - Convergência da Rede com 23 Neurônios nas Camadas Ocultas.

90
Capítulo IV: Estudo de Casos

Todas as redes testadas convergiram por parada antecipada e no máximo em 600


épocas. A trajetória de convergência da rede teve as mesmas características das redes
analisadas anteriormente, com o erro de validação comportando-se de forma semelhante
ao erro de teste, mostrando divisão de amostras satisfatória. Com a topologia da rede
escolhida e após o treinamento, foi realizado o teste de desempenho para os
subconjuntos de treinamento, validação, teste e o conjunto de dados extra. O gráfico da
Figura IV.38 mostra a curva de probabilidade acumulada para esses conjuntos.

100

90 Treinamento
Validaçao
Teste
Probabilidade Acumulada (%)

80
Extra

70

60

50

40

30
1 2 3 4 5 6 7 8 9 10 11 12
Erro de Localizaçao (%)

Figura IV.38 - Curva de Probabilidade Acumulada para Rede de Localização de Defeitos


ABC.

Como pode ser observado, o erro de localização foi menor que 10% para 100%
das amostras analisadas.

IV. 4 Conclusões
Este capítulo apresentou os resultados obtidos através da aplicação da
metodologia proposta para a elaboração de um esquema completo de detecção,
classificação e localização de defeitos em linhas de transmissão. Para isto, foram
utilizados os sistemas IEEE-14 e o sistema equivalente utilizado em BRAHMA [ 26 ].

91
Capítulo IV: Estudo de Casos

Nas simulações, constatou-se que o treinamento de todas as redes foi realizado


de forma rápida (em no máximo 10 minutos) e eficiente. As redes sempre convergiram
por parada antecipada, o que garantiu uma alta capacidade de generalização. Cabe
ressaltar neste ponto que o acompanhamento da trajetória de convergência do conjunto
de teste foi um fator determinante no que concerne à verificação da correta divisão do
universo de amostras.

92
Capítulo V

Conclusões

V.1 Conclusões
Esta dissertação teve como objetivo a elaboração de um esquema completo de
detecção, classificação e localização de defeitos em linhas de transmissão utilizando
redes neurais artificiais (RNA). Esta metodologia tem como característica importante a
utilização das tensões e correntes trifásicas na freqüência fundamental em somente um
dos terminais na linha. A intenção foi elaborar um sistema de proteção alternativo, que
possa trabalhar em conjunto com métodos convencionais na proteção de linhas de
transmissão, melhorando sua eficiência e precisão.

Primeiramente foram apresentados os conceitos básicos de RNA, bem como a


modelagem e algoritmos de treinamento de neurônios artificiais, conceitos estes que
serviram de suporte para a aplicação de redes neurais no decorrer do trabalho.

Em seguida, foram apresentados os módulos que compõem o esquema


completo de detecção, classificação e localização de defeitos, bem como a estrutura de
geração de dados de treinamento dessas redes. Também foi descrita a estrutura básica
das redes neurais que compõem o sistema de detecção, classificação e localização de
defeitos em linhas de transmissão.

93
Capítulo V: Conclusões

Foram utilizados para testar a metodologia proposta os sistemas IEEE-14 e um


sistema teste, obtido em [ 26 ].

Com relação ao desempenho do módulo de detecção, foi verificado nos testes


realizados que em ambos os sistemas testes o atraso máximo para detecção do defeito
foi de 3ms. A opção por aguardar 10 registros positivos para que o defeito fosse
detectado, visa evitar a operação indevida do sistema de proteção diante de erros de
medições provocados por transformadores de tensão capacitivos, sinais espúrios, etc e
está em consonância com a filosofia de operação de relés numéricos como o REL-100,,
amplamente utilizado. É importante salientar que o módulo de detecção acusou defeito
em 100% dos casos estudados e apesar do grande número de amostras utilizado, o
treinamento das redes para os sistemas estudados foi realizado de forma rápida e
eficiente. As redes sempre convergiram por parada antecipada, o que garantiu uma alta
capacidade de generalização. Cabe ressaltar neste ponto que o acompanhamento da
trajetória de convergência do conjunto de teste foi um fator determinante no que
concerne à verificação da correta divisão do universo de amostras.

Com relação ao desempenho da rede de classificação, constatou-se um


desempenho elevado para todos testes efetuados. Para ambos os sistemas testes, o erro
máximo da rede foi de 0.1%, mostrando que a rede foi capaz de identificar os
condutores envolvidos em praticamente todos os distúrbios estudados.

Para a rede de localização é interessante observar que o desempenho foi


diferente para cada um dos sistemas estudados. No caso do sistema teste II, o módulo
de localização apresentou um melhor comportamento. Este fato pode ser atribuído às
características do sistema teste II, que possui um nível de curto-circuito bem mais
elevado, e aos valores de impedância de defeito, que foram os mesmos para os dois
sistemas testes, fazendo com que os curtos se tornassem mais bem caracterizados que os
analisados no sistema teste I.

Para o sistema teste I, a rede de localização de defeitos FASE-TERRA obteve o


melhor desempenho dentre todas as redes constituintes do módulo de localização.
Levando em consideração que mais de 70% dos defeitos em linhas de transmissão
envolvem somente 1 condutor [ 59 ], pode-se concluir que o módulo de localização
apresentou desempenho muito bom, apesar de condições severas que foram impostas

94
Capítulo V: Conclusões

nas situações simuladas, tais como ângulo de incidência de defeito aleatório e


impedâncias de defeito acima de 80Ohms. As redes de localização FASE-FASE e
FASE-FASE-TERRA tiveram também um desempenho satisfatório, uma vez que
também foram submetidas a condições de operação reais. Contudo, a rede que obteve o
pior desempenho foi a de localização de defeitos ABC. Uma das causas desse baixo
desempenho se deve ao fato de que o defeito trifásico é simétrico, ou seja, neste caso
não é observado desequilíbrio entre as fases. Aliado a esse fato é importante ressaltar os
altos valores de impedância de defeito utilizados nos testes, bem como a consideração
de ângulo de incidência de defeito aleatório, exigindo da rede sensibilidade a variações
extremamente sutis nos sinais, consistindo em um problema de solução deveras
complexa. Tal problema pode ser sanado através da utilização desse esquema de
detecção, classificação e localização de defeitos nos dois terminais da linha de
transmissão.

V.2 Propostas de Desenvolvimentos Futuros


Seguindo a linha de pesquisa desenvolvida nesta dissertação e tendo em vista os
resultados obtidos, alguns tópicos tornam-se promissores como propostas de trabalhos
futuros:

• Inserção, no conjunto de treinamento, de dados da rede sob condições de


curto externo à linha sob análise. Foram simuladas diversas condições de
operação do sistema, mas é necessário avaliar o desempenho das redes no
caso de defeitos em linhas próximas, pois o sistema de proteção deve ser
insensível a essas perturbações.

• Para redes em que o módulo de localização apresentar baixo desempenho


para defeitos de alta impedância e defeitos distantes do terminal de aquisição
de sinais, aplicar técnicas de divisão do espaço de treinamento. Cogitar
também a aplicação redes neurais em conjunto com metodologias
convencionais.

95
Capítulo V: Conclusões

• Inclusão, no banco de dados para treinamento, de defeitos ocorridos na


prática. Estudar a possibilidade de redução do conjunto de treinamento para
a rede de detecção de defeitos.

• A fim de se melhorar o rendimento das redes de localização de defeitos,


inserir na entrada das redes neurais a corrente de neutro.

• Outra opção de implementação visando o desenvolvimento do módulo de


localização de defeitos é a utilização de 7 saídas nas redes de localização,
fazendo com que, em vez de um valor entre 0 e 1, as saídas formem um
número binário, aumentado a precisão das redes.

96
Apêndice A

Técnicas de Otimização
Irrestrita

A.1 Considerações Iniciais

Seja uma função de custo ξ(w) continuamente diferenciável de um vetor w. ξ(w)


mapeia os elementos de w no conjunto dos números reais. Deseja-se encontrar w* que
otimize ξ(w) tal que:

ξ ( w* ) ≤ ξ ( w) (A. 1)

Como não há equações de restrição das variáveis do problema, configura-se


então um problema de otimização irrestrita. A condição de minimização é:

∇ξ ( w* ) = 0 (A. 2)

Onde:

T
 ∂ξ ∂ξ ∂ξ 
∇ξ ( w) =  , ,...,  (A. 3)
 ∂w1 ∂w2 ∂wm 

97
Apêndice A: Técnicas de Otimização Irrestrita

Onde:

∇ Operador gradiente.

w1, w2, w3,... , wm Vetores de peso sináptico.

A idéia é elaborar algoritmos que gerem uma seqüência de vetores de peso a fim
de que a função ξ(w) seja reduzida a cada iteração (representada por n), tal que:

ξ ( w(n + 1)) < ξ ( w(n)) (A. 4)

Essa idéia é denominada descida iterativa. A seguir serão discutidos alguns


métodos baseados nessa idéia.

A.2 Método da Descida Mais Íngreme


Nesse método, os ajustes ao vetor de pesos sinápticos w são em uma direção
oposta ao vetor gradiente ∇ξ(w), que é a direção de descida mais íngreme.

Pode-se descrever o algoritmo como:

w(n + 1) = w(n) − η .∇ξ ( w(n)) (A. 5)

Observa-se, na equação (A. 5), que o valor atual do peso sináptico é igual ao
valor anterior acrescido de um termo que é composto pelo negativo do gradiente da
função de custo ∇ξ(w) e η, que é uma constante que regula o tamanho do passo,
denominada taxa de aprendizagem.

O controle da taxa de aprendizagem é fundamental na velocidade de


convergência desse método, uma vez que, se η for pequeno a convergência torna-se
lenta. Contudo, se η for grande, pode ocorrer um comportamento oscilatório,

98
Apêndice A: Técnicas de Otimização Irrestrita

dificultando a convergência. Pode ocorrer também instabilidade e o algoritmo divergir,


se η exceder um determinado valor crítico.

A.3 Método de Newton

No Método de Newton procura-se minimizar a aproximação quadrática de ξ(w)


em um determinado ponto w, no instante n. Para tanto, considere a equação (A. 6):

ξ ( w(n + 1)) = ξ ( w(n)) + ∆ξ ( w(n)) (A. 6)

Isolando o termo com ∆, temos:

∆ξ ( w(n)) = ξ ( w(n + 1)) − ξ ( w(n)) (A. 7)

Aplicando expansão de Taylor de segunda ordem na equação(A. 7):

1
∆ξ ( w(n))  ∇ξ ( w(n))T .∆w(n) + .∆wT (n).∇ 2ξ ( w(n)).∆w(n) (A. 8)
2

A derivada segunda de ξ(w) em relação a w é chamada matriz Hessiana (H) e é


definida como:

 ∂ 2ξ ∂ 2ξ ∂ 2ξ 
 ∂w2 ...
 1 ∂w1∂w2 ∂w1∂wm 
 ∂ξ2
∂ 2ξ ∂ 2ξ 
 ... 
H =  ∂w2 ∂w1 ∂w22 ∂w2 ∂wm  (A. 9)
 # # ... # 
 
 ∂ 2ξ ∂ 2ξ ∂ 2ξ 
 ∂w ∂w ...
 m 1 ∂wm ∂w2 ∂wm2 

99
Apêndice A: Técnicas de Otimização Irrestrita

Então:

∇ξ ( w(n)) + H (n).∆w(n) = 0 (A. 10)

Isolando ∆w(n):

∆w(n) = − H −1 (n).∇ξ ( w(n)) (A. 11)

Finalmente, podemos descrever o algoritmo como:

w(n + 1) = w(n) − H −1 (n).∇ξ ( w(n)) (A. 12)

Como a operação para obtenção de ∆w(n) na equação (A. 11) é matricial, temos
H-1, que é a inversa da Hessiana.

100
Apêndice B

Derivadas do Algoritmo de
Retropropagação

B.1 Considerações Iniciais


O algoritmo de treinamento de redes de múltiplas camadas, denominado
algoritmo de retropropagação, possui duas fases básicas: a primeira, de propagação do
sinal da entrada através da rede, na qual não há ajuste dos pesos sinápticos. O sinal de
entrada gera uma saída da rede, que é comparada com a saída esperada e o sinal de erro
é gerado. Na fase de retropropagação, os pesos sinápticos são ajustados. O sinal de erro
se propaga em sentido contrário ao da rede e as correções das conexões sinápticas são
realizadas. O procedimento matemático para cálculo dessas atualizações será tratado
neste apêndice.

B.2 Formulação Matemática da Retropropagação


Para o desenvolvimento matemático que dá suporte à fase de retropropagação
do algoritmo de retropropagação, será considerado que o algoritmo de retropropagação
operará em modo seqüencial. Dessa maneira, será considerado que a minimização do
erro de casa padrão levará à minimização do erro de todo o universo de treinamento. É
importante ressaltar que o desenvolvimento matemático aqui demonstrado baseia-se no
grafo orientado da Figura II.18.

101
Apêndice B: Derivadas do Backpropagation

Então, sem perda de generalidade:

1 U
ξ ( w) = ∑
2 j =1
(d j − y j ) 2 (B.1)

Onde ξ(w) é a função de erro e dj e yj são, respectivamente, a saída desejada e a


saída obtida pela rede.

Aplicando a regra da cadeia, calcula-se derivada da função de erro em relação a


w:

∂ξ (n) ∂ξ (n) ∂ek (n) ∂yk (n) ∂vk (n)


= . . . (B.2)
∂wkj (n) ∂ek (n) ∂yk (n) ∂vk (n) ∂wkj (n)

Calculando a primeira derivada do lado direito da equação (B.2), tem-se:

∂ξ (n)
= ek (n) (B.3)
∂ek (n)

A partir da equação (B.1), obtém-se a segunda derivada à direita na equação :

∂ek (n)
= −1 (B.4)
∂yk (n)

Considerando que a saída do neurônio k é:

yk (n) = Fk (vk (n)) (B.5)

Obtém-se o valor da terceira derivada do lado direito da igualdade na equação


(B.5):

102
Apêndice B: Derivadas do Backpropagation

∂yk (n)
= Fk' (vk (n)) (B.6)
∂vk (n)

Onde ’ representa a derivada de F em relação a vk(n).

A partir do campo local induzido no neurônio k:

m
vk (n) = ∑ wkj (n). y j (n) (B.7)
j =0

Obtém-se a quarta derivada à direita da equação (B.7):

∂vk (n)
= y j ( n) (B.8)
∂wkj (n)

Reescrevendo a equação (B.2) a partir das equações(B.3), (B.4), (B.6) e (B.8),


tem-se:

∂ξ (n)
= −ek (n).Fk' (vk (n)). y j (n) (B.9)
∂wkj (n)

Da Regra Delta, mostrada na equação (II.22), tem-se:

wkj (n + 1) = wkj (n) − ∆wkj (n) (B.10)

Onde:

∂ξ (n)
∆wkj (n) = −η . (B.11)
∂wkj

Com a equação (B.11), podemos reescrever a equação (B.1) da seguinte forma:

103
Apêndice B: Derivadas do Backpropagation

∆wkj (n) = η .ek (n).Fk' (vk (n)). y j (n) (B.12)

Considerando δ como gradiente e definindo o mesmo por:

∂ξ (n)
δ k ( n) = (B.13)
∂vk (n)

Temos, pela regra da cadeia:

∂ξ (n) ∂yk (n)


δ k (n) = . (B.14)
∂yk (n) ∂vk (n)

A segunda derivada do lado direito da equação (B.14), já foi definida pela


equação (B.6). A primeira derivada é calculada em função da camada a qual o neurônio
pertence.

Se o neurônio estiver na última camada, de acordo com a equação (B.1), o valor


da derivada será:

∂ξ (n)
= d k ( n ) − yk ( n ) (B.15)
∂yk (n)

Como:

ek (n) = d k (n) − yk (n) (B.16)

Temos:

δ k (n) = ek (n).Fk' (vk (n)) (B.17)

104
Apêndice B: Derivadas do Backpropagation

Se o neurônio estiver numa camada oculta da rede (no caso da equação (II.24), a
camada a qual pertence o neurônio j), é sabido que o sinal de erro que o alimenta é
gerado na camada à direita da camada a qual pertence. Então, considerando:

1 mL 2
ξ ( n) = ∑ ek (n)
2 k =1
(B.18)

Onde ξ(n) é o erro da saída da rede e mL é o número de neurônios da camada de


saída da rede, a derivada desta equação em relação à saída do neurônio j, temos:

∂ξ (n) mL ∂e (n)
= ∑ ek (n). k (B.19)
∂y j (n) k =1 ∂y j (n)

Utilizando novamente a regra da cadeia, temos que:

∂ek (n) ∂ek (n) ∂vk (n)


= . (B.20)
∂y j (n) ∂vk (n) ∂y j (n)

Para a primeira derivada da equação (B.20), como o índice k se refere à camada


de saída e considerando a equação (B.16), temos:

∂ek (n)
= − Fk' (vk (n)) (B.21)
∂vk (n)

De posse da equação (B.7), calcula-se a segunda derivada da equação (B.20):

∂vk (n)
= wkj (n) (B.22)
∂y j (n)

De posse das equações (B.21)e (B.22), temos:

105
Apêndice B: Derivadas do Backpropagation

∂ek (n)
= − Fk' (vk (n)).wkj (n) (B.23)
∂y j (n)

A derivada da função de custo em relação à saída do neurônio j (oculto) é então:

∂ξ (n) mL
= −∑ ek (n).Fk' (vk (n)).wkj (n) (B.24)
∂y j (n) k =1

Manipulando a equação (B.14), referente ao neurônio oculto e a equação (B.24),


temos:

mL
δ j (n) = −∑ ek (n).Fk' (vk (n)).wkj (n).Fj' (v j (n)) (B.25)
k =1

Da equação(B.17), temos

δ k (n) = ek (n).Fk' (vk (n)) (B.26)

Manipulando as equações (B.25) e (B.26):

mL
δ j (n) = Fj' (v j (n))∑ δ k (n).wkj (n) (B.27)
k =1

A equação (B.27) representa o valor do gradiente para um neurônio j,


pertencente a uma camada oculta de uma rede neural de múltiplas camadas.

106
Apêndice C

Processamento de Sinais

C.1 Considerações Iniciais


Este apêndice discorre sobre o tratamento que deve ser dado aos sinais de
tensão e corrente em subestações a fim de que somente as componentes em 60 Hz
sejam introduzidas nos módulos de detecção, classificação e localização de defeitos em
linhas de transmissão.

C.2 Aliasing
A Figura C.1 mostra os passos para o tratamento dos sinais.

Sinal de TC/TP
Filtro Sinal em 60Hz
Conversor Filtro de
A/D Fourier
Anti-Aliasing

Figura C.1 – Esquema de Processamento dos Sinais.

Na Figura C.1, os sinais provenientes de TP e TC passam por um filtro anti-


aliasing, são então digitalizados e um filtro de Fourier externa os sinais em 60Hz para que
sejam apresentados aos módulos do esquema proposto na tese [ 60 ].

107
Apêndice C: Processamento de Sinais

De forma a esclarecer a função do filtro anti-aliasing neste processo, alguns


conceitos são necessários. A seguir será feita uma sucinta explanação a respeito das
questões que envolvem a filtragem de sinais nesse tipo de aplicação. Para tanto, alguns
conceitos básicos de processamento de sinais analógicos são necessários [ 61 ].

Se um sinal é periódico com período T, ele pode ser expresso por uma série de
Fourier:

∞ 2π

∑a
j kt
x(t ) = k .e T (C.1)
k =−∞

Onde ak é

T /2 2π
1 − jk t
ak =
T ∫
− T /2
x ( t ).e T
dt (C.2)

Para um sinal f(t) contínuo no tempo, a sua transformada de Fourier é dada por:


F ( j Ω) = ∫ f ( t ).e − j Ωt dt (C.3)
−∞

Onde Ω representa a freqüência, em radianos por segundo.

A relação inversa à equação (C.3) é dada por:

1 ∞
f (t ) =
2π ∫ −∞
F ( j Ω ).e j Ωt d Ω (C.4)

Como a transformada de Fourier do produto de duas funções é igual à


convolução de suas transformadas de Fourier, considerando x(t)=a(t).b(t), então:

108
Apêndice C: Processamento de Sinais

1
X ( j Ω) = A( j Ω ) * B( j Ω ) (C.5)

Desenvolvendo:

1 ∞
X ( j Ω) =
2π ∫−∞
A( j Ω − j Ω ').B( j Ω ')d Ω ' (C.6)

Onde X(jΩ), A(jΩ) e B(jΩ) são as transformadas de Fourier de x(t), a(t) e b(t),
respectivamente.

Necessita-se neste ponto da definição de impulso unitário atrasado:

1, n = m
δ (n − m ) =  (C.7)
0, n ≠ m

Então, de acordo com o teorema da amostragem, dado um sinal x(n) no tempo


discreto derivado de um sinal xa(t) no tempo contínuo é possível definir um sinal xi(t) no
tempo contínuo a partir de um trem de impulsos t=nT, cada um com área igual a
x(n)=xa(nT). A partir desta definição, pode-se descrever o sinal xi(t) como:


x i (t ) = ∑ x ( n ).δ ( t − nT )
n =−∞
(C.8)

Considerando-se que um sinal x(n) no tempo discreto consiste em amostras de


um sinal xa(t) no tempo contínuo, ou seja:

x ( n ) = x a ( nT ) (C.9)

Pode-se então expressar xi(t) como:

109
Apêndice C: Processamento de Sinais


x i (t ) = ∑ x ( nT ).δ ( t − nT )
n =−∞
a (C.10)

Definindo p(t) como:


p( t ) = ∑ δ ( t − nT )
n =−∞
(C.11)

Constata-se que xi(t) pode ser obtido pela multiplicação do sinal xa(t) no tempo
contínuo por um trem de impulsos p(t), como descreve e equação abaixo:

x i ( t ) = x a ( t ). p( t ) (C.12)

A partir das equações (C.6) e (C.11) podemos descrever a transformada de


Fourier de xi(t):

1
Xi ( j Ω) = Xa ( j Ω ) * P ( j Ω ) (C.13)

Observa-se pela equação (C.10) que no intervalo [-T/2, T/2] p(t) é um simples
impulso δ(t). Pela equação (C.2) pode-se calcular os coeficientes ak da série de Fourier de
p(t):

1
ak = (C.14)
T

Então, de acordo com a equação (C.1), a série de Fourier para p(t) é:

∞ 2π
1
∑e
j kt
p( t ) = T
(C.15)
T −∞

110
Apêndice C: Processamento de Sinais

Considerando que:

f ( t ) = e j Ω0t (C.16)

E sua transformada de Fourier é:

F ( j Ω ) = 2πδ ( Ω − Ω 0 ) (C.17)

Pela equação (C.14) a transformada de Fourier de p(t) será:

2π ∞

P( j Ω) =
T
∑ δ (Ω − T
k =−∞
k) (C.18)

Substituindo a equação (C.17) na equação (C.12), tem-se:

1 ∞

Xi ( j Ω) = Xa ( j Ω ) * ∑ δ ( Ω − k) (C.19)
T k =−∞ T

Como a convolução de uma função F(jΩ) com um impulso deslocado δ(Ω-Ω0) é


a função deslocada F(jΩ-Ω0), tem-se:

1 ∞ 2π
X i ( j Ω) = ∑
T k =−∞
Xa ( jΩ − j
T
k) (C.20)

Observa-se pela equação (C.19) que o espectro de xi(t) é composto de infinitas


cópias deslocadas do espectro de xa(t), com deslocamentos na freqüência múltiplos
inteiros da freqüência de amostragem Ωs= 2π/T.

A fim de se evitar que as cópias repetidas do espectro de xa(t) interfiram umas


nas outras, este sinal deve ter largura de faixa limitada. A Figura C.2 mostra algumas
condições de largura de faixa.

111
Apêndice C: Processamento de Sinais

(a) (b)

(c) (d)

Figura C.2 – Sinais no Domínio da Freqüência.

Na Figura C.2 (a) tem-se um espectro de sinal contínuo no tempo. Na Figura


C.2 (b) observa-se um sinal discretizado no tempo. Nos gráficos (c) e (d) da Figura C.2
observa-se que a largura de faixa Ωc deve ser limitada a fim de que a extremidade
superior do espectro centrado em zero se situe abaixo da extremidade inferior do
espectro centrado em Ωs , ou seja:

Ω s > 2Ωc (C.21)

Interpretando a equação (C.20), vemos que a freqüência de amostragem tem que


ser maior que duas vezes a largura de faixa unilateral do sinal no tempo contínuo. A
equação (C.20) sintetiza o teorema de Nyquist.

A sobreposição das repetições do espectro de xa(t) em xi(t), como mostrado na


Figura C.2(c), é denominada de aliasing.

112
Apêndice D

Dados dos Sistemas


Equivalentes

D.1 Considerações Iniciais


Este apêndice apresenta os dados do sistema equivalente ao sistema elétrico de
potência IEEE-14 e os dados do sistema equivalente utilizado por BRAHMA [ 26 ], que
são os equivalentes utilizados nesta dissertação.

D.2 Sistema Teste I


Abaixo seguem os parâmetros do sistema equivalente utilizado:

Tabela C.1 – Parâmetros da Linha de Transmissão.


Comprimento da Linha 100km
R1 0.041543Ω/km
R0 0.12463Ω/km
L1 0.18833mH/km
L0 0.560491mH/km
C1 9.4247779E-6F/km
C0 15.206293E-6F/km

113
Apêndice D: Dados dos Sistemas Equivalentes

Impedâncias das fontes:

Tabela C.2 – Impedâncias das Fontes.


ZSK1 3.124 + j49.5Ω
ZSK0 21.793 + j16.5iΩ
ZSM1 5.463774 + j94.7656Ω
ZSM0 38.246403 + j31.5886Ω

Tabela C.3 – Tensões Atrás das Barras.


VSK 145622∠47,15o V
VSM 133868∠50,44o V

D.3 Sistema Teste II


Abaixo seguem os parâmetros do sistema equivalente utilizado:

Tabela C.4 – Parâmetros da Linha de Transmissão.


Comprimento da Linha 200 milhas
R1 0.249168Ω/milha
R0 0.60241Ω/milha
L1 1.56277mH/milha
L0 4.8303mH/milha
C1 19.469E-9F/milha
C0 12.06678E-9F/milha

Tabela C.5 – Impedâncias das Fontes.


ZSK1 17.177 + j45.5285Ω
ZSK0 2.5904 + j14.7328iΩ
ZSM1 15.31 + j45.9245Ω
ZSM0 0.7229 + j15.1288Ω

Tabela C.6 – Tensões Atrás das Barras.


VSK 408248∠20,00o V
VSM 408248∠00,00o V

114
Apêndice D: Dados dos Sistemas Equivalentes

Abaixo segue a Tabela C.7, que mostra as variações percentuais aplicadas ao


sistema equivalente a fim de que fossem simuladas deferentes condições de operação do
sistema:

Tabela C.7 – Condições de Operação para Simulação.


Parâmetro
Condição RSK LSK RSM LSM |VSK| θSK |VSM| θSM
de Operação
1 --- --- --- --- -0,32 -4,05 -1,27 0,74
2 540,9 310,5 --- --- -6,93 11,59 -3,83 6,75
3 540,9 310,5 --- --- -8,4 10 -5,87 10,4
4 0,15 --- 0,40 -0,20 -0,13 5 -0,3 5
5 0,31 -0,13 0,79 -0,32 -0,27 10,1 -0,63 9,95
6 0,46 -0,19 1,19 -0,48 -0,4 15,2 -1 15

115
Referências Bibliográficas
[1] SILVA, Hélio A., “Localização de Falta em Linhas de Transmissão,
Desconhecendo-se os Parâmetros de Seqüência Zero da Rede”, Tese de
Doutorado, PUC, Rio de Janeiro, Março, 1999.
[2] ONS – OPERADOR NACIONAL DO SISTEMA ELÉTRICO, “Contrato de
Prestação de Serviço de Transmissão”, Brasil, Março de 2002.
[3] MCCULLOCH, W., PITTS, W., “A Logical Calculus of the Ideas Immanent in
Nervous Activity”, Bulletin of Mathematical Biophysics, 1943.
[4] HEBB, D. O., “The organization of Behavior”, John Wiley & Sons, New York,
1949.
[5] ROSENBLATT, R., “The Perceptron: A Probabilistic Model for Information
Storage and Organization in the Brain”, Psychol. Rev.65, 1958.
[6] WIDROW, B, “Generalization and Information Storage in Networks of Adaline
Neurons”, Self-Organizing Systems, 1962.
[7] MINSKY, M., PAPPERT, S., “Perceptrons”, MIT Press, Cambridge, 1969.
[8] HOPFIELD, J. J., “Neural Networks and Physical Systems with Emergent
Collective Computational Abilities”, Proceedings of National Academy of
Sciences, Vol.79, pp. 2554-2558, April, 1982.
[9] RUMELHART, D. E., MCCLELLAND, J. L., “Parallel Distributed
Processing”. MIT Press, Vol.1, 1986.
[ 10 ] WIDROW, B., LEHR, M. A., “30 Years of Adaptive Neural Networks:
Perceptron, Madaline and Backpropagation”. Proceedings of the IEEE, Vol.78,
N.9, September, 1990.
[ 11 ] RAHMAN, S., “Artificial Intelligence in Electric Power Systems: A Survey of
the Japanese Industry”, IEEE Transactions on Power Systems, Vol.8, N.3,
August, 1993.
[ 12 ] CHEN, D., MOHLER, R. R., “Neural-Network-Based Load Modeling and Its
Use in Voltage Stability Analysis”, IEEE Transactions on Control Systems
Technology, Vol.11, N.11, July, 2003.
[ 13 ] LAI, L. L. et al, “Real-Frequency and Harmonic Evaluation Using Artificial
Neural Networks”, IEEE Transactions on Power Delivery, Vol.14, N.1,

116
January, 1999.
[ 14 ] LIM, S.-W., SHOURESHI, R. A., “Neural-Based Monitoring System for Health
Assessment of Electric Transmission Lines”, IEEE Proceedings of the
American Control Conference, Colorado, USA, June, 2003.
[ 15 ] AKIMOTO, Y. et al, “Transient Stability Expert System”, IEEE Transactions
on Power Systems, Vol.4, N.1,pp.312-320, February, 1989.
[ 16 ] ROCKEFELLER, G.D. et al, “Adaptive Transmission Relaying Concepts for
Improved Performance”, IEEE Transactions on Power Delivery, Vol.3, N.4,
October, 1988.
[ 17 ] HOROWITZ, S. H., PHADKE, A. G., THORP, J. S., “Adaptive Transmission
System Relaying”, IEEE Transactions on Power Delivery, Vol.3, N.4, October,
1988.
[ 18 ] THORP, J. S., PHADKE, A. G., “Protecting Power Systems in the Post-
Restructuring Era”, IEEE Computer Applications in Power, Vol. 12, Issue 1,
pp.33–37, January,. 1999.
[ 19 ] PHADKE, A. G., HOROWITZ, S. H, THORP, J. S., “Aspects of Power
System Protection in the Post-Restructuring Era”, IEEE Proceedings of the 32nd
International Conference on System Sciences, 1999.
[ 20 ] RADOJEVIC, Z. M.; TERZIJA, V. V.; DJURIC, M. B.; “Multipurpose
Overhead Lines Protection Algorithm”, IEE Proceedings on Generation,
Transmission and Distribution, Vol.146, Issue 5, pp.441-445, September, 1999.
[ 21 ] HEYDT, G. T.; LIU, C. C.; PHADKE, A. G.; VITTAL, V.; “Solution for the
Crisis in Electric Power Supply”, IEEE Computer Applications in Power,
Vol.14, Issue 3, pp.22-30, July 2001.
[ 22 ] PATTERSON, R., “Signatures and Software Find High Impedance Faults”;
IEEE Computer Applications in Power, Vol.8, Issue 3, pp.12-15, July, 1995.
[ 23 ] SOLLERO et al, “Localização de Faltas em Sistemas de Transmissão a Partir de
Sinais Oscilografados em Ambas as Extremidades da Linha”, XVI SNPTEE –
Seminário Nacional de Produção e Transmissão de Energia Elétrica, Outubro de
2001.
[ 24 ] LI, H. Y. et al, ”A New Type of Differential Feeder Protection Relaying Using
the Global Positioning System for Data Synchronization”, IEEE Transactions
on Power Delivery, Vol. 12, No.3 , July, 1997.
[ 25 ] LIN, Y-H et al, “An Adaptive Fault Locator for Transmission Lines Tapped

117
with a Source of Generation – Using Synchronized Voltage and Current
Phasors”, IEEE Power Engineering Society Summer Meeting, Vol.3, pp.1379 –
1383, July, 2000.
[ 26 ] BRAHMA, S. M., GIRGIS, A. A., “Fault Location on a Transmission Line
Using Synchronized Voltage Measurements”, IEEE Transactions on Power
Delivery, Vol. 19, No. 4, October 2004.
[ 27 ] JIANG, J.A. et al, “A new Protection Scheme for Fault Detection, Direction
Discrimination, Classification and Location in Transmission Lines”, IEEE
Transactions on Power Delivery, Vol. 18, No.2 , January, 2003.
[ 28 ] IEEE POWER SYSTEM RELAYING COMMITTEE, “Synchronized
Sampling and Phasor Measurement for Relaying and Control”, IEEE
Transactions on Power Delivery, Vol. 9, No. 1,pp 442-452, January 1994.
[ 29 ] PHADKE, A. G., “Synchronized Phasor Measurements in Power Systems”,
IEEE Computer Applications in Power Journal, April, 1993.
[ 30 ] TAKAGI, T. et al, “Development of a New Type Fault Locator using the One-
terminal Voltage and Current Data”, IEEE Transactions on Power Apparatus
and Systems, Vol. PAS 101, N.8, August, 1982.
[ 31 ] RANJBAR, A. M., CORY, B. J., “An Improved method for the Digital
Protection of High voltage transmission Line”, IEEE Transactions on Power
Apparatus and Systems, Vol. PAS 94, N.2,pp.554-560, 1975.
[ 32 ] WESTLIN, S. E., BUBENKO, J. A., “Newton-Raphson Technique Applied to
the Fault Location Problem”, IEEE PES Summer Meeting, 1976.
[ 33 ] PHADKE, A. G., “Computer Relaying: Its Impact on Improved Control and
Operation of Power Systems”, IEEE Computer Applications In Power Journal,
1988.
[ 34 ] SIDHU, T. S., SINGH, H., SACHDEV, M. S., “Design, Implementation and
Testing of an Artificial Neural Network Based Fault Direction Discrimination
for Protecting Transmission Lines”, IEEE Transactions on Power Delivery,
Vol. 10, No. 2, April 1995.
[ 35 ] DAS, R., KUNSMAN, S. A., “A Novel Approach for Ground fault Detection”,
57th Annual Conference for Protective Relay Engineers, Texas A & M
University, Texas, April 2004.
[ 36 ] DALSTEIN, T., KULICKE, B., “Neural Network Approach to Fault
Classification for High Speed Protective Relaying”, IEEE Transactions on
Power Delivery, Vol. 10, No.2, April 1995.

118
[ 37 ] OLESKOVICZ, et al, “Redes Neurais Artificiais Aplicadas à Classificação
Rápida de Faltas em Sistemas Elétricos de Potência”, SBA Controle &
Automação, Vol.11, n.3, 2000.
[ 38 ] QI, W., SWIFT, G. W., MACLAREN, P. G., CASTRO, A. V., “An Artificial
Neural Network to Distance Protection”, Intelligent Systems Intelligent Systems
Applications to Power Systems. Proceedings, ISAP '96, International
Conference, pp.226-230, February, 1996.
[ 39 ] COURY, D. V., JORGE, D. C., “Artificial Neural Network Approach to
Distance Protection of Transmission Lines” IEEE Transactions on Power
Delivery, Vol. 13, No. 1, January 1998.
[ 40 ] OTHMAN, M. F., MAHFOUF, M., LINKENS, D. A., “Transmission Lines
fault detection, Classification and Location Using an Intelligent Power System
Stabilizer”, IEEE International Conference on Electric Utility Deregulation,
Restructuring and Power Technologies, Hong Kong, April, 2004.
[ 41 ] OLESKOVICZ, M., et al, “Um Esquema Completo Para Detecção,
Classificação e Detecção de Defeitos em Linha Utilizando Redes Neurais”, XVI
SNPTEE – Seminário Nacional de Produção e Transmissão de Energia Elétrica,
Outubro de 2001.
[ 42 ] RAMOS, Marco Antônio Fernandes, “Sistema de Identificação e Localização de
Faltas em Linhas de Transmissão Baseado em Redes Neurais”, Tese de
Mestrado, PUC, Rio de Janeiro, Agosto, 2002.
[ 43 ] KEZUNOVIC, M., “A Survey of Neural Net Applications to Protective
Relaying and Fault Analysis”, Engineering Intelligent Systems, Vol. 5,
December, 1997.
[ 44 ] HAYKIN, S.,”Redes Neurais: Princípios e Prática”. Editora Bookman, 2001.
[ 45 ] WIDROW, B.; RUMELHART, D.E.; LEHR, M.A., “Neural Networks:
Applications in Industry, Business and Science”, Communications of ACM,
Vol.37, N.3, March, 1994.
[ 46 ] REZENDE, S. O. et al, “Sistemas inteligentes: Fundamentos e Aplicações”,
Editora Manole Ltda, 2003.
[ 47 ] CYBENKO, G., “Approximation by Superpositions of a Sigmoid Function”,
Mathematics of Control, Signals and Systems 2, pp.303-314, 1989.
[ 48 ] KOHONEN, T., “Self-Organization and Associative Memory”, 2nd Edition,
Springer, 1988.

119
[ 49 ] CARPENTER, G. A.; GROSSBERG, S., “ART-2: Self-Organization of a Stable
Category Recognition Codes for Analog Input Patterns”, Applied Optics,
Vol.26, N.23, p.4919-4930, 1987.
[ 50 ] MEYER, C., GANASCIA, J-G, ZUCKER, J-D., “Learning Strategies in Games
by Anticipation”. Proceedings of the fifteenth International Joint Conference on
Artificial Intelligence, IJCAI'97. Morgan Kaufman Editor, 1997.
[ 51 ] BRAGA, A. P., CARVALHO, A. C. P. L. F., LUDERMIR, T. B., “Redes
Neurais Artificiais: Teoria e Aplicações”, Editora LTC, Rio de Janeiro, 2000.
[ 52 ] KOVACS, Z. L., “Redes Neurais Artificiais: Fundamentos e Aplicações”,
Edição Acadêmica, São Paulo, 1996.
[ 53 ] RIEDMILLER, M., BRAUN, H. “A Direct Adaptive Method for Faster
Backpropagation Learning: The RPROP Algorithm”. IEE International
Proceedings on Neural Networks, pp.586-591, San Francisco, USA, 1993.
[ 54 ] REED, R., “Pruning Algorithms – A Survey”. IEEE Transactions on Neural
Networks, 4(5):740-746, 1993.
[ 55 ] ALTERNATIVE Transient Program. Rule Book, Leuven EMTP Center (LEC),
1987.
[ 56 ] MATLAB, The MathWorks Inc, 2000.
[ 57 ] POWER SYSTEM PROTECTION, Vol.4: “Digital Protection and Signaling”,
Edited by The Training Association, Institute of Electrical Engineers, 1995.
[ 58 ] ABB Relays, “REL 100 Series: User´s Guide”, Version 2.3, 1992.
[ 59 ] STEVENSON JR, W. D., “Elementos de Análise de Sistemas de Potência”,
Editora McGraw-Hill do Brasil Ltda, 1978.
[ 60 ] PHADKE, A. G., THORP, J. S., “Computer Relaying for Power Systems”, Ed.
SRP Ltda, England, 1988.
[ 61 ] DINIZ, P. S. R., SILVA, E. A. B., NETTO, S. L., “Processamento Digital de
Sinais”, ARTMED Editora A.S., São Paulo, SP, 2002.

120

Anda mungkin juga menyukai