Anda di halaman 1dari 10

DIMENSIONAMENTO DO CIRCUITO EMISSOR COMUM COM O AUXILIO DE REDES NEURAIS ARTIFICIAIS.

Elton Jeser

Resumo
No trabalho proposto redes neurais artificiais so utilizadas para determinar as resistenscias que devem ser utilizadas no circuito emisor comum. A metodologia e aplicada em um estgio do projeto onde o relacionamento entre as variveis no bem definido e onde os parmetros eram, at ento, obtidos de forma emprica. Palavras Chaves: Redes neurais, Transitores, circuito emissor comum.

Figura 2 Polarizao das junes dos transistores NPN e PNP. Vamos analisar o caso do transistor PNP. A figura abaixo mostra o que ocorre com os portadores de carga com a juno base emissor diretamente polarizada.

Introduo
PRINCPIOS DE FUNCIONAMENTO

O transistor bipolar formado por trs camadas semicondutoras dopadas alternadamente, ou seja, camadas N P N ou P N P. A figura abaixo mostra o esquema dos dois tipos de transistores bipolares.

Figura 3 Polarizao da juno Base-Emissor do transistor PNP.

Figura 1 Transistores bipolares NPN e PNP. Observe que as trs regies formam duas junes PN. Os terminais do transistor so denominados (E) Emissor, (B) Base e (C) Coletor e J1 e J2 so as junes base-emissor e base- coletor, respectivamente. A principal caracterstica do transistor bipolar que podemos controlar a corrente que passa entre os terminais emissor e coletor atravs do terminal de base do transistor. Veremos mais adiante que pequenos valores de corrente na base do transistor controlam valores elevados de corrente entre os terminais emissor e coletor. Para que um transistor funcione necessrio polarizar corretamente as suas junes, da seguinte forma: Juno base-emissor: deve ser polarizada diretamente Juno base-coletor: deve ser polarizada reversamente Esse tipo de polarizao deve ser utilizado para qualquer transistor de juno bipolar, seja ele npn ou pnp. A figura abaixo mostra como devem ser polarizadas as junes para os dois tipos de transistores.

A regio tipo P do emissor do transistor altamente dopada. Isto significa que h muitas lacunas nessa regio. Como a juno base-emissor est diretamente polarizada, essas lacunas partem do emissor em direo a regio da base. A figura abaixo mostra o movimento dos portadores na juno Base-Coletor do transistor PNP reversamente polarizada.

Figura 4 Polarizao da juno Base-Coletor do transistor PNP. A regio da base bastante estreita e possui uma resistncia elevada. Neste caso, quase todas as lacunas que chegam base atravessam-na em direo a regio do coletor, pois a resistncia eltrica que as lacunas encontram para circular para o terminal de base muito maior que a resistncia para essas lacunas atingir a regio do coletor. Apenas uma pequena parcela dessas lacunas circula em direo ao terminal

da base. Na maioria dos transistores, mais de 95% das lacunas atingem a regio do coletor. As lacunas que atingem a regio do coletor so atradas pelo potencial negativo da fonte de polarizao. A figura abaixo mostra o sentido das correntes nos terminais dos transistores NPN e PNP. Aplicando a lei das correntes de Kirchhoff no transistor, podemos obter a seguinte expresso:

CC =

+1

A figura abaixo mostra as tenses nos transistores NPN e PNP. Figura 4 Tenses nos transistores NPN e PNP. CONFIGURAO EMISSOR COMUM

I E = I B + IC

Esta equao mostra que a corrente no emissor a soma das correntes no coletor e na base do transistor. Geralmente a corrente de base muito menor que a corrente de coletor, a ponto de poder ser desprezada. Neste caso, podemos aproximar a corrente do emissor por:

I E IC

Os transistores podem ser ligados em trs configuraes bsicas: base comum (BC), emissor comum (EC) e coletor comum (CC). Essas denominaes relacionamse aos pontos onde o sinal injetado e retirado, ou ainda, qual dos terminais do transistor referncia para a entrada e sada de sinal. A configurao mais utilizada quando o transistor atua como um amplificador de sinais a configurao emissor comum. As curvas caractersticas de um transistor mostram as regies na qual o transistor pode operar. A figura abaixo mostra as curvas caractersticas de sada IC x VCE para o transistor conectado na configurao emissor comum.

Figura 5 Correntes nos transistores a) PNP e b) NPN A relao entre a corrente de coletor e a corrente de base chamada de ganho de corrente e representada pela letra CC e dada por:

CC =

IC IB

Para transistores de sinal o ganho de corrente varia em torno de 100 a 300. A relao entra a corrente de emissor e coletor definida pelo parmetro dado por:

CC =

IC IE

A relao entre os parmetros e dada por:

Figura 6 Circuito de polarizao em emissor comum com divisor de tenso na base. A polarizao por divisor de tenso na base ou polarizao universal um dos mtodos mais usados em circuitos amplificadores de tenso. A vantagem desse tipo de polarizao sua estabilidade em relao a variaes de temperatura e do ganho de corrente (CC). O nome divisor de tenso proveniente do divisor de tenso formado por RB1 e RB2, no qual RB2 polariza diretamente a juno base-emissor. Para analisar o circuito, conveniente utilizar o circuito equivalente de Thvenin do circuito na entrada da base formado pelos resistores RB1 e RB2 como mostra a figura abaixo.
R C

Figura 5 a) Transistor NPN na configurao emissor comum; b) curvas caractersticas de sada; c) curvas caractersticas de entrada. A configurao chamada de emissor comum porque o terminal de emissor do transistor o ponto de referncia para ambos os sinais de entrada e sada. A curva caracterstica de entrada mostra a relao entre a tenso VBE e a corrente que circula na base. Podemos observar que est curva igual curva caracterstica do diodo, pois ela representa a caracterstica do diodo da juno baseemissor do transistor. A figura tambm mostra que esta curva possui certa dependncia quanto tenso aplicada entre o terminal coletor e emissor. Para uma mesma corrente de base, quanto maior a tenso VCE, maior ser a tenso VBE. Porm, observe que a tenso VBE pode ser aproximada por 0,7V que a queda de tenso direta da juno PN diretamente polarizada. Embora a tenso VBE varie em funo de IB e VCE, est variao muito pequena e na maioria dos casos podemos considerar esta aproximao. Analisando as curvas caractersticas de sada do transistor podemos perceber que existem trs regies na qual o circuito pode operar: Regio Ativa: O transistor opera nesta regio quando sua funo amplificar um sinal; Regies de saturao e corte: O transistor opera nestas regies quando sua funo de chave eletrnica.

T H

T H R E

Figura 7 Circuito equivalente de Thvenin. Aplicando o teorema de Thvenin no circuito da figura 6, temos:

VTH = RTH =

RB1 . VCC RB1 + RB2 RB1 . RB2 RB1 + RB2

A regio na qual o transistor ir operar determinada pelo circuito de polarizao, cuja funo estabelecer o seu ponto de operao atravs dos valores das correntes IC, IB e a tenso VCE . A figura abaixo mostra o circuito de polarizao do transistor na configurao emissor comum com divisor de tenso na base. Este circuito deve ser dimensionado para polarizar o transistor de modo que ele opere na regio ativa.

Vamos obter uma equao para calcular a corrente da base. Aplicando a lei de Kirchhoff para as tenses na malha de entrada, temos: VTH - RTHIB - VBE - REIE = 0 A corrente do emissor pode ser escrita como: IE=IB+IC IE=IB+IB IE=IB(1+ ) (eq. 2) Substituindo 2 em 1, temos: VTH - RTH IB - VBE - RE IB(1+) = 0 (eq. 1)

IB =

VTH - VBE RTH + ( + 1) RE

VRB1 = VCC RB 2

A tenso entre a base e o emissor do transistor a tenso de uma juno PN diretamente polarizada. Quando estudamos os diodos, vimos que esta tenso pode ser aproximada por 0,7V sem acarretar grandes erros nos clculos. Portanto, podemos considerar que: VBE=0,7V A corrente no emissor pode ser calculada como: IE=IB(1+) A corrente no coletor dada por: IC=IE-IB A tenso entre coletor e emissor dada por:

RB1 RB1 + RB 2 V VRB1 = RB1 CC VRB1

REDES NEURAIS ARTIFICIAIS


As redes neurais artificiais (RNA) consistem em um mtodo de solucionar problemas relacionados engenharia e cincias por intermdio de circuitos simples que simulam o crebro humano, inclusive seu comportamento, ou seja, aprendendo, errando e fazendo descobertas. Alm disso, RNA so tcnicas computacionais que apresentam um modelo inspirado na estrutura neural de organismos inteligentes e que adquirem conhecimento atravs da experincia. Uma rede neural artificial pode ter centenas ou milhares de unidades de processamento, enquanto que o crebro de um mamfero pode ter muitos bilhes de neurnios. De uma forma geral, a operao de uma clula da rede se resume em: Sinais so apresentados entrada; Cada sinal multiplicado por um peso que indica sua influncia na sada da unidade; feita a soma ponderada dos sinais que produz um nvel de atividade; Se este nvel excede (threshold) a unidade produz uma sada. um limite

VCE = VC VE = VCC RC I C RE I E Se considerarmos I C = I E , temos: VCE = VCC I C ( RC + RE )


Os valores IB, IE e VCE determinam o ponto de operao do transistor. Este ponto tambm chamado de ponto quiescente representado pela letra Q. O circuito de polarizao do transistor deve manter o ponto Q fixo independente de outros parmetros externos. Veremos agora algumas regras de projeto que fazem com que o ponto de operao do transistor fique posicionado no meio de sua regio ativa, proporcionando a mxima excurso do sinal de entrada sem provocar distores no sinal amplificado. RB1 0,1CCRE VE = 0,1VCC VCE = 0,5VCC Utilizando estas aproximaes, temos as seguintes equaes que definem os valores dos resistores de polarizao do circuito em funo de VCC, IC e CC. IE=IC

RE = RC =

0,1VCC IC

Assim como o sistema nervoso composto por bilhes de clulas nervosas, a rede neural artificial tambm seria formada por unidades que nada mais so que pequenos mdulos que simulam o funcionamento de um neurnio. Estes mdulos devem funcionar de acordo com os elementos em que foram inspirados, recebendo e retransmitindo informaes.

VCC - VCE RE IC

O modelo de neurnio mais simples e que engloba as principais caractersticas de uma rede neural biolgica, paralelismo e alta conectividade, foi proposto por McCulloch e Pitts (Haykin, 1994). Conforme mostra a Figura 2, o modelo geral do neurnio artificial pode ser ilustrado por:
x1 x2 wk 2
... somador Potencial de ativao uk sada

Para calcular o valor de RB2, podemos analisar a malha indicada no circuito da figura abaixo.
R B 2 R C

xp
Q 1 V D C

wkp
Pesos sinpticos

k
threshold ou bias

g( u k )
Funo de ativao

yk

VBE
R B 1 R E

Figura 2. Modelo geral do neurnio artificial onde: x1 , x2,... xp so os sinais de entrada. wk1 , wk2 , ... wkp so os pesos ou conexes sinpticas.

VRB1

VRE

VRB1 = VBE + VE

k o limiar de ativao do neurnio.

uk a sada do combinador linear. g(uk) a funo de ativao (limita a sada do neurnio). yk o sinal de sada do neurnio. o

no-negativo, caso contrrio a sada do neurnio assumir o valor -1. c) Funo rampa Nesse tipo de ativao, mostrado na

As equaes que descrevem comportamento do neurnio artificial so dadas por:

Figura 5, tem-se:

u = wi . xi + i b
i =1

ua 1 se g (u ) = u se a < u < a 1 se u a
g(u)
+1

(1)

y = g (u )
A funo de ativao g(.) processa o conjunto de entradas recebidas e o transforma em estado de ativao. Normalmente, o estado de ativao do neurnios pode assumir os seguintes valores: 1) Binrios ( 0 e 1 ); 2) Bipolares ( -1 e 1 ); 3) Reais. As funes de ativao mais tpicas so: a) Funo degrau Nesse tipo de ativao, mostrado na Figura 3, tem-se: Figura 6, tem-se:

-a +a -1

Figura 5. Funo rampa Para esta funo de ativao, a sada do neurnio pode assumir valores positivos e negativos no domnio de -1 a 1, e no intervalo definido no intervalo {-a, a}, a sada assume o valor da funo g(u)=u. d) Funo sigmide Para a funo sigmide, ilustrada na

1 se u 0 g (u ) = 0 se u < 0
g( u)
+1

g (u ) =

1 1 + e ( u )
+1

g(u)

Figura 6. Funo sigmide Para a funo acima, o parmetro que define a inclinao (ganho) da funo sigmide. Nesse tipo de funo, a sada do neurnio assumir valores reais entre 0 e 1. e) Funo tangente hiperblica

Figura 3. Funo degrau Ento, a sada do neurnio assumir o valor 1 se o nvel de atividade interna total do neurnio for no-negativo, caso contrrio a sada do neurnio assumir o valor 0. b) Funo degrau (bipolar) Nesse tipo de ativao, mostrado na Figura 4, tem-se:

Na funo de ativao do tipo tangente hiperblica (Figura 7), tem-se:

g (u ) = tanh( u ) =

1 e u 1 + e u
+1

1 se u 0 g (u ) = 1 se u < 0
+1

g(u)

g( u)
-1

u
u

Figura 7. Funo tangente sigmide Para esta funo de ativao, a sada do neurnio pode assumir valores reais negativos e positivos no domnio de -1 a 1. As funes de ativao so escolhidas em funo da necessidade do problema que a rede esteja trabalhando.

-1

Figura 4. Funo degrau (bipolar) Ento, a sada do neurnio assumir o valor 1 se o nvel de atividade interna total do neurnio for

A maioria dos modelos de redes neurais possui alguma regra de treinamento, onde os pesos de suas conexes so ajustados de acordo com os padres apresentados. Em outras palavras, elas aprendem atravs de exemplos. Arquiteturas neurais so tipicamente organizadas em camadas, com unidades que podem estar conectadas s unidades da camada posterior. A rede neural passa por um processo de treinamento a partir dos casos reais conhecidos, adquirindo, a partir da, a sistemtica necessria para executar adequadamente o processo desejado dos dados fornecidos. Sendo assim, a rede neural capaz de extrair regras bsicas a partir de dados reais, diferindo da computao convencional, onde necessrio um conjunto de regras rgidas pr-fixadas e algoritmos. Figura 8.-Organizao em camadas.

b) Redes Feedforward (Multicamadas) Este tipo de rede distingue da anterior pela presena de uma ou mais camadas escondidas de neurnios (Figura 11). Por exemplo, os neurnios que recebem sinais de excitao do meio externo esto na camada de entrada; os neurnios que esto na sada representam a camada de sada e os neurnio intermedirios esto nas camadas escondidas. Suas principais aplicaes so em reconhecimento de padres (Jorge, 1999), aproximador universal de funes e em controle (Neto, 1999; Narenda, 1990; Antsaklis, 1992). Neste tipo de redes, tem-se o Madaline, o Perceptron Multicamadas e o de Funo Base Radial (RBF).

y1 x1
CAMADA DE ENTRADA CAMADA DE SADA

y2

CAMADAS ESCONDIDAS

Figura 11-Exemplo de Redes Feedforward (Multicamadas) Conforme apresentado na Figura 8., as camadas de uma rede neural so usualmente classificadas em trs grupos: Camada de Entrada: onde os padres so apresentados rede. Camadas Intermedirias ou Ocultas: onde feita a maior parte do processamento. Atravs das conexes ponderadas, estas camadas podem ser consideradas como extratoras de caractersticas. Camada de Sada: onde o resultado final concludo e apresentado. Redes neurais so tambm classificadas de acordo com a arquitetura em que foram implementadas, topologia, caractersticas de seus ns, regras de treinamento, e tipos de modelos de neurnio empregado. Com relao arquitetura das redes neurais artificiais, tem-se: a) Redes Feedforward ( Camada nica) So redes neurais onde tem-se uma camada de entrada e uma nica camada de neurnios que a prpria camada de sada (Figura 10). Suas principais aplicaes so em memria associativas e no reconhecimento de padres (Widrow, 1988). Neste tipo de redes, tem-se o modelo do Perceptron e o Adaline. c) Redes Recorrentes So redes que contm realimentao entre neurnios de camadas diferentes (Figura 12). Suas principais aplicaes so em sistemas dinmicos, memria associativas, previso e estimao, otimizao e no controle. Neste tipo de redes, temos o modelo do Hopfiled e o Perceptron com realimentao.

z-1
x1 x2 y2 y1

z-1

z-1

Figura 12-Exemplo de Redes Recorrentes 3) TREINAMENTO ARTIFICIAIS DE REDES NEURAIS

x1
CAMADA DE ENTRADA

y1
CAMADA DE SADA

Um dos objetivos da pesquisa sobre redes neurais na computao desenvolver morfologias neurais, baseadas em modelos matemticos, que podem realizar funes diversas (Haykin, 1994). Na maior parte dos casos, modelos neurais so compostos de muitos elementos no lineares que operam em paralelo e que so classificados de acordo com padres ligados biologia. Do ponto de vista estrutural, a arquitetura de redes neurais pode ser classificada como esttica, dinmica ou fuzzy, constituda ainda de uma nica camada ou mltiplas camadas. Alm disso, algumas diferenas computacionais surgem tambm quando se trata da maneira com que so feitas as conexes existentes entres os neurnios. Estas conexes

y2 x2 y3

Figura 10-Exemplo de Redes Feedforward (Camada nica)

podem ser estritamente no sentido de ida e volta, lateralmente conectadas, topologicamente ordenadas ou hbridas. A propriedade mais importante das redes neurais a habilidade de aprender de seu ambiente e com isso melhorar seu desempenho. Isso feito atravs de um processo iterativo de ajustes (treinamento) aplicado a seus pesos. O processo de aprendizado encerra quando a rede neural consegue generalizar solues para uma classe de problemas. Um algoritmo de aprendizado composto por um conjunto de regras bem definidas visando soluo de um problema de aprendizado. Existem muitos tipos de algoritmos de aprendizado especficos para determinados modelos de redes neurais. Estes algoritmos diferem entre si principalmente pelo modo como os pesos so modificados. Todo o conhecimento de uma rede neural est armazenado nas sinapses, ou seja, nos pesos atribudos s conexes entre os neurnios. De 50 a 90% do total de dados deve ser separado para o treinamento da rede neural, dados estes escolhidos aleatoriamente, a fim de que a rede "aprenda" as regras associadas ao processo. O restante dos dados s apresentado rede neural na fase de testes a fim de que ela possa "deduzir" corretamente o inter-relacionamento entre os dados. As principais formas de aprendizado que esto associados aos processo de ajuste de pesos da rede podem ser divididos em: Aprendizado Supervisionado: utiliza um agente externo que indica rede um comportamento bom ou ruim de acordo com o padro de entrada. A rede treinada para fornecer a sada desejada em relao a um estmulo de entrada especfico. Quando um vetor de entrada aplicado, a sada da rede calculada e comparada com o respectivo padro de sada, a diferena (erro) ento propagada em sentido inverso ao fluxo de informaes da rede (das sadas para as entradas) e os pesos so alterados de acordo com algum algoritmo que tende a minimizar o erro. Os vetores de entrada e sada do conjunto de treinamento so aplicados seqencialmente, e os erros so calculados e os pesos ajustados para cada vetor, at que o erro para o conjunto de treinamento seja aceitvel. Aprendizado No Supervisionado : no utiliza um agente externo indicando a resposta desejada para os padres de entrada, utiliza-se entretanto, exemplos de coisas semelhantes para que a rede responda de maneira semelhante. A rede se auto-organiza em relao a alguns subconjuntos de entrada cujos elementos possuem caractersticas similares. Os vetores do conjunto de treinamento consistem unicamente de vetores de entrada. O algoritmo de treinamento modifica os pesos da rede para produzir vetores de sada que so consistentes, isto , vetores do conjunto de treinamento que so similares entre si produziro o mesmo padro de sada. Nesse tipo de aprendizagem espera-se que o sistema deva estatisticamente descobrir caractersticas e particularidades marcantes da populao de entrada. Ao contrrio do aprendizado supervisionado, onde no existe um conjunto priori de categorias dentro do qual os padres iro ser classificados, o sistema quem deve desenvolver sua prpria representao do estmulo de entrada. Denomina-se ainda ciclo de aprendizado como sendo uma apresentao de todos os N pares (entrada e sada) do conjunto de treinamento no processo de aprendizado. A correo dos pesos num ciclo pode ser executado de dois modos: pelo modo Padro, onde a correo dos pesos acontece a cada apresentao rede de um exemplo do conjunto de

treinamento. Cada correo de pesos baseia-se somente no erro do exemplo apresentado naquela iterao. Assim, em cada ciclo ocorrem N correes. Um outro mtodo para apresentao de dados de treinamento no modo Batch, onde apenas uma correo feita por ciclo. Todos os exemplos do conjunto de treinamento so apresentados rede, seu erro mdio calculado e a partir deste erro fazem-se as correes dos pesos. Para se efetuar o mapeamento do processo atravs de redes neurais artificiais, alguns passos devem ser seguidos para a adequada aplicao da abordagem neural. Os principais passos so especificados a seguir: Passo 1 - Coleta de dados O primeiro passo do processo de desenvolvimento de redes neurais artificiais a coleta de dados relativos ao problema. Esta tarefa requer uma anlise cuidadosa sobre o problema para minimizar ambiguidades e erros nos dados. Alm disso, os dados coletados devem ser significativos e cobrir amplamente o domnio do problema; no devem cobrir apenas as operaes normais ou rotineiras, mas tambm as excees e as condies nos limites do domnio do problema. Passo 2 - Separao em conjuntos Normalmente, os dados coletados devem ser separados em duas categorias: dados de treinamento, que sero utilizados para o treinamento da rede; e dados de teste, que sero utilizados para verificar sua performance sob condies reais de utilizao. Depois de determinados estes conjuntos, eles so geralmente colocados em ordem aleatria para preveno de tendncias associadas ordem de apresentao dos dados. Alm disso, pode ser necessrio pr-processar estes dados, atravs de normalizaes, escalonamentos e converses de formato para torn-los mais apropriados sua utilizao na rede. Passo 3 - Configurao da rede O terceiro passo a especificao da configurao da rede, que pode ser dividido em trs etapas: 3.1 Seleo do paradigma neural apropriado aplicao. 3.2 Determinao da topologia da rede a ser utilizada - o nmero de camadas, o nmero de unidades em cada camada, etc. 3.3 Determinao de parmetros do algoritmo de treinamento e funes de ativao. Este passo tem um grande impacto na performance do sistema resultante. Existem metodologias na conduo destas tarefas. Normalmente parte dessas escolhas so feitas de forma emprica. A definio da configurao de redes neurais ainda considerada uma arte, que requer grande experincia dos projetistas. Passo 4 - Treinamento O quarto passo o treinamento da rede. Nesta fase, seguindo o algoritmo de treinamento escolhido, sero ajustados os pesos das conexes. importante considerar, nesta fase, alguns aspectos tais como a inicializao da rede, o modo de treinamento e o tempo de treinamento. Uma boa escolha dos valores iniciais dos pesos da rede pode diminuir o tempo necessrio para o

treinamento. Normalmente, os valores iniciais dos pesos da rede so nmeros aleatrios pequenos uniformemente distribudos, em um intervalo definido. Quanto ao tempo de treinamento, vrios fatores podem influenciar a sua durao, porm sempre ser necessrio utilizar algum critrio de parada. Os principais critrios de parada do algoritmo de aprendizagem so o nmero mximo de ciclos e o erro quadrtico mdio por ciclo. Pode ocorrer que em um determinado instante do treinamento a generalizao comece a degenerar, causando o problema de over-training, ou seja a rede se especializa no conjunto de dados do treinamento e perde a capacidade de generalizao. O treinamento deve ser encerrado quando a rede apresentar uma boa capacidade de generalizao e quando a taxa de erro for suficientemente pequena, ou seja menor que um erro admissvel. Passo 5 - Teste O quinto passo o teste da rede. Durante esta fase o conjunto de teste utilizado para determinar a performance da rede com dados que no foram previamente utilizados. Na prxima seo, descreve-se o algoritmo de treinamento referente ao processo de aprendizagem supervisionado das Redes Perceptron Multicamadas utilizadas nas simulaes referidas neste trabalho. 4) REDES PERCEPTRONS MULTICAMADAS Quando Redes Neurais Artificiais de uma s camada so utilizadas, os padres de treinamento apresentados entrada so mapeados diretamente em um conjunto de padres de sada da rede, ou seja no possvel a formao de uma representao interna (Haykin, 1994). Neste caso, a codificao proveniente do mundo exterior deve ser suficiente para implementar esse mapeamento. Tal restrio implica que padres de entrada similares resultem em padres de sada similares, o que leva o sistema incapacidade de aprender importantes mapeamentos. Como resultado, padres de entrada com estruturas similares, fornecidos do mundo externo, que levem a sadas diferentes no so possveis de serem mapeados por redes sem representaes internas, isto , sem camadas intermedirias. Um exemplo clssico deste caso a funo ouexclusivo (XOR). Minsky e Papert (Minsky, 1969) analisaram matematicamente o Perceptron demostraram que redes de uma camada no so capazes de solucionar problemas que no sejam linearmente separveis. Como no acreditavam na possibilidade de se construir um mtodo de treinamento para redes com mais de uma camada, eles concluram que as redes neurais seriam sempre suscetveis a essa limitao. Contudo, o desenvolvimento do algoritmo de treinamento backpropagation (Rumelhart, 1986), por Rumelhart, Hinton e Williams em 1986, precedido por propostas semelhantes ocorridas nos anos 70 e 80, mostrou que possvel treinar eficientemente redes com camadas intermedirias, resultando no modelo de Redes Neurais Artificiais mais utilizado atualmente, as redes Perceptron Multi-Camadas (MLP), treinadas com o algoritmo backpropagation.

Nessas redes, cada camada tem uma funo especfica. A camada de sada recebe os estmulos da camada intermediria e constri o padro que ser a resposta. As camadas intermedirias funcionam como extratoras de caractersticas, seus pesos so uma codificao de caractersticas apresentadas nos padres de entrada e permitem que a rede crie sua prpria representao, mais rica e complexa, do problema. Como provou Cybenko (Cybenko, 1989), a partir de extenses do Teorema de Kolmogorov so necessrias no mximo duas camadas intermedirias, com um nmero suficiente de unidades por camada, para se produzir quaisquer mapeamentos. Tambm foi provado que apenas uma camada intermediria suficiente para aproximar qualquer funo contnua.

Treinamento e Simulao da Rede


clc;clear; load AmostraR; N=length(amostraR); a=randperm(N); Rs=amostraR(a,:); Nt=round(3*N/4); Ict=Rs(1:Nt,1); Vcct=Rs(1:Nt,2); Ret=Rs(1:Nt,3); Rct=Rs(1:Nt,4); Rb1t=Rs(1:Nt,5); Rb2t=Rs(1:Nt,6); Ic=Rs(Nt:N,1); Vcc=Rs(Nt:N,2); Re=Rs(Nt:N,3); Rc=Rs(Nt:N,4); Rb1=Rs(Nt:N,5); Rb2=Rs(Nt:N,6); netR=newff([min(Ict) max(Ict);min(Vcct) max(Vcct)],[19 15 4],{'tansig' 'tansig' 'purelin'},'trainlm'); netR.initFcn = 'initlay'; netR.layers{1}.initFcn='initnw'; netR.layers{2}.initFcn='initnw'; netR.layers{3}.initFcn='initwb'; netR.inputWeights{1}.initFcn = 'rands'; netR.biases{1}.initFcn = 'rands'; netR.biases{2}.initFcn = 'rands'; netR.biases{3}.initFcn = 'rands'; netR=init(netR); netR.trainParam.goal=0.001; netR.trainParam.epochs=2000; netR.trainParam.show=5; [netR,tr]=train(netR,[Ict';Vcct'], [Ret';Rct';Rb1t';Rb2t']); Xt=sim(netR,[Ict';Vcct']); X=sim(netR,[Ic';Vcc']); figure(2) plot(Ret,Xt(1,:),Re,X(1,:),'o'); xlabel('real'); ylabel('rede'); figure(3) plot(Rct,Xt(2,:),Rc,X(2,:),'o'); xlabel('real');

ylabel('rede'); figure(4) plot(Rb1t,Xt(3,:),Rb1,X(3,:),'o'); xlabel('real'); ylabel('rede'); figure(5) plot(Rb2t,Xt(4,:),Rb2,X(4,:),'o'); xlabel('real'); ylabel('rede');

Figura 1: Treinamento da Rede

Figura 2: Grafico Quali-Quali da Resistncia de Emissor

CONCLUSES
A escolha das redes neurais artificiais como soluo para este tipo de problema vem da capacidade que elas tm de assimilar conhecimento a partir de dados comportamentais

representativos de seu ambiente e, posteriormente, interagir com ele. Esta tcnica computacional, baseada no modelo neural de organismos inteligentes, otimiza as respostas e generaliza situaes em problemas de difcil modelagem, como o caso de alguns estgios do projeto de transformadores de potncia. precisamente este fato que vem justificar o desenvolvimento da nova metodologia. De acordo com diversas estruturas neurais e algoritmos de aprendizagem propostos por vrios pesquisadores, redes neurais possuem certas caractersticas exclusivas de sistemas biolgicos. Sistemas de computao baseados em redes neurais tem a capacidade de receber ao mesmo tempo vrias entradas e distribu-las de maneira organizada. Geralmente, as informaes armazenadas por uma rede neural compartilhada por todas as suas unidades de processamento. Essa caracterstica contrasta com os atuais esquemas de memria dos computadores convencionais, onde a informao fica confinada em um determinado endereo. Em um sistema de rede neural, a informao pode parecer ter representao redundante, porm, o fato de que ela se encontre distribuda por todos os elementos da rede significa que mesmo se parte da rede seja destruda, a informao contida nesta parte ainda estar presente na rede, e poder ser recuperada. O modelo de rede neural tem tambm muitos neurnios conectados por pesos com capacidade de adaptao que podem ser arranjados em uma estrutura paralela. Por causa deste paralelismo, a falha de alguns neurnios no causam efeitos significantes para a performance de todo o sistema. Esta caracterstica intrnseca das RNA fornece um sistema com grande capacidade de tolerncia a falhas. A caracterstica mais significante de redes neurais est em sua habilidade de aproximar qualquer funo contnua no linear. Esta habilidade das redes neurais as tem tornado til para modelar sistemas no lineares. Esta caracterstica particularmente importante quando o relacionamento entre as variveis do processo no-linear e/ou no bem definido, tornando assim difcil a sua modelagem por tcnicas convencionais.

Referncias
L. H. Geromel and C. R. Souza, The application of intelligent systems in power transformer design, in Can. Conf. Electrical and Computer Engineering, vol. 1, May 12\\\15, 2002, pp. 285-290.. M. Hagan e M. Menhaj; Training feedforward networks with the Marquardt algorithm; IEEE Transaction on neural networks; 989-993; Novembro; 1994.

Anda mungkin juga menyukai