Академический Документы
Профессиональный Документы
Культура Документы
I. INTRODUO
As redes neurais artificiais (RNAs) so amplamente
utilizadas em diversas reas de aplicao, especialmente para
o caso de tratamento de problemas de aproximao e
classificao. Para a resoluo deste tipo de problemas uma
abordagem pode ser a utilizao de redes neurais do tipo
perceptron de uma camada ou do tipo perceptron de mltiplas
camadas (MLP), onde possvel obter um desempenho
satisfatrio nestas tarefas. Entretanto os resultados dos testes
para ambas abordagens apresentam algumas limitaes, no
caso do perceptron de uma camada simples somente possvel
realizar classificaes lineares, sendo assim, no podem ser
utilizadas em sistemas mais complexos com dinmicas e
rudos no lineares. No caso do MLP no existe restrio
classificao no-linear, mas o seu treinamento se torna lento
demais na situao de existncia de um nmero muito grande
de clusters nos dados de entrada.
Desta maneira para fornecer uma soluo alternativa para
esse tipo de problemas ser apresentada a RNA do tipo funo
de base radial (RBF).
Este trabalho est constituido da forma seguinte: Na seo 2
so apresentadas caractersticas sobre as redes neurais RBF.
Na seo 3 descrita rpidamente um mtodo para realizar o
treinamento deste tipo de rede neural. A funo XOR como
problema de aprendizado para as redes RBF apresentado na
seo 4. Um sucinto comparativo entre redes RBF e MLP
encontra-se na seo 5. Na seo 6 so encontram-se algumas
aplicaes prticas e finalmente na seco 7 so apresentadas
as concluses deste trabalho.
2
B. FUNES DE BASE RADIAL
A. Primeira etapa
Esta primeira etapa geralmente realizada de forma nosupervisionado. O treinamento tem efeito na camada
escondida e o objetivo ajustar os parmetros da funo
radial, :
- Nmero de neurnios.- Como mencionado anteriormente
necessrio que este nmero seja menor que o nmero de
amostras para evitar um possvel overfitting. O nmero de
neurnios representa o nmero de clusters presentes no vetor
de entrada.
- Definio de centros.- Existem 2 abordagens para a
escolha dos centros. Primeiramente podem ser distribuidos de
forma randmica ou algum algoritmo de pr-processamento
dos dados como Mnimos Quadrados Ortogonais, K-means,
etc
- Definio da largura das funes radiais.- Geralmente a
escolha deste valor realizada de forma emprica e com ajuda
de heursticas. Algumas delas, atribuir para cada unidade um
valor de largura diferente, clculo da mdia do seu centro at o
centro da unidade mais prxima, clculo da mdia do seu
3
centro aos N vetores de entrada mais prximos.
B. Segunda etapa
O treinamento realizado na segunda etapa tipicamente do
tipo supervisionado.So ajustados os pesos da camada de
sada, onde a funo de ativao linear:
- Condies.- necessrio que os parmetros da camada
oculta sejam mantidos fixos e que a sada dessa camada sejam
vetores linearmente separveis.
- Mtodo de ajuste de pesos.- A entrada de vetores
lineramente separveis tem como consequncia que a
resoluo desta etapa extremamente simples, pois pode ser
resolvido utilizando algum mtodo para resoluo analtica de
equaes lineares.
IV. PROBLEMA DA FUNO XOR
A funo XOR (OU exclusivo) apresentou um problema
peculiar desde a criao do Perceptron de Rosenblat de uma
camada e ajudando a identificar alguma limitaes presentes
pois a classificao deste problema no linearmente
separvel [1][3] . A primeira soluo apareceu graas ao
desenvolvimento e estudo das MLP.
4
Em uma rede RBF Funo de ativao computa a distncia
euclidiana entre vetores de entrada e centros. No caso do MLP,
computa-se a produto interno do vetor de entrada e do vetor de
pesos sinpticos da unidade [4].
No RBF o modelo de neurnio da camada oculta (nolinear) diferente da camada de sada (linear), no caso da
MLP todos os neurnios so iguais. Em RBF a camada oculta
no linear e a sada linear. Em MLP as camadas so todas
no lineares. MLP constrem aproximaes globais, RBF
constrem aproximaes locais.
Para aproximaes no lineares RBF realizam um
treinamento mais rpido, MLP podem requerer um nmero
menor de parmetros. A rede MLP separa utilizando hiperplanos no espao de entrada enquanto a rede RBF utiliza
hiper-elipsides para particionar o espao de entradas
REFERNCIAS
[1]
[2]