Академический Документы
Профессиональный Документы
Культура Документы
Objetivos
Oferecer ao aluno uma introduo introdu abordagem da IA conexionista, descrevendo caractersticas de caracter funcionamento, formas de aprendizado e aplicaes tpicas. Vrios modelos de redes aplica t V sero estudados, seguindo-se o uso de seguindosoftwares de simulao. simula
Introduo - Inteligncia Artificial Simblica e Introdu Simb Conexionista. Histrico das Redes Neurais Artificiais. Hist Nomenclatura Bsica, o Neurnio Biolgico e B Biol Reviso de lgebra Linear. Tipos de Redes, Arquiteturas, Caractersticas e Caracter Aplicaes. Aplica Modelos Bsicos: Perceptron, Adaline, B Perceptron, Adaline, Madaline. Madaline.
Modelos Bsicos: Multi-layer Perceptron e B MultiRegra de Aprendizado Back-Propagation. Back- Propagation. Redes Counterpropagation. Counterpropagation Memrias Associativas: Hopfield e BAM. Mem Redes de Kohonen. Kohonen. Redes ART Redes Recorrentes.
Redes Neurais Artificiais: fundamentos e aplicaes. aplica Collegium Cognitio, 1997. Cognitio,
Barreto, Jorge M.
Inteligncia Artificial: No limiar do sculo XXI. s Edies, 1997. Edi
I propose to consider the question, Can machines question, think? This should begin with definitions of the meaning think? of the terms machine and think. A. Turing, machine think
Descartes
As duas abordagens da IA
IA Simblica Simb
Um sistema simblico capaz de simb manifestar um comportamento inteligente. O comportamento inteligente global simulado sem considerar os mecanismos responsveis por este comportamento. respons
As duas abordagens da IA
IA Conexionista
Se for construdo um modelo constru suficientemente preciso do crebro, este c modelo apresentar um comportamento apresentar inteligente. Se apenas uma pequena parte do crebro for reproduzida, a funo c fun exercida por esta parte emergir do emergir modelo.
IA Conexionista
As origens das redes neurais artificiais remontam no desejo de construir artefatos capazes de exibir comportamento inteligente.
Metodologia e Conquistas:
Mecanismos usando mecnica de preciso desenvolvida nos autmatos, mecanismos baseados em teares, etc.
Limitaes: Limita
Complexidade dos mecanismos, dificuldades de construo. constru
Metodologia e Conquistas:
Estudos de psicologia e neurofisiologia. Nascimento da psicanlise. psican
Metodologia e Conquistas:
Inspirao na Natureza, Nascimento da Inspira Ciberntica. Primeiros mecanismos imitando o Cibern funcionamento de redes de neurnios. Primeiros programas imitando comportamento inteligente.
Metodologia e Conquistas:
Perceptron. Primeiros sistemas especialistas Perceptron. usando a abordagem simblica. simb
Limitaes: Limita
Grande distncia entre as conquistas da psicologia e da neurofisiologia.
Limitaes: Limita
Dificuldades em tcnicas de aprendizado de redes t complexas. Subestimao da complexidade Subestima computacional dos problemas. problemas.
Limitaes: Limita
Limitaes das capacidades computacionais. Limita
Metodologia e Conquistas:
Redes Diretas como aproximador universal. Bons resultados em problemas mal-definidos. mal-
Metodologia e Conquistas:
Sistemas Especialistas. Formalismos de representao de conhecimento adaptados ao tipo representa de problema. problema.
Metodologia e Conquistas:
Sistemas de regras, representao da incerteza, representa popularizao do Prolog. Alguns pesquisadores populariza criando condies para a fase seguinte no que diz condi respeito s Redes Neurais.
Limitaes: Limita
Falta de um formalismo e de uma profunda anlise matemtica sobre as capacidades das an matem Redes Neurais. Falta de estudos sobre computabilidade e complexidades neurais.
Limitaes: Limita
Subestimao da quantidade de conhecimento Subestima necessria para tratar mesmo o mais banal necess problema de senso comum.
Limitaes: Limita
IA Simblica e Conexionista evoluindo Simb separadamente.
Arquiteturas Von-Neuman, Mquinas Hiper-Cbicas, Von- Neuman, M HiperMquinas Sistlicas, Data-flow. Sist licas, Data- flow. Se baseiam na execuo de instrues para execu instru realizao do processamento desejado. realiza Adotam uma abordagem algortimica para a soluo algor solu de problemas. CBI - Computadores Baseados em Instrues. Instru es A abordagem algortmica para soluo de algor solu problemas pode ser extremamente eficiente desde que se conhea exatamente a seqncia conhe seq de instrues a serem executadas para instru resoluo do problema. resolu
A 0 0 1 1
B 0 1 0 1
AND 0 0 0 1
w1 w2
AND
Esto vendo possibilidades de construir redes neurais artificiais e ver aparecer comportamentos emergentes tais como o aprendizado de novos conceitos, ajudando a compreenso dos mecanismos do aprendizado.
Se empenham em usar as redes neurais artificiais para um melhor conhecimento dos mecanismos envolvidos no processo cognitivo (qual o melhor mtodo de aprendizado?). m
Engenheiros
Olham as RNAs como um caminho para, implementando estas redes em circuitos eltricos, ter computadores realmente paralelos el e distribudos. distribu Muitos encontraram no aprendizado de RNAs um campo para aplicar o que se conhece da teoria da otimizao. otimiza
Neurofisiologistas
Esto interessados em ver as RNAs como metfora cerebral e, por simulao, melhorar o met simula conhecimento dos mecanismos cerebrais. (estudar a capacidade de memorizao, por memoriza exemplo).
Encontraram um novo paradigma de programao e uma arquitetura distribuda. programa distribu Explorar este paradigma, analisando suas capacidades e complexidades computacionais, desenvolvendo tcnicas de programao, t programa aplicaes, etc. um DESAFIO. aplica
Programao por exemplos, Programa Capacidade de generalizao, generaliza Usa analogia com problemas anteriormente resolvidos, No necessita de algoritmo explcito, expl No necessita de descrio do problema, descri Baseada na adaptabilidade!
O Crtex C
Massa: 1-2kg no adulto - 2% do peso 120% do peso do recm-nascido. rec Usa 20% do oxignio, 25% da glucose, 15% glucose, do fluxo de sangue.
O tamanho do crtex separa os humanos das c outras espcies. esp 3x1010 neurnios no crtex humano. c 103 a 104 sinapses por neurnio.
Matrizes so geralmente representadas como arranjos retangulares de nmeros escalares. n A matriz A, m x n, possui m linhas e n colunas. A notao nota Aij utilizada para referenciar o nmero da i-sima linha, n j-sima coluna de A.
4 A= 1
2 0
-5 -8
A13=-5
Uma matriz n x 1 geralmente chamada de VETOR. Uma matriz com o mesmo nmero de linhas e colunas n chamada de MATRIZ QUADRADA. Uma matriz NULA se possui todos os elementos igual a 0. Uma matriz DIAGONAL se for quadrada e possuir os elementos da diagonal principal diferentes de 0 e os restantes iguais a 0. Uma matriz diagonal chamada ESCALAR se todos os elementos da diagonal forem iguais. Uma matriz chamada IDENTIDADE ou UNIDADE se for escalar com elementos da diagonal igual a 1.
A TRANSPOSTA de uma matriz A m x n denotada por AT. AT uma matriz n x m cujas elementos so: A transposta de um vetor coluna chamada de VETOR LINHA.
4 D= 0
2 A= 1
3 5
4 6
2 AT= 3 4
1 5 6
Somar duas matrizes A e B resulta em uma matriz cujos elementos so a soma dos correspondentes elementos de A e B: Se C = A + B, ento Cij = Aij + Bij
Multiplicar uma matriz A m x n por uma matriz B n x p resulta em uma matriz C m x p cujos elementos so n C = AB, ento
C
2 A= 4 5 C=AB= 3 1 2 B= 4 1
ik
A ij B
-2 5
jk
j =1
2 A= 1
3 5
4 6 6 3 0 6
B= 4 11
4 2
-3 1
0 5
0 2
1 3
C=
11 6 17 2 22 4
11 11 7 -3 11 0
Dada uma matriz quadrada A n x n, verifica-se a seguinte verificapropriedade: A.I = I.A = A A matriz quadrada A n x n chamada INVERSVEL se INVERS existir uma matriz denotada por A-1 que satisfaz: A.A-1 = -1.A = I A Se A-1 existir, ela chamada matriz INVERSA. Se A-1 no existir, A chamada matriz SINGULAR.
C=A+B=
2.4+3.1 2.0+3.2 2.1+3.3 2.-1+3.5 4.4+1.1 4.0+1.2 4.1+1.3 4.-2+1.5 5.4+2.1 5.0+2.2 5.1+2.3 5.-2+2.5
j =1
onde A1j a submatriz obtida da matriz A eliminando a linha 1 e a coluna j det A = 0 se e somente se A no inversvel. invers vel.
Circuitos encontrados no SNC conexo excitatria i-simo neurnio conexo inibitria 1 2 N2(t)=N1(t-1)
2
3
1
3
2
N3(t)=N1(t-1) e N2(t-1)
10
neti = wij .x j
j
SALIVAO
VISO
x1 x2
w1 w2 wixi
sada=f(net)=
...
xn Retina wn
11
x2
sada=f(net)=
x2
sada=f(net)=
Determinar w1, w2 e para que o Perceptron aprenda a funo OU Lgico (OR) fun L x2 x1 x2 OR 0 0 0 (0,1) (1,1) 0 1 1 1 0 1 1 1 1 (1,1)
(0,0)
x1
Determinar w1, w2 e para que o Perceptron aprenda a funo E Lgico (AND) fun L x2 x1 x2 OR 0 0 0 (0,1) (1,1) 0 1 0 1 0 0 1 1 1 (1,1)
(0,0)
(1,1)
x1
(0,0)
x1
x1 x2
sada
x2
12
A Regra de Hebb
y = WT.X
Idealizada por Hebb, a idia bsica que se duas Hebb, id b unidades so ativadas simultaneamente, suas interconexes tendem a se fortalecer. Se i recebe o sinal de sada de j, o peso Wij modificado de sa acordo com :
A Regra Delta - Erro Mdio Quadrtico M Quadr Mnimo (LMS) - Widrow-Hoff Widrow uma variante da Regra de Hebb, introduzida por Hebb, Widrow-Hoff. A diferena quanto a de Hebb que Widrow- Hoff. diferen possui uma sada desejada dj. Assim, o peso ser sa dj. ser proporcional sada. sa Sendo aj e ai os nveis de ativaes das unidades j e i n ativa respectivamente, a variao dos pesos : varia
Suponha que temos um conjunto de vetores de entrada {X1, X2, ..., XL}, cada um com seu valor de sada correto (desejado) {d1, d2, ..., dL}. O Mtodo de Aprendizado procura achar os pesos de forma a minimizar a diferena entre a sada desejada e a sada obtida com o vetor de entrada.
onde (lambda) uma constante de proporcionalidade lambda) representando a taxa de aprendizado e ai e aj so ativaes (ou sadas) das unidades i e j ativa sa respectivamente. Alguns autores representam alternativamente a matriz Wij por Wji. Wji.
Xk
0 X 2 = d2 =1 1 1 X 3 = d1 = 1 0 1 X 4 = d4 =1 1
< E
2 k
1 >= L
2 k
k =1
2 k
Equao de uma Parbola Minimiza o do Error Mdio Quadrtico significa encontrar o FUNDO DA PARBOLA. < Ek2 > =0 W T 2 < X k X k > W 2 < d k X k >= 0
ento < E
>=< ( d k y k ) 2 > X
k T
X k ) 2 >=
T k
> W 2 < dk X
>W
13
W (t + 1) = W (t ) Ek2 (t ) W (t + 1) = W (t ) + 2 Ek X k com E k = d k W T (t ) X k
14
O Renascimento
Em 1974, Paul Werbos conseguiu o maior progresso em termos de redes neurais desde o perceptron de Rosenblatt: ele lanou as bases do algoritmo de Rosenblatt: lan retro-propagao ("backpropagation"), que permitiu retro- propaga ("backpropagation"), que redes neurais com mltiplas camadas m apresentassem capacidade de aprendizado. Em 1982, David Parker desenvolveu um mtodo similar, m de forma aparentemente independente. Contudo, a potencialidade deste mtodo tardou a ser m reconhecida.
O Renascimento
Os primeiros resultados da retomada do desenvolvimento sobre redes neurais foram publicados em 1986 e 1987, atravs dos trabalhos atrav do grupo PDP (Parallel and Distributed Processing), (Parallel Processing), onde ficou consagrada a tcnica de treinamento por t backpropagation. backpropagation.
A evoluo das pesquisas no campo da abordagem evolu conexionista levou ao desenvolvimento de uma infinidade de modelos de neurnios artificiais, de topologias de interconexo destes neurnios e algortmos para aprendizado. algor Um trabalho que procurasse apresentar de maneira extensiva todos os modelos de neurnios, de topologias e de algortmos de aprendizado, algor certamente ocuparia vrios volumes e milhares de v pginas. Abordagem Unificada - Modelo Formal
A partir da definio de Sistemas Dinmicos, podemos defini definir um Neurnio Artificial (NA) como um sendo um Sistema Dinmico onde:
T ; = { } f ( n ); U n ; Y ; = { } f ( ); X ;
: T T X X ; : T X U Y .
Conjunto Tempo Conjunto dos Valores de Entrada Conjunto das Funes de Entrada Conjunto dos Valores de Sada Conjunto das Funes de Sada Conjunto de Estados Funo de Transio de Estados Funo de Sada
Definies de Sistemas Dinmicos Aplicados ao Defini Neurnio Artificial A partir da definio formal para a representao defini representa de um neurnio artificial possvel descrever o poss funcionamento de diversos modelos de neurnios, bastando particularizar os parmetros que definem o sistema. Particular ateno ser dada escolha aten ser da funo de transio de estados e na funo de fun transi fun sada e na maneira de combinar os valores de sa entrada dos neurnios.
15
E N T R A D A S
As entradas de um neurnio podem ser as sadas de sa outros neurnios, entradas externas, um bias ou qualquer combinao destes elementos. combina
net
FUNO DE ATIVAO
Aps a determinao do neti, o valor da ativao do neurnio Ap determina ativa atualizado atravs da funo de ativao e finalmente, o atrav fun ativa valor de sada do neurnio produzido atravs da funo de sa atrav fun sada . sa
. . .
ativao
W U(t)
FUNO DE SADA
sada
x (t + 1) = ( x (t ), net (t ))
Possvel Dinmica
Os estados futuros de um neurnio so afetados pelo estado atual do neurnio e pelo valor do net de entrada. Este tipo de neurnio, que possui "memria" conhecido "mem como "neurnio dinmico". Por outro lado, se considerarmos a funo como fun constante, teremos neurnios que no possuem "memria", ou seja, o estado atual igual aos estados "mem anteriores e portanto o neurnio conhecido como "neurnio esttico. est tico
Essencialmente, qualquer funo contnua e fun cont monotonicamente crescente tal que x e y ( x ) [1,1] pode ser utilizada como funo de sada na modelagem fun sa neural. Existem, no entanto, uma srie de funes mais s fun comumente utilizadas como funes de sada em fun sa neurnios. Estas funes so: fun A Funo Linear Fun A Funo Sigmoidal ou Logstica Fun Log A Funo Tangente Hiperblica Fun Hiperb
y ( x) = ax
1 1 + e kx
A Funo Tangente Hiperblica - A Funo BIPOLAR mais Fun Hiperb Fun utilizada.
A Funo Sigmoidal ou Logstica - Funo UNIPOLAR mais Fun Log Fun utilizada.
y ( x) = tanh(kx) =
1 e kx 1 + e kx
y ( x) =
16
A Funo Tangente Hiperblica - A Funo BIPOLAR mais Fun Hiperb Fun utilizada.
1 e kx y ( x) = tanh(kx) = 1 + e kx
Camada Intermediria
Camada de Sada
y1 y2
v1 v2
ym
17
y (k) 1 y (k) 2
y (k+1) 1 y (k+1) 2
u (0) 2
un (0)
yn (k+1)
18
Modo de Treinamento:
Supervisionado.
Soluo para superar o problema do aprendizado Solu da classificao de padres no-linearmente classifica noseparveis: separ
Utilizao de uma camada intermediria de neurnios, Utiliza intermedi chamada Camada Intermediria (ou Escondida - "Hidden Intermedi Layer"), de modo a poder implementar superfcies de Layer"), superf deciso mais complexas.
19
Algoritmo Backpropagation
Camada de Entrada Camada Escondida 1 x k1 1 ... x ki i ... l x kn n 1 bias 1 1 bias 1 1 1 m ...
h f (neth ) kj wh h j ji net kj h j
Algoritmo Backpropagation
Princpios Bsicos Princ B
Suponhamos que tenhamos um conjunto de P pares de vetores (X1,Y1), (X2,Y2), ..., (XP, YP), no nosso conjunto de (X (X (X treinamento e que so exemplos de um mapeamento funcional definido como:
Camada de Sada
1 ... wo pj p
o
Tambm chamado muitas vezes de Regra Delta Tamb Generalizada ("Generalized Delta-Rule"). ("Generalized Delta- Rule").
A modificao principal em relao a Regra Delta foi a modifica rela utilizao de funes contnuas e suaves como funo de utiliza fun cont fun sada dos neurnios ao invs da funo de limiar lgico. sa inv fun l Como as funes de sada passaram a ser derivveis, fun sa deriv isto permitiu a utilizao da busca do gradienteutiliza gradientedescendente tambm para os elementos das camadas tamb intermedirias. intermedi
Y = ( X ) : X n , Y m
...
f (neto ) neto p kp kp
Desejamos treinar a rede de modo que ela consiga aprender uma aproximao da forma: aproxima
p ...
O = Y = ( X ) : X n , Y m
20
Algoritmo Backpropagation
Etapas
1. Aplicar um vetor de entrada do conjunto de treinamento e propagar at a sada at sa
Um vetor de entrada Xk=[xk1 xk2 ... xkn]T do conjunto de treinamento apresentado camada de entrada da rede. Os elementos de entrada distribuem os valores para os elementos da camada escondida. O valor do net para o jsimo elemento da camada escondida vale:
h net kj = wh xki + h j ji i =1 n
Algoritmo Backpropagation
Etapas
1. Aplicar um vetor de entrada do conjunto de treinamento e propagar at a sada at sa
Como os neurnios so estticos, assumimos que ao est valor da funo de ativao seja igual ao net, ento, o fun ativa valor de sada para um neurnio da cada escondida vale: sa
Algoritmo Backpropagation
Etapas
1. Aplicar um vetor de entrada do conjunto de treinamento e propagar at a sada at sa
Do mesmo modo, as equaes para os neurnios da equa camada de sada so: sa
o o net kp = wo ikj + p pi j =1 l
h ikj = f jh ( net kj )
onde wji o peso da conexo entre o isimo elemento da camada de entrada e o jsimo elemento da camada escondida h.
o okp = f po (net kp )
Algoritmo Backpropagation
Etapas
2. Calcular o error entre a sada calculada pela sa rede e a sada desejada no conjunto de sa treinamento.
Definimos o erro para um nico neurnio p na camada de sada para um vetor de entrada k como sendo: sa
Algoritmo Backpropagation
Etapas
3. Determinar em que direo a mudana de peso dire mudan dever ocorrer. dever
Para determinar a direo da modificao dos pesos, dire modifica calculamos o negativo do gradiente de Ek, Ek, com relao aos pesos wpj rela
o (netkp ) Ek = ( ykp okp ) o wo (net kp ) wo pj pj
Algoritmo Backpropagation
Etapas
3. Determinar em que direo a mudana de peso dire mudan dever ocorrer. dever
Combinando as equaes, temos para o negativo do equa gradiente:
E o erro a ser minimizado pelo algoritmo para todos os neurnios da camada de sada como: sa
f po
Ek o = ( ykp okp ) f po (net kp )ikj wo pj 4. Determinar o valor da mudana de cada peso. mudan
A atualizao dos pesos dos neurnios da camada de atualiza sada se faz por: sa
Ek =
Podemos escrever a derivada de fpo como: e o ltimo termo da equao como: equa o
o f po (net kp )
wo (t + 1) = wo (t ) + k wo (t ) pj pj pj
o k wo = ( ykp okp ) f po (net kp )ikj pj
1 m Ek = ( ykp okp ) 2 2 p =1
(net kp ) =( wo wo pj pj
w
j =1
o pj kj
o i + p ) = ikj
21
Algoritmo Backpropagation
Etapas
4. Determinar o valor da mudana de cada peso. mudan
AS FUNES DE SADA FUN SA para que possamos implementar a busca do gradiente-descendente, necessrio que fpo seja gradientenecess diferencivel. diferenci vel. as funes usualmente utilizadas so: fun a funo linear: fun
Algoritmo Backpropagation
Etapas
4. Determinar o valor da mudana de cada peso. mudan
AS FUNES DE SADA FUN SA Estas funes so bastante populares pois as suas fun derivadas podem ser calculadas de maneira simples, sem a necessidade de clculos complexos. c para a funo linear: fun
Algoritmo Backpropagation
Etapas
5. Repetir os procedimentos para os pesos da Camada Intermediria. Intermedi
Desejamos repetir para a camada escondida os mesmos tipos de clculos que realizamos para a camada de sada. c sa O problema aparece quando tentamos determinar uma medida para o erro das sadas dos neurnios da camada sa escondida. Sabemos qual a sada destes neurnios calculada pela sa rede, porm no sabemos a priori qual deveria ser a por sada correta para estes elementos. Intuitivamente, o sa erro total, Ek, deve de alguma forma estar relacionado com o valor de sada dos neurnios da camada sa escondida.
f po (net o ) = net o jp jp
f po (net o ) = jp 1 1+ e
net o jp
f po = 1
para a funo logstica ou sigmoidal: fun log sigmoidal:
f po = f po (1 f po )
para a funo tangente hiperblica: fun hiperb
net o jp net o jp
f po ( net o ) = tanh(net o ) = jp jp
1 e 1+ e
f po =
1 (1 f po 2 ) 2
Algoritmo Backpropagation
Etapas
5. Repetir os procedimentos para os pesos da Camada Intermediria. Intermedi
Voltando a equao do Erro temos: equa
Algoritmo Backpropagation
Etapas
5. Repetir os procedimentos para os pesos da Camada Intermediria. Intermedi
Sabendo que ipj depende dos pesos da camada escondida, podemos utilizar este fato para calcular o gradiente de Ek com respeito aos pesos da camada escondida. Ek 1 = ( ykp okp ) 2 wh 2 p w h ji ji
Algoritmo Backpropagation
Etapas
5. Repetir os procedimentos para os pesos da Camada Intermediria. Intermedi
Cada um dos fatores da equao pode ser calculado equa explicitamente das equaes anteriores, assim como foi equa feito para o gradiente da camada de sada. sa O resultado fica:
Ek = = =
= ( ykp okp )
p
22
Algoritmo Backpropagation
Etapas
5. Repetir os procedimentos para os pesos da Camada Intermediria. Intermedi
Por fim, assim como no caso da camada de sada, sa atualizamos os pesos da camada escondida proporcionalmente ao valor negativo da equao. equa
Algoritmo Backpropagation
Etapas
6. Voltar ao passo 1, escolhendo um novo vetor de entrada do conjunto de treinamento e repetir os passos de 1 a 5, somando o erro. 7. Aps todos os vetores do entrada do conjunto Ap de treinamento terem sido apresentados (uma poca), calcular o erro mdio quadrtico. poca m quadr Se for aceitvel parar, aceit seno voltar ao passo 1.
Algoritmo Backpropagation
O que so mnimos locais? m
So pequenos buracos na superfcie de erro, mas buracos superf no so na realidade a soluao (fundo do poo) do solu ao po problema.
w h (t + 1) = w h (t ) + k w h (t ) ji ji ji
onde:
h o k w h = f jh ( net kj ) xki ( ykp okp ) f po (net kp ) wo ji pj p
wo (t + 1) = wo (t ) + k wo (t ) + k wo (t 1) pj pj pj pj
onde o parmetro conhecido como momento. momento
Algoritmo Backpropagation
Algumas dicas prticas pr
Inicializao dos valores dos pesos Inicializa
valores aleatrios entre -1 e +1. aleat
Algoritmo Backpropagation
Algumas dicas prticas pr
Valor do parmetro de momento?
Valores grandes entre 0.8 e 0.9. grandes
Se a funo de sada for tangente hiperblica, fun sa hiperb escalar os valores de sada. sa
As sadas nunca atingem exatamente -1 ou 1. Usar sa valores como -0.9 e 0.9 para representar o menor e o maior valor de sada. sa
23
Dados dois pontos (xi,yi) {-1,+1} (xi,yi) Distncia Euclidiana (x1-x2)2 {0,4} (x1 Distncia Euclidiana: d = 4(# desencontros) desencontros Distncia de Hamming Distncia de Hamming: h = # desencontros Hamming: desencontros d = 2h 2
Implementa um mapeamento de X para Y tal que (Xi) = Yi. Se X for o mais prximo (menor pr distncia de Hamming) de Xi do que qualquer Xj, Hamming) j=1,2,...,L, ento (X) = Yi.
Assume que Xi = Yi e implementa um mapeamento de X para X tal que (Xi) = Xi. Se X for o mais prximo (menor distncia de Hamming) de Xi do Hamming) pr que qualquer Xj, j=1,2,...,L, ento (X) = Xi.
24
Construir uma memria associativa no difcil se mem dif introduzirmos a restrio de que os vetores restri exemplares devam ser ortonormais entre si ortonormais (vetores dos vrtices de um Cubo de Hamming). v Hamming). XiT.Xj=ij, onde ij= 1 se i=j, e ij=0 se ij. (X) = (Y1X1T + Y2X2T + ... + YLXLT).X Exemplo (X2) = (Y1X1T + Y2X2T + ... + YLXLT).X2 (X2) = Y1X1T X2 + Y2X2T X2 + ... + YLXLTX2 (X2) = Y112 + Y2 22 + ... + YL L2
Implementao por Redes Neurais Implementa (Elementos Processadores Distribudos) Distribu A MEMRIA BAM MEM (Bidirectional Associative Memory) Memory)
Consiste de duas camadas de neurnios que esto completamente conectados entre as camadas. Cada neurnio est conectados a si est mesmo. O peso das conexes determinado a-priori, abaseado nos vetores de treinamento. treinamento
yi1 yi2
Camada Y yi3
yi4
yim
Aplicar um par de vetores iniciais (X0,Y0). Propagar a informao de X para Y informa (multiplicar X0 pela matriz W) e atualizar Y. Propagar a informao atualizada de Y para X informa (multiplicar Y pela matriz WT) e atualizar X. Repetir os passos 2 e 3 at no haver at mudana nos valores dos neurnios. mudan
este algoritmo que fornece BAM suas caractersticas bi-direcionais. caracter bi Os termos entrada e sada dependem da entrada sa da direo atual de propagao. dire propaga Aps algumas iteraes a rede ir estabilizar em Ap itera ir um estado estvel. est No sobrecarregar demais a memria com muita mem informao, ou ela ir estabilizar em um estado informa ir esprio (crosstalk). esp rio crosstalk). O Crosstalk ocorre quando os padres exemplares esto muito prximos uns dos outros. pr ximos
25
O valor da sada para cada neurnio depende do sa valor do net e do valor da sada anterior. sa anterior
Novo valor para a sada y no instante t + 1 est relacionada com o valor de y no instante t por + 1 se netiy > 0 yi (t + 1) = yi (t ) se netiy = 0 1 se net y < 0 i Novo valor para a sada x no instante t + 1 est relacionada com o valor de x no instante t por + 1 se netix > 0 xi (t + 1) = xi (t ) se netix = 0 1 se net x < 0 i
0 0 0 2 0 2 0 2 0 2 0 2 2 2 0 2 0 2 0 2 0 2 2 2 0 2 0 2 0 2 W = 2 2 2 0 2 0 2 0 2 0 2 0 0 0 2 0 2 0 2 0 0 2 0 2 0 2 0 2 2 2
Tomemos X0=[-1,-1,-1,1,-1,1,1,-1,-1,1]T =[- 1,- 1,- 1,1,- 1,1,1,- 1, h(X0,X1)=1 e h(X0,X2)=7 (distncia de Hamming) Hamming) Fazemos Y0 igual a um dos vetores exemplares (ou usamos um vetor bipolar aleatrio) Y0=Y2=[1,1,1,1,-1,-1]T. =[1,1,1,1,- 1,aleat Propagamos de X para Y, j que a chave X0. j chave netY=W.X0=[4,-12,-12,-12,4,12]T =[4,- 12,- 12, Calculamos o novo vetor Y, Ynew=[1,-1,-1,-1,1,1]T =[1,- 1,- 1, Propagamos agora de Y para X. netX=[4,-8,-8,8,-4,8,4,-8,-4,8]T =[4,- 8,- 8,8,-4,8,4,-8, Calculamos o novo vetor X, Xnew=[1,-1,-1,1,-1,1,1,-1,-1,1]T =[1,- 1,- 1,1,- 1,1,1,- 1, Novas propagaes no alteraro o resultado e portanto propaga consideramos a memria estabilizada e com o padro X1 mem recuperado.
Tomemos X0=[-1,1,1,-1,1,1,1,-1,1,-1]T e Y0=[-1,1,-1,1,-1,-1]T =[- 1,1,1,- 1,1,1,1,- 1,1,=[- 1,1,- 1,1,- 1,h(X0,X1)=7 e h(X0,X2)=5 (distncia de Hamming) Hamming) h(Y0,Y1)=4 e h(Y0,Y2)=2 Propagamos de X para Y, j que a chave X0. j chave netY=W.X0=[-4,4,4,,4,-4]T =[- 4,4,4,,4,Calculamos o novo vetor Y, Ynew=[-1,1,1,1,1,-1]T =[- 1,1,1,1,1,Propagamos agora de Y para X. X=[-4,8,8,-8,4,-8,-4,8,4,-8]T net =[- 4,8,8,- 8,4,- 8,- 4,8,4,Calculamos o novo vetor X, Xnew=[-1,1,1,-1,1,-1,-1,1,1,-1]T =[- 1,1,1,- 1,1,-1,- 1,1,1,Novas propagaes no alteraro o resultado e portanto propaga consideramos a memria estabilizada. mem
26
O padro recuperado foi o complemento complemento de X1. Propriedade bsica da BAM: Se b armazenamos um padro (X,Y), automaticamente armazenamos o complemento do padro. No comum uma criana dizer apaga a crian apaga luz quando na verdade quer acender a luz?
O processamento de sistemas neurais artificiais governado tipicamente por duas reas da matemtica: a ESTABILIDADE GLOBAL e a matem CONVERGNCIA. ESTABILIDADE GLOBAL a eventual estabilizao de todas as ativaes dos neurnios estabiliza ativa a partir de uma entrada inicial. CONVERGNCIA a eventual minimizao do minimiza erro entre as sadas calculadas e desejadas. sa
Durante o processo de treinamento, nas redes diretas com neurnios estticos, os pesos est formavam um sistema dinmico. Isto , os pesos se alteravam em funo do tempo, e estas fun alteraes podiam ser representadas por um altera conjunto de equaes diferenciais. equa Para a BAM, uma situao diferente ocorre. Os situa pesos so calculados anteriormente e no fazem parte do sistema dinmico. Por outro lado, a rede pode levar vrios passos at se estabilizar. v passos at Neste caso os vetores X e Y mudam em funo fun do tempo e formam um sistema dinmico.
Se pudermos encontrar uma funo limitada das fun variveis de estado de um sistema dinmico, de vari tal modo que toda mudana de estado resulte mudan em uma diminuio do valor da funo, ento o diminui fun sistema possui uma soluo estvel. solu est Esta funo chamada de Funo de Lyapunov fun Fun ou Funo de Energia. Fun
27
No caso da BAM, a Funo de Lyapunov Fun existe e chamada funo de energia da fun BAM e possui a forma: E(X,Y) = -YT.W.X ou em termos dos seus componentes:
1. Qualquer mudana em X ou Y durante o processamento mudan da BAM resulta em uma diminuio de E. diminui 2. E limitada inferiormente por Emin = -ij|wij|. 3. Quando E muda, ela deve mudar de valores finitos.
Estado
E = yi wijx j
i =1 j =1
Itens 1 e 2 provam que E uma funo de fun Lyapunov. Item 3 restringe a possibilidade que as Lyapunov. mudanas em E sejam infinitesimais, o que levaria a mudan um tempo de convergncia infinito.
Emin
Para o exemplo 1 visto anteriormente: Emin = -ij|wij| = - 64 para X0=[-1,-1,-1,1,-1,1,1,-1,-1,1]T e Y0=[1,1,1,1,-1,-1]T =[- 1,- 1,- 1,1,- 1,1,1,- 1,=[1,1,1,1,- 1,E = -Y0TWX0 = - 40 para X0=[-1,-1,-1,1,-1,1,1,-1,-1,1]T e Ynew=[1,-1,-1,-1,-1,1]T =[- 1,- 1,- 1,1,- 1,1,1,- 1,=[1,- 1,- 1,- 1,E = -YTnewWX0 = - 56 para Xnew=[1,-1,-1,1,-1,1,1,-1,-1,1]T e Ynew=[1,-1,-1,-1,-1,1]T =[1,- 1,- 1,1,- 1,1,1,- 1,=[1,- 1,- 1,- 1,E = -YTnewWXnew = - 64
Conceitos Bsicos B
uma Memria Autoassociativa. Mem Autoassociativa. Suas entradas so valores binrios {0,1}. bin Possui uma natureza de operao assncrona. opera ass
Isto a cada instante de tempo, cada neurnio tem se estado de ativao avaliado de maneira ativa avaliado independente dos outros neurnios.
28
Camada X
Camada X
Camada X
1 3 4 ... n
...
neti = wij x j
j i
O valor da sada para cada neurnio depende sa do valor do net e do valor da sada anterior. sa anterior
Clculo do valor de sada xi para o neurnio i no sa instante de tempo t+1.
O valor de sada de um neurnio xi=0 se ele sa no est disparando e xi=1 se ele est est est disparando. O neurnio i recebe entradas de um neurnio j com uma fora definida como wij. for Como as conexes so bidirecionais, wij=wji. Ui o valor de limiar (threshold) acima do (threshold) qual o neurnio dispara (sada xi=1). (sa
U2= 0 w23=w32=0,6
U3= 0
29
1/3
0 1 0
1/3
1/3
1/3
3/3
Dado um estado qualquer, digamos x1,x2,x3=000. Podemos calcular o que vai acontecer quando avaliarmos cada neurnio. avaliarmos Se o neurnio 1 for o primeiro a ser avaliado: x1(t+1)=0.(-0,5)+0.(0,2)=0 > -0,1 (U1) (t+1)=0.(x1(t+1)=1 Logo o novo estado x1,x2,x3=100. Se o neurnio 2 for o primeiro a ser avaliado: x2(t+1)=0.(-0,5)+0.(062)=0 < 0 (U2) (t+1)=0.(x2(t+1)=0 Logo o novo estado x1,x2,x3=000. Se o neurnio 3 for o primeiro a ser avaliado: x3(t+1)=0.(0,2)+0.(0,6)=0 < 0 (U3) x3(t+1)=0 Logo o novo estado x1,x2,x3=000.
1/3
0 1 0
1/3
1/3
1/3
3/3
E=
1 xi wij x j + U i xi 2 i j i i
30
Suponha que tenhamos uma rede de Hopfield com trs neurnios e desejamos dois estados estveis: x1,x2,x3=010 e 111 est
chamemos X1,x2,x3=010 de estado padro A, chamemos X1,x2,x3=111 de estado padro B.
31
1 0 1
1/3 0 0 0
1/3 1 1 0 1/3
2/3
1/3 0
B
3/3
1 1 1
3/3
A 1 0
xn Camadas 1
ym 2 3 4
xn 5
ym
x1
x2
xn
y1
y2
ym
32
Um neurnio chamado instar instar Uma camada de instars, chamada camada instars, competitiva competitiva Uma estrutura conhecida como outstar outstar
-+
Ii
33
y I
I I
W I I I
w1 I1
I1
w1
tempo Dado um vetor I=(0,1) e um vetor inicial w(0)=(0.5,0.866), os componentes w1 e w2 evoluem com o tempo procurando se alinhar com o vetor I. A quantidade (I-W) um vetor que aponta de W em direo a I. W move-se em passos discretos na direo de I segundo a equao: W(t+1)=W(t)+(I-W(t))
O Instar aprende um vetor de entrada, rotando seu vetor de pesos na direo do vetor de entrada de modo que os dois fiquem alinhados.
34
A medida que o aprendizado se desenrola, o vetor de peso acaba se estabilizando se uma regio que representa a mdia dos vetores de entrada.
Um sistema com EXCITAO CENTRAL e INIBIES EXCITA INIBI LATERAIS para implementar a competio entre um competi grupo de INSTARS. Cada unidade envia um sinal de realimentao positivo para si mesmo e um sinal realimenta inibitrio para os outros neurnios. A unidade cujo vetor inibit de peso melhor representa o vetor de entrada manda o sinal inibitrio mais forte para as outras unidades e inibit recebe a maior realimentao de si mesmo. realimenta
35
ym z
y1 y2
ym
36
37
Rede Counterpropagation
Baixas Freqncias
38
Camada de Entrada
39
a A distncia a define uma vizinhana de neurnios em torno de um neurnio central, que vo participar do aprendizado, junto com o neurnio central.
Cada vetor de peso que participa do processo de aprendizado rota um pouco na direo do vetor de rota dire entrada X.
40
wy wx
coordenada y coordenada x
wy wx
wy wx
41
RESSONNCIA: uma vibrao de pequena amplitude em um vibra freqncia apropriada, causa uma vibrao de freq vibra grande amplitude.
42
Controle de ganho
Funcionamento da ART
Descrio de uma seqncia hipottica de Descri seq hipot eventos que devem ocorrer em uma rede ART, quando esta tenta determinar se um padro de entrada est entre os padres previamente est armazenados na rede. Apresentao inicial do padro =Y F2 Ganho de entrada G 1 0 1 0 =S = X A Reset F1 +
Funcionamento da ART
Um padro de entrada I, apresentado para os neurnios em F1. Um padro de ativao X produzido ao longo ativa de F1, de modo similar ao funcionamento da camada de entrada de uma rede CPN. O mesmo padro de entrada excita tanto o subsistema de orientao A como o controle de orienta ganho G.
=I
43
Funcionamento da ART
Funcionamento da ART
Funcionamento da ART
F2 G 1 F1 1 0 1 0 0
O padro de sada produz um sinal de sada sa sa inibitrio que enviado tambm para A. inibit tamb
Os neurnios de F2 calculam o net da maneira usual, de modo que um padro de atividade Y se desenvolve ao longo dos neurnios de F2. F2 uma camada competitiva como na rede CPN, de modo que o vencedor leva tudo.
Ganho
0 = S* A Reset = X* + 0 =I
O aparecimento de X resulta em um padro de sada S que enviado atravs das conexes sa atrav para F2.
Funcionamento da ART
Funcionamento da ART
Funcionamento da ART
F2 G F1 1 0
O padro de atividade Y, determina que um neurnio ganhe a competio na camada F2, competi este neurnio vencedor produz um padro de sada U de F2. sa Esta sada enviada como uma conexo sa inibitria para o sistema de controle de ganho.. inibit Este sistema configurado de tal maneira que, se ele receber qualquer sinal inibitrio de F2, ele inibit cessa a sua atividade. U se torna um um segundo padro para os neurnios de F1. U ponderada pelos pesos das conexes de F2 e transformada num padro V.
Os neurnios de F1 recebem agora sinais de entrada I e V. O padro que se desenvolve em F1 neste instante I V, a interseo de I e V. interse Assim, como os padres I e V no so iguais, um novo padro X* = I V se desenvolve em F1. Como o novo padro de sada S*, diferente do sa padro original S, o sinal inibitrio para A no inibit mais cancela a excitao vinda de I. excita A se torna ativo, como resposta ao no casamento de padres em F1. casamento
44
Funcionamento da ART
Funcionamento da ART
Funcionamento da ART
Como A se tornou ativo devido ao no casamento de padres em F1, A manda um casamento sinal no especfico de RESET para todos os espec neurnios de F2. Os neurnios de F2 respondem de acorso com o seu estado atual. Se o neurnio estava ativo, ele se torna inativo e permanece neste estado por um longo perodo de tempo, de modo que ele no per participa da competio entre os neurnios de competi F2 no prximo ciclo. pr Y desaparece e portanto o sinal para F1 e o sinal inibitrio para o ganho tambm desaparecem. inibit tamb
Ganho
O padro original X reaparece em F1 e um novo ciclo de tentativa de casamento recomea. casamento recome Agora um novo padro Y* aparece em F2 e o ciclo continua. Este processo continua at que um casamento at casamento seja alcanado ou at que todos os neurnios de alcan at F2 tenham sido experimentados como representantes do padro de entrada I. representantes Se no ocorrer o casamento, a rede escolher escolher um novo neurnio de F2 para representar o novo padro e ir aprender o padro. ir
Funcionamento da ART
O aprendizado ocorre pela modificao de pesos. modifica Quando um casamento ocorre, a rede entra casamento em um estado ressonante, durante o qual os pesos so reforados, isto , se aproximam refor ados aproximam do padro vencedor.
0. Determina-se o tamanho das camadas F1 e DeterminaF2. Seja M o nmero de neurnios em F1 e N o n nmero de neurnios em F2. 1. Inicializao dos pesos. Inicializa F1wF1->F2ij(0)=1/1+M F2wF2->F1ij(0)=1 2. Aplicar um vetor de entrada I. 3. Calcular os valores de ativao dos neurnios ativa em F2. F1Yi=wF1->F2ij(t0).Ij ).I 4. Selecionar o neurnio vencedor k em F2.
5.Teste de vigilncia para saber se houve casamento ou no. casamento Escolhe-se previamente para a rede um limiar Escolhepara o teste de vigilncia (). indica quo perto do padro de entrada deve estar um exemplar para ser considerado um casamento. F2Se (WF2->F1)Tk(t).I > IT.I ento v para o passo 7 (houve v casamento) casamento seno v para o passo 6 (no houve v casamento). casamento
45
6. No houve o casamento, portanto o casamento neurnio k da camada F2 no representa o padro I e deve ser desconsiderado. Desativar o neurnio k. A sada zerada e o sa neurnio no participa nas prximas selees do pr sele vencedor. Ir para o passo 3.
7. Houve o casamento, e portanto deve casamento atualizar os pesos para que na prxima vez este pr neurnio k represente ainda melhor este vetor I. Para cada neurnio r da camada F1.
F F wrk 2 > F 1 (t + 1) = wrk 2 > F 1 (t ).I r
F wkr1> F 2 (t + 1) =
1 M F 2>F1 + w jk (t ).I j 2 j =1
1. Inicializao dos pesos. Inicializa F2F2wF2->F111(0)=1 wF2->F112(0)=1 : neurnio 1 de F1 F2F2wF2->F121(0)=1 wF2->F122(0)=1 : neurnio 2 de F1 F2F2wF2->F131(0)=1 wF2->F132(0)=1 : neurnio 3 de F1
F1wF1->F211(0)=1/1+M=1/4=0.25 F1wF1->F212(0)=0.25 : neurnio 1 de F2 F1wF1->F213(0)=0.25 F1wF1->F221(0)=1/1+M=1/4=0.25 F1: neurnio 2 de F2 wF1->F222(0)=0.25 F1wF1->F223(0)=0.25
F1 I1 1 I2 0 I3 1
M=3
2. Aplicar I=(1 0 1) 3. Calcular Yi em F2 Y1= net1 = 0.25.1+0.25.0+0.25.1 = 0.5 Y2= net2 = 0.25.1+0.25.0+0.25.1 = 0.5 4. Como os valores de ativao dos dois ativa neurnios de F2 deram o mesmo resultado, tanto faz qual dos dois o vencedor. Escolhemos o 1 como vencedor. 5.Ento calculamos o valor de sada de F2, como sa (1 0) e propagamos de volta para F1, e fazemos o Teste de Vigilncia.
46
5. Teste de Vigilncia F2(WF2->F1)Tk(t).I > IT.I (1 1 1).(1 0 1)T = 2 (1 0 1).(1 0 1)T = 2 2/2 = 1 > 7. Houve o casamento. Devemos agora casamento atualizar os pesos.
1.1 = 1 + 1.1 + 1.0 + 1.1 2 1.0 F w121 > F 2 (1) = = 1 + 1.1 + 1.0 + 1.1 2 1.1 F w131 > F 2 (1) = = 1 + 1.1 + 1.0 + 1.1 2
F w111 > F 2 (1) =
Introduo Introdu
1 1 I1 1
0 1 I2 0
1 1 I3 1
F1
M=3
Redes Neurais Recorrentes so aquelas que apresentam ciclos nas suas conexes, isto , a ciclos sada de neurnios de uma camada i so sa entradas de neurnios de uma camada i-j, com ij>=0; Redes BAM, de Hopfield e Competitivas em geral so de certo modo redes recorrentes. Entretanto 2 modelos so de maior interesse neste caso:
Redes de Elman Redes de Jordan
47
Introduo Introdu
Bias
Bias
y1(k+1) y2 (k+1)
u1 un
v1 v2
x1
vj
xm
z -1 z -1 z -1
Introduo Introdu
Introduo Introdu
A maioria das funes de sada dos neurnios vistos at agora eram funes monotonicamente crescentes dos valores de net dos neurnios. Esta pode no ser a melhor escolha para alguns problemas encontrados na prtica.
Para o exemplo abaixo, uma rede neural direta convencional precisaria de 4 a 5 neurnios na camada escondida. Um neurnio seria suficiente para discriminar as duas classes se sua funo de sada se aproximasse de um crculo.
48
Definio Defini
Uma funo radialmente simtrica (uma RBF) se sua sada depende da distncia entre o dado de entrada (vetor) e outro vetor armazenado. As funes radiais simtricas comumente utilizadas () so funes no-crescentes de uma medida de distncia u que seu nico argumento. Com (u1)>(u2) sempre que u1<u2. Normalmente u a distncia euclidiana entre o centro ou vetor armazenado e o vetor de entrada i. u=|| - i ||
g (u ) e
(u / c )2
Em muitas problemas de aproximao de funes a abordagem clssica envolve interpolao linear: f ( x0 ) = f ( x1 ) + ( f ( x2 ) f ( x1 ))( x0 x1 ) /( x2 x1 )
Em geral segmentos de hiperplanos conectam pontos prximos, de forma que o valor de sada correspondente a um novo vetor de entrada ndimensional determinado inteiramente pelos P0 exemplos de entrada que o circundam.
( D11 f ( x1 ) + D2 1 f ( x2 ) + + DP01 f ( xP0 )) ( D11 + D2 1 + + DP01 )
Se apresentarmos um vetor de entrada para esta rede, cada neurnio na camada de base radial ir produzir uma sada inversamente proporcional a distncia deste vetor de entrada com cada vetor de peso de cada neurnio. Deste modo, neurnios de base radial com vetores de pesos muito diferentes do vetor de entrada, tero a sua sada praticamente igual a zero. Esta sada pequena ter um efeito desprezvel na sada dos neurnios da camada linear.
49
Por outro lado, um neurnio de base radial com vetor de pesos perto do vetor de entrada produzir uma sada prxima de um. Se um neurnio tem uma sada em 1, seus pesos de sada sero passados para os neurnios de sada da segunda camada (linear).
Combina o aprendizado Supervisionado e No-Supervisionado (competitivo). No Aprendizado No-Supervisionado e Agrupamento podem ser muito teis na etapa de pr-processamento em problemas de CLASSIFICAO. A rede LVQ uma aplicao de redes competitivas do tipo o vencedor leva tudo, juntamente com uma camada linear para tarefas em que se conhece a classe a que pertence cada padro entrada do conjunto de treinamento.
Camada Entrada
Camada Competitiva
Camada Linear
A camada competitiva aprende a classificar os vetores de entrada, no que chamamos de sub-classes. sub Nesta camada, o nmero de neurnios para n cada classe aproximadamente proporcional ao nmero de padres de treinamento n disponveis para cada classe. dispon (cada cluster tem aproximadamente o mesmo nmero de pontos)
A regra de atualizao de pesos na camada competitiva de uma LVQ um pouco diferente da regra de atualizao de uma rede competitiva simples. Quando um padro i da classe C(i)
A camada linear transforma as sub-classes subda camada competitiva na classificao classifica final definida pelo usurio, chamadas de usu classes alvo (target classes). (target
apresentado a rede, seja o neurnio vencedor um neurnio j que representa a classe C(j). Os pesos do neurnio j so movidos na direo do padro i se C(i)=C(j) e na direo inversa caso contrrio.
Ajuste a taxa de aprendizagem (t) Para cada padro de entrada ik faa Ache o neurnio vencedor (aquele cujos pesos forem mais prximos da entrada). Para cada peso l do neurnio j faa Se a rtulo da classe do neurnio j igual a classe desejada para o padro de entrada ik Ento wj= (t)(ik-wj), Seno wj= -(t)(ik-wj) Fim faa Fim faa At que a rede convirja ou depois de um determinado tempo.
50
Combina as sadas da camada competitiva em classes pr-determinadas pelo usurio. Determinao dos pesos da camada linear: 0 1 0 0 0 0 1 0 0 1 0 0 1 0 0 0 0 0 0 1
A coluna da matriz indica que agrupamento da camada competitiva (sub-classe) pertence a que classe alvo (target class). A matriz fixa a calculada a priori.
Isto permite que a rede convirja para um estado em que os vetores de pesos se tornam estveis e variam pouco com a apresentao dos padres de entrada.
W=
Classes = n. de neurnios
Os pesos da primeira camada implicitamente dividem o espao de entrada em clulas de Voronoi. Cada clula contm os pontos mais prximos do seu vetor de pesos representativo.
Na segunda camada os pesos agrupam vrias regies de modo a formar as classes desejadas.
No treinamento das redes auto-organizveis, o neurnio vencedor (o mais prximo do padro de entrada) e sua vizinhana aprende movendo-se na direo do padro de entrada. Na rede LVQ, o neurnio mais prximo pode classificar correta ou incorretamente um padro de entrada. Se classificao correta, ele se move na direo do padro de entrada, se aproximando deste. Caso contrrio, ele se move na direo contrria, se afastando dele.
51
uma variao do algoritmo de aprendizado LVQ1 e deve ser utilizado depois de um aprendizado LVQ1. Se, entre dois neurnios com pesos W1 e W2, os mais prximos de um padro de entrada (i), apenas um deles pertence a classe desejada, e ambos os pesos esto a distncias comparveis de i, ento um deles (o que foi corretamente classificado) se aproxima de i, enquanto o outro se afasta de i.
52