Вы находитесь на странице: 1из 84

Uma Introdução às

Redes Neurais Artificiais

João Luı́s Garcia Rosa

Departamento de Ciências de Computação


Instituto de Ciências Matemáticas e de Computação, Universidade de São Paulo
http://www.icmc.usp.br/˜joaoluis
joaoluis@icmc.usp.br

XVIII Semana da Ciência da Computação, UNESP Rio Claro, 20 de outubro de 2010 logo

Uma Introdução às Redes Neurais Artificiais 1


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Sumário
1 Introdução e Histórico
Resumo e História
Desenvolvimento de Aplicações
Topologias
2 O Cérebro
O Cérebro como Modelo
Hebb e Ramón y Cajal
3 Modelos
McCulloch-Pitts
O Perceptron
4 Aprendizado Conexionista
Aprendizado com e sem supervisão
5 Backpropagation
Algoritmo LMS logo
Backpropagation
Uma Introdução às Redes Neurais Artificiais 2
Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Sumário
1 Introdução e Histórico
Resumo e História
Desenvolvimento de Aplicações
Topologias
2 O Cérebro
O Cérebro como Modelo
Hebb e Ramón y Cajal
3 Modelos
McCulloch-Pitts
O Perceptron
4 Aprendizado Conexionista
Aprendizado com e sem supervisão
5 Backpropagation
Algoritmo LMS logo
Backpropagation
Uma Introdução às Redes Neurais Artificiais 3
Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Resumo e História

Objetivos do Mini-curso

Proposta
Conhecimentos básicos sobre a ferramenta computacional de
Aprendizado de Máquina: As Redes Neurais Artificiais (RNA).

Inspiração
Computação, Biologia e Neurociência.

Objetivos
Construir a máquina inteligente.

logo

Uma Introdução às Redes Neurais Artificiais 4


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Resumo e História

Máquina Inteligente: Máquina que “pensa”

logo

Uma Introdução às Redes Neurais Artificiais 5


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Resumo e História

Redes Neurais Artificiais

Baseada em uma visão abstrata do neurônio.


Neurônios artificiais são conectados para formar grandes
redes.
As conexões determinam a função da rede.
As conexões podem ser formadas através do aprendizado
e não precisam ser “programadas”.

logo

Uma Introdução às Redes Neurais Artificiais 6


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Resumo e História

Aplicações na Indústria [21]


Agricultura:
preços de produtos,
Ambiental:
previsão de correntes aéreas e marı́timas;
qualidade do ar e da água,
Arqueologia:
idade e identificação de ossos e artefatos,
Bancos:
concessão de empréstimos e crédito,
Cartões de Crédito:
deteção de transações fraudulentas,
Defesa:
identificação de alvos,
Farmacêuticos:
logo
eficácia de novas drogas,
Uma Introdução às Redes Neurais Artificiais 7
Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Resumo e História

Aplicações na Indústria [21]


Finanças:
previsão de investimentos;
flutuação da moeda,
Imobiliária:
levantamento de preços,
Manufatura:
controle de qualidade,
Marketing:
prospecção de alvos;
comparação de métodos e campanhas de marketing,
Medicina:
diagnóstico de tumor e tecido;
diagnóstico de ataque do coração,
Óleo/Gás/Energia:
previsão de preço de energia; logo
estimativa de reservas de óleo,
Uma Introdução às Redes Neurais Artificiais 8
Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Resumo e História

Aplicações na Indústria [21]


Pesquisa Cientı́fica:
identificação de espécimes;
sequenciamento de proteı́nas,
Psicologia:
previsão de comportamento psicótico e criminoso,
Sabores e Fragrâncias:
previsão de sabor em cerveja e vinho,
Segurança Nacional:
identificação de potenciais terroristas,
Seguros:
polı́tica de seguros;
estimativa de perda de reservas,
Telecomunicações:
detecção de falha em linha de rede,
Transporte: logo
manutenção de rodovias.
Uma Introdução às Redes Neurais Artificiais 9
Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Resumo e História

Histórico
1943: McCulloch e Pitts: primeiro modelo matemático do
neurônio.
1948: livro Cybernetics de Wiener.
1949: palestra de Von Neumann na Universidade de
Illinois: divulgação da teoria de McCulloch e Pitts
1949: Hebb: The Organization of Behavior: regra de
aprendizagem para a modificação sináptica.
1951: Minsky e Edmonds: primeiro computador de Redes
Neurais: SNARC - Stochastic Neural-Analog
Reinforcement Computer.
1958: Rosenblatt: perceptron.
1969: Minsky e Papert: Perceptrons: livro com resultado
negativo sobre a capacidade de representação de uma logo
rede neural de uma camada.
Uma Introdução às Redes Neurais Artificiais 10
Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Resumo e História

Histórico

1969: Bryson e Ho: descoberta do algoritmo de


aprendizado backpropagation.
1980: Grossberg: auto-organização.
1982: Hopfield: redes recorrentes com conexões
sinápticas simétricas.
1982: Kohonen: mapas auto-organizáveis.
1985: Ackley, Hinton e Sejnowsky: Máquina de Boltzmann:
1a . rede neural de múltiplas camadas bem sucedida.
1986: McClelland e Rumelhart: Parallel Distributed
Processing: Explorations in the Microstructures of
Cognition (2 volumes): re-invenção do backpropagation.
logo

Uma Introdução às Redes Neurais Artificiais 11


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Desenvolvimento de Aplicações

Aplicação de RNA

logo

Uma Introdução às Redes Neurais Artificiais 12


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Desenvolvimento de Aplicações

Como Resolver usando RNA

Uma vez identificado o problema que se queira solucionar


através da abordagem conexionista, deve-se construir a
rede neural.
Ou seja, montar a arquitetura da rede: para uma rede de
três camadas,
quantos neurônios deve-se ter na entrada da rede (que
corresponde, normalmente, ao número de bits que
representa o padrão),
quantos deve-se ter na saı́da (que corresponde,
normalmente, a quantidade de bits do padrão de saı́da) e,
o número de neurônios na camada escondida (o mais
difı́cil).
logo

Uma Introdução às Redes Neurais Artificiais 13


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Desenvolvimento de Aplicações

Como Resolver usando RNA

Os neurônios da camada escondida normalmente não são


“calculados” e devem ser tentados empiricamente.
Depois de construı́da a RNA, deve-se escolher um
algoritmo conexionista para “treinar” a rede (fase de
aprendizado).
O treinamento da rede normalmente é demorado, pois
requer muitos “ciclos”, ou seja, deve-se mostrar à rede
várias vezes, tudo que se deseja que ela aprenda.
Depois do treinamento, a RNA deve ser capaz de, numa
única propagação (único ciclo) reconhecer o padrão no
qual ela foi ensinada (fase de reconhecimento).
Este processo é muito mais rápido do que a execução de
logo
qualquer instrução simbólica.
Uma Introdução às Redes Neurais Artificiais 14
Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Topologias

Topologia

Os neurônios no córtex cerebral estão dispostos em


colunas e a maior parte das sinapses ocorre entre colunas
diferentes.
No modelo matemático extremamente simplificado, os
neurônios estão dispostos em camadas (para representar
as colunas) e há comunicação entre neurônios de
camadas diferentes.
Tipos de Redes Conexionistas:
Multi-camadas feedforward,
Multi-camadas recorrente: pelo menos um loop de
retro-alimentação, seja na própria unidade, ou entre uma
camada e outra.
logo

Uma Introdução às Redes Neurais Artificiais 15


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Topologias

Colunas no córtex

logo

Uma Introdução às Redes Neurais Artificiais 16


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Topologias

Camadas da RNA

logo

Uma Introdução às Redes Neurais Artificiais 17


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Topologias

Rede Recorrente de Jordan1

1
M. I. Jordan. Attractor Dynamics and Parallelism in a Connectionist
Sequential Machine. Proceedings of the Eighth Annual Cognitive Science logo

Society Conference, pp. 531-546, Amherst, MA. Erlbaum, 1986 .


Uma Introdução às Redes Neurais Artificiais 18
Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Topologias

Rede Recorrente de Elman2

2 logo
J. L. Elman. Finding Structure in Time. Technical Report, Center for
Research in Language, UCSD, Number CRL-8801, April 1988.
Uma Introdução às Redes Neurais Artificiais 19
Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Topologias

Modelos Clássicos

Baseados em uma descrição simples do neurônio,


considerando:
a presença de células pré-sinápticas e seus potenciais
sinápticos,
o limiar de ativação e
a propagação de um potencial de ação.
Representam uma explicação empobrecida das
caracterı́sticas do cérebro humano.

logo

Uma Introdução às Redes Neurais Artificiais 20


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Topologias

Vantagens e Limitações da RNA

Vantagens:
solução naturalmente paralela,
robusta, tolerante a falhas,
pemite a integração de informações oriundas de fontes ou
tipos diferentes,
sistema adaptativo, capaz de aprender,
mostra certo grau de autonomia no aprendizado,
performance muito rápida no reconhecimento.
Limitações:
ainda muito difı́cil explicar seu comportamento, por causa
da falta de transparência,
soluções não escalam bem... computacionalmente cara
para problemas de maior porte,
ainda muito distante da realidade biológica. logo

Uma Introdução às Redes Neurais Artificiais 21


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Sumário
1 Introdução e Histórico
Resumo e História
Desenvolvimento de Aplicações
Topologias
2 O Cérebro
O Cérebro como Modelo
Hebb e Ramón y Cajal
3 Modelos
McCulloch-Pitts
O Perceptron
4 Aprendizado Conexionista
Aprendizado com e sem supervisão
5 Backpropagation
Algoritmo LMS logo
Backpropagation
Uma Introdução às Redes Neurais Artificiais 22
Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

O Cérebro como Modelo

O Cérebro humano

A evolução natural deu ao cérebro humano muitas


caracterı́sticas desejáveis que não estão presentes na
máquina de von Neumann, tais como:
Paralelismo massivo,
Representação e computação distribuı́das,
Habilidade de aprendizado,
Habilidade de generalização,
Adaptabilidade,
Processamento de informação contextual inerente,
Tolerância a falhas,
Baixo consumo de energia.

logo

Uma Introdução às Redes Neurais Artificiais 23


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

O Cérebro como Modelo

Von Neumann vs. Sistema Neural

logo

Uma Introdução às Redes Neurais Artificiais 24


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

O Cérebro como Modelo

O Cérebro humano

Computação no córtex cerebral:


Massivamente paralela,
Elementos processadores muito simples,
1011 neurônios,
1014 sinapses,
Mil sinapses por neurônio,
Centenas de milhares de tipos diferentes de neurônios,
72 km de fibras,
100 tipos diferentes de neurotransmissores.

logo

Uma Introdução às Redes Neurais Artificiais 25


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

O Cérebro como Modelo

O Cérebro humano

Curiosidades [5, 12]:


Axônios:
4.5 metros (aferente primário da girafa),
100 microns = 10−4 metros (célula excitatória tı́pica do
cerebelo).
Comunicação através de spikes:
Estereotı́pica (células piramidais comuns),
Nenhuma (células horizontais da retina).
Velocidade do spike:
400 km/h,
2 km/h.
Conexões de entrada:
Cerca de 200.000 (células purkinje - célula inibitória do
cerebelo),
Cerca de 500 (células dos gânglios da retina). logo

Uma Introdução às Redes Neurais Artificiais 26


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Hebb e Ramón y Cajal

Donald Olding Hebb

logo

Uma Introdução às Redes Neurais Artificiais 27


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Hebb e Ramón y Cajal

Donald Hebb (1949)


“Quando um axônio da célula A é próximo o suficiente de
excitar uma célula B e repetidamente ou persistentemente
toma parte em dispará-la, algum processo de crescimento
ou mudança metabólica acontece em uma ou ambas as
células tal que a eficiência de A, como uma das células
que disparam B, é aumentada”3 .
Hebb introduziu a palavra conexionismo: “A teoria é
evidentemente uma forma de conexionismo, uma das
variedades de interruptores, apesar de não se tratar de
conexões diretas entre caminhos aferente e eferente: não
é uma psicologia ’S-R’, se R significa uma resposta
muscular. O servidor de conexões estabelece atividades
centrais autônomas, que são a base para o aprendizado.”
3 logo
Donald O. Hebb. The Organization of Behavior: A Neuropsychological
Theory, Wiley, 1949.
Uma Introdução às Redes Neurais Artificiais 28
Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Hebb e Ramón y Cajal

A hipótese de Hebb
Conhecimento: associações,
Plasticidade do SNC:
sinapses são criadas e destruı́das,
pesos sinápticos mudam de valor,
permite a aprendizagem: auto-organização interna que
permite:
codificação de conhecimento novo,
reforço de conhecimento existente.
Como dar um substrato neural ao aprendizado de
associações entre fatos do mundo?
Hipótese de Hebb (1949):
reforça-se a conexão entre dois nós que são altamente
ativados ao mesmo tempo.
Este tipo de regra é uma formalização da psicologia
associacionista, que assegura que associações são logo
acumuladas entre coisas que ocorrem juntas.
Uma Introdução às Redes Neurais Artificiais 29
Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Hebb e Ramón y Cajal

A hipótese de Hebb

A Hipótese de Hebb permite modelar a plasticidade do


SNC, adaptando-se a mudanças do meio ambiente,
através da:
força excitatória e inibitória das sinapses existentes, e da
sua topologia.
A Lei de Hebb permite que uma rede conexionista aprenda
correlações entre fatos.

logo

Uma Introdução às Redes Neurais Artificiais 30


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Hebb e Ramón y Cajal

Santiago Ramón y Cajal

logo

Uma Introdução às Redes Neurais Artificiais 31


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Hebb e Ramón y Cajal

Princı́pios de Ramón y Cajal

Princı́pio da Especificidade Conectiva:


“As céluas nervosas não se comunicam
indiscriminadamente umas com as outras nem formam
redes aleatórias.”

Princı́pio da Polarização Dinâmica:


“Os sinais elétricos dentro de uma célula nervosa fluem
apenas em uma direção: da recepção do neurônio
(normalmente os dendritos e o corpo celular) para a zona
de disparo do axônio.”

logo

Uma Introdução às Redes Neurais Artificiais 32


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Sumário
1 Introdução e Histórico
Resumo e História
Desenvolvimento de Aplicações
Topologias
2 O Cérebro
O Cérebro como Modelo
Hebb e Ramón y Cajal
3 Modelos
McCulloch-Pitts
O Perceptron
4 Aprendizado Conexionista
Aprendizado com e sem supervisão
5 Backpropagation
Algoritmo LMS logo
Backpropagation
Uma Introdução às Redes Neurais Artificiais 33
Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

McCulloch-Pitts

Warren McCulloch

logo

Uma Introdução às Redes Neurais Artificiais 34


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

McCulloch-Pitts

Neurônio de McCulloch-Pitts (1943)4

1 A atividade do neurônio é um processo “tudo-ou-nada”.


2 Um certo número fixo de sinapses deve ser excitado
dentro do perı́odo de adição latente para excitar um
neurônio, e este número é independente da atividade
anterior e da posição do neurônio.
3 O único atraso significativo no sistema nervoso é o atraso
sináptico.
4 A atividade de qualquer sinapse inibitória previne a
excitação do neurônio.
5 A estrutura da rede não muda com o tempo.

4 logo
W. S. McCulloch and W. Pitts. A logical calculus of the ideas immanent in
nervous activity. Bulletin of Mathematical Biophysics, 5, 115-133, 1943.
Uma Introdução às Redes Neurais Artificiais 35
Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

McCulloch-Pitts

Neurônio de McCulloch-Pitts (1943)

logo

Uma Introdução às Redes Neurais Artificiais 36


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

McCulloch-Pitts

Neurônio de McCulloch-Pitts (1943)

xi : entradas (binário);
wi : pesos sinápticos (real, porque as sinapses podem
inibir (-) ou excitar (+) e têm intensidades diferentes);
A computação ocorre no soma:

n
X
xi · wi
i=0

x0 = 1 e w0 = β = -θ
β = bias e θ = limiar de ativação.
logo

Uma Introdução às Redes Neurais Artificiais 37


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

McCulloch-Pitts

As RNA se abstraem de detalhes dos neurônios


reais

logo

Uma Introdução às Redes Neurais Artificiais 38


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

McCulloch-Pitts

As RNA se abstraem de detalhes dos neurônios


reais

Atrasos de condução são ignorados,


Um sinal de saı́da ou é discreto (p. ex., 0 ou 1) ou é um
número real (p. ex., entre 0 e 1),
A entrada da rede é calculada como a soma ponderada
dos sinais de entrada,
A entrada da rede é transformada em um sinal de saı́da
via uma função simples (p. ex., uma função de limiar).

logo

Uma Introdução às Redes Neurais Artificiais 39


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

McCulloch-Pitts

Funções de ativação

logo

Uma Introdução às Redes Neurais Artificiais 40


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

O Perceptron

O perceptron

Como já visto, o primeiro modelo matemático do neurônio


foi proposto por McCulloch & Pitts em 1943.
Mais tarde, Rosenblatt (1957) criou o modelo do
perceptron.
Um perceptron modela um neurônio tomando uma soma
ponderada de suas entradas e enviando a saı́da 1 (spike)
se esta soma é maior que um determinado limiar de
ativação.
O perceptron, com função de ativação linear, pode ser
modelado como um discriminador linear:
dados 2 pontos, uma reta é capaz de discriminar esses 2
pontos,
para algumas configurações de m pontos, uma reta é
logo
capaz de separar estes pontos em 2 classes.
Uma Introdução às Redes Neurais Artificiais 41
Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

O Perceptron

Conjunto de pontos linearmente separáveis

logo

Uma Introdução às Redes Neurais Artificiais 42


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

O Perceptron

Conjunto de pontos não-linearmente separáveis


(por 1 reta)

logo

Uma Introdução às Redes Neurais Artificiais 43


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

O Perceptron

OU Exclusivo

{(0, 0), 0; (0, 1), 1; (1, 0), 1; (1, 1), 0}

E por n retas?
logo

Uma Introdução às Redes Neurais Artificiais 44


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

O Perceptron

Limitações do perceptron

O perceptron é uma rede feedforward (não recorrente) de


uma única camada.
O perceptron só é capaz de aprender a solução de
problemas linearmente separáveis.
O algoritmo de aprendizagem do perceptron (regra delta)
não funciona com redes de mais de uma camada.

logo

Uma Introdução às Redes Neurais Artificiais 45


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Sumário
1 Introdução e Histórico
Resumo e História
Desenvolvimento de Aplicações
Topologias
2 O Cérebro
O Cérebro como Modelo
Hebb e Ramón y Cajal
3 Modelos
McCulloch-Pitts
O Perceptron
4 Aprendizado Conexionista
Aprendizado com e sem supervisão
5 Backpropagation
Algoritmo LMS logo
Backpropagation
Uma Introdução às Redes Neurais Artificiais 46
Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Aprendizado com e sem supervisão

Sistemas Conexionistas são capazes de aprender

Redes conexionistas aprendem:


através da mudança dos pesos sinápticos,
através da mudança da topologia da rede (em poucos
modelos).
Através da mudança dos pesos, a rede aprende,
automaticamente, correlações estatı́sticas a partir do meio
ambiente.
Raciocı́nio probabilı́stico: sem um modelo estatı́stico do
problema.

logo

Uma Introdução às Redes Neurais Artificiais 47


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Aprendizado com e sem supervisão

Sistemas Conexionistas são capazes de aprender

Com o aprendizado Hebbiano, dois métodos são


possı́veis:
Com o aprendizado não supervisionado não há
professor: a rede tenta discernir regularidades nos padrões
de entrada.
Com o aprendizado supervisionado uma entrada é
associada com uma saı́da.
Se a entrada e a saı́da são iguais, trata-se de aprendizado
auto-associativo.
Se são diferentes é chamado de aprendizado
hetero-associativo.

logo

Uma Introdução às Redes Neurais Artificiais 48


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Aprendizado com e sem supervisão

Exemplos de aprendizado Hebbiano

Aprendizado competitivo (competitive learning) é uma


forma de aprendizado não supervisionado.
Aprendizado hetero-associativo nas redes de Willshaw é
um exemplo de aprendizado supervisionado.

logo

Uma Introdução às Redes Neurais Artificiais 49


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Aprendizado com e sem supervisão

Exemplo de aprendizado competitivo

estı́mulo ’at’ é apresentado:

logo

Uma Introdução às Redes Neurais Artificiais 50


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Aprendizado com e sem supervisão

Exemplo de aprendizado competitivo

competição inicia no nı́vel categoria:

logo

Uma Introdução às Redes Neurais Artificiais 51


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Aprendizado com e sem supervisão

Exemplo de aprendizado competitivo

a competição resolve:

logo

Uma Introdução às Redes Neurais Artificiais 52


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Aprendizado com e sem supervisão

Exemplo de aprendizado competitivo

acontece o aprendizado Hebbiano:

logo

Uma Introdução às Redes Neurais Artificiais 53


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Aprendizado com e sem supervisão

Exemplo de aprendizado competitivo

A apresentação do ’to’ leva à ativação do nó categoria 1:

logo

Uma Introdução às Redes Neurais Artificiais 54


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Aprendizado com e sem supervisão

Exemplo de aprendizado competitivo

A apresentação do ’to’ leva à ativação do nó categoria 1:

logo

Uma Introdução às Redes Neurais Artificiais 55


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Aprendizado com e sem supervisão

Exemplo de aprendizado competitivo

A apresentação do ’to’ leva à ativação do nó categoria 1:

logo

Uma Introdução às Redes Neurais Artificiais 56


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Aprendizado com e sem supervisão

Exemplo de aprendizado competitivo

A apresentação do ’to’ leva à ativação do nó categoria 1:

logo

Uma Introdução às Redes Neurais Artificiais 57


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Aprendizado com e sem supervisão

Exemplo de aprendizado competitivo

A categoria 1 é estabelecida através do aprendizado


Hebbiano:

logo

Uma Introdução às Redes Neurais Artificiais 58


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Aprendizado com e sem supervisão

Redes de Willshaw5

Um peso tem o valor 0 ou 1.


Um peso é colocado em 1 se a entrada e a saı́da são 1.
Na recuperação a entrada da rede é dividida pelo número
total de nós ativos no padrão de entrada.

5
David J. Willshaw and Christoph von der Malsburg. How patterned neural
connections can be set up by self-organization. Proceedings of the Royal logo

Society of London, Series B, Vol. 194, pp. 431-445, 1976.


Uma Introdução às Redes Neurais Artificiais 59
Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Aprendizado com e sem supervisão

Redes de Willshaw

Exemplo de uma memória hetero-associativa simples do


tipo Willshaw:

logo

Uma Introdução às Redes Neurais Artificiais 60


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Aprendizado com e sem supervisão

Redes de Willshaw

Exemplo de recuperação de padrão:

logo

Uma Introdução às Redes Neurais Artificiais 61


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Aprendizado com e sem supervisão

Redes de Willshaw

Exemplo: completar o padrão (de forma bem sucedida)


usando um subpadrão:

logo

Uma Introdução às Redes Neurais Artificiais 62


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Aprendizado com e sem supervisão

Redes de Willshaw

Exemplo de degradação suave: pequenas lesões têm


pequenos efeitos:

logo

Uma Introdução às Redes Neurais Artificiais 63


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Sumário
1 Introdução e Histórico
Resumo e História
Desenvolvimento de Aplicações
Topologias
2 O Cérebro
O Cérebro como Modelo
Hebb e Ramón y Cajal
3 Modelos
McCulloch-Pitts
O Perceptron
4 Aprendizado Conexionista
Aprendizado com e sem supervisão
5 Backpropagation
Algoritmo LMS logo
Backpropagation
Uma Introdução às Redes Neurais Artificiais 64
Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Algoritmo LMS

Algoritmo de aprendizagem LMS


Algoritmo de aprendizagem usado por perceptrons de uma
única camada.
LMS = Least-Mean-Square.
Seja um conjunto de treinamento composto de I padrões
de entrada/saı́da desejada.
Como a rede tem m unidades de entrada x e n unidades
de saı́da desejada t, cada um dos I padrões é do tipo:
((x1 , ..., xm ), (t1 , ..., tn ))
Uma vez que se apresenta à rede os I padrões de
treinamento, pode-se obter uma medida do erro produzido
pela rede.
O erro é função:
de cada padrão, e
do erro produzido em cada unidade de saı́da, quando cada logo
padrão é apresentado.
Uma Introdução às Redes Neurais Artificiais 65
Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Algoritmo LMS

Treinamento Supervisionado: Regra delta

logo

Uma Introdução às Redes Neurais Artificiais 66


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Algoritmo LMS

Algoritmo de aprendizagem LMS

Se...
a rede aprende perfeitamente os padrões de treinamento, e
os padrões de treinamento refletem perfeitamente a tarefa
que se quer aprender
Então...
após o treinamento, o erro será zero.

A principal causa do erro vem das diferenças entre saı́da


real e saı́da desejada, que decorre da saı́da produzida por
pesos (e biases) incorretos.
Aprender significa achar os pesos que tornem mı́nimo o
erro.
logo

Uma Introdução às Redes Neurais Artificiais 67


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Algoritmo LMS

Algoritmo de aprendizagem LMS

O erro total E após o treinamento é:

l
X
E(w) = Ep
p=1

onde Ep é o erro produzido quando o p-ésimo padrão de


treinamento é apresentado à rede.
O erro Ep pode ser medido de várias maneiras, mas a
medida mais usada é o erro quadrático médio:

n
1X
Ep = (tk − yk )2
2 logo
k=1

Uma Introdução às Redes Neurais Artificiais 68


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Backpropagation

Backpropagation

A dificuldade de aplicar a regra delta: como calcular o erro


para uma unidade da camada escondida?
Solução: (Error) Backpropagation ⇒ Generalização da
regra delta.
Backpropagation é um algoritmo supervisionado, que
requer duas fases:
propagação da ativação, e
retropropagação do erro.
permite calcular o erro baseado só em informação local:
disponı́vel nos pesos e unidades próximas ao peso que
está sendo modificado (como no SNC).
logo

Uma Introdução às Redes Neurais Artificiais 69


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Backpropagation

Error Backpropagation

logo

Uma Introdução às Redes Neurais Artificiais 70


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Backpropagation

Backpropagation

O algoritmo supervisionado backpropagation pode ser


resumido:
1 Propague a ativação
da camada de entrada para a escondida,
da camada escondida para a de saı́da.
2 Calcule o erro.
para as unidades de saı́da,
Retropropague o erro para as unidades escondidas e para
as de entrada.
Os passos 1 e 2 constituem um ciclo de ativação (época).

logo

Uma Introdução às Redes Neurais Artificiais 71


Introdução e Histórico O Cérebro Modelos Aprendizado Conexionista Backpropagation

Backpropagation

Backpropagation

Os problemas do backpropagation:
É bastante caro computacionalmente (lento),
Não resolve bem problemas de grande porte,
Às vezes, a solução encontrada é um mı́nimo local - um
valor localmente mı́nimo para a função erro.
Vantagens do backpropagation:
poder de aproximação universal:
dada uma função contı́nua, existe uma rede de duas
camadas (uma escondida) que pode ser treinada por
backpropagation de modo a aproximar o quanto se queira
essa função.
algoritmo mais usado.
logo

Uma Introdução às Redes Neurais Artificiais 72


Bibliografia

Bibliografia I

[1] D. H. Ackley, G. E. Hinton, and T. J. Sejnowski


A learning algorithm for Boltzmann machines.
Cognitive Science, vol. 9, pp. 147–169, 1985.
[2] D. S. Broomhead and D. Lowe
Multivariable functional interpolation and adaptive
networks.
Complex Systems, vol. 2, pp. 321-355, 1988.
[3] A. E. Bryson and Y.-C. Ho
Applied Optimal Control.
Blaisdell, New York, 1969.
logo

Uma Introdução às Redes Neurais Artificiais 73


Bibliografia

Bibliografia II

[4] F. Crick and C. Asanuma


Certain Aspects of the Anatomy and Physiology of the
Cerebral Cortex.
in J. L. McClelland and D. E. Rumelhart (eds.), Parallel
Distributed Processing, Vol. 2, Cambridge, Massachusetts -
London, England, The MIT Press, 1986.
[5] C. Eliasmith and C. H. Anderson
Neural Engineering - Computation, Representation, and
Dynamics in Neurobiological Systems.
A Bradford Book, The MIT Press, 2003.

logo

Uma Introdução às Redes Neurais Artificiais 74


Bibliografia

Bibliografia III

[6] J. L. Elman
Finding Structure in Time.
Technical Report, Center for Research in Language,
UCSD, Number CRL-8801, April 1988.
[7] S. Haykin
Neural networks - a comprehensive foundation, 2nd.
edition.
Prentice Hall, 1999.
[8] D. O. Hebb
The Organization of Behavior: A Neuropsychological
Theory.
Wiley, 1949. logo

Uma Introdução às Redes Neurais Artificiais 75


Bibliografia

Bibliografia IV

[9] J. J. Hopfield
Neurons with graded response have collective
computational properties like those of two-state neuron.
Proceedings of the National Academy of Sciences (USA),
79:2554–2558, 1982.
[10] A. K. Jain, J. Mao, and K. M. Mohiuddin
Artificial Neural Networks: A Tutorial.
IEEE Computer, March 1996, pp. 31–44.

logo

Uma Introdução às Redes Neurais Artificiais 76


Bibliografia

Bibliografia V

[11] M. I. Jordan
Attractor Dynamics and Parallelism in a Connectionist
Sequential Machine.
Proceedings of the Eighth Annual Cognitive Science
Society Conference, pp. 531–546, Amherst, MA. Erlbaum,
1986.
[12] E. R. Kandel, J. H. Schwartz, and T. M. Jessell
Principles of Neural Science. Fourth Edition.
McGraw-Hill, 2000.
[13] T. Kohonen
Self-organized formation of topologically correct feature
maps.
logo
Biological Cybernetics, vol. 43, pp. 59–69, 1982.
Uma Introdução às Redes Neurais Artificiais 77
Bibliografia

Bibliografia VI

[14] G. G. Matthews
Neurobiology Molecules, Cells and System
Blackwell Science Inc., Cambridge, Massachusetts -
London, England, 2 edition, 2001. Figures:
http://www.blackwellpublishing.com/
matthews/figures.html. Acc. February, 2005.
[15] J. L. McClelland and D. E. Rumelhart (Eds.)
Parallel Distributed Processing - Explorations in the
Microstructure of Cognition. Volume 2: Psychological and
Biological Models.
A Bradford Book - The MIT Press, 1986.
logo

Uma Introdução às Redes Neurais Artificiais 78


Bibliografia

Bibliografia VII

[16] W. S. McCulloch and W. Pitts


A logical calculus of the ideas immanent in nervous activity.

Bulletin of Mathematical Biophysics, 5, 115-133.


[17] MUN - Memorial University of Newfoundland
Canada.
Biology: http://www.mun.ca/biology/. Accessed in
February, 2005.

logo

Uma Introdução às Redes Neurais Artificiais 79


Bibliografia

Bibliografia VIII

[18] M. Minsky
A Neural-Analogue Calculator Based upon a Probability
Model of Reinforcement.
Harvard University Psychological Laboratories, Cambridge,
Massachusetts, January 8, 1952.
[19] M. L. Minsky and S. Papert
Perceptrons: An Introduction to Computational Geometry.
MIT Press, Cambridge, Massachusetts, 1969.

logo

Uma Introdução às Redes Neurais Artificiais 80


Bibliografia

Bibliografia IX

[20] J. Murre
Introduction to Connectionism.
Universiteit van Amsterdam en Universiteit Utrecht, 2001.
http:
//www.neuromod.org/courses/connectionism/
introduction-to-connectionism/
[21] NEURALTOOLS.
http://www.palisade.com/neuraltools/?gclid=
CMr4tOyZlqQCFYTu7QodLCuPCA.

logo

Uma Introdução às Redes Neurais Artificiais 81


Bibliografia

Bibliografia X

[22] J. L. G. Rosa
Biologically Plausible Artificial Neural Networks.
Tutorial de duas horas, ministrado no IJCNN 2005 -
International Joint Conference on Neural Networks,
Montréal, Canada, em 31 de julho de 2005. Disponı́vel em
http://ewh.ieee.org/cmte/cis/mtsc/ieeecis/
contributors.htm.
[23] F. Rosenblatt
The perceptron: A perceiving and recognizing automaton.
Report 85-460-1, Project PARA, Cornell Aeronautical Lab.,
Ithaca, NY, 1957.
logo

Uma Introdução às Redes Neurais Artificiais 82


Bibliografia

Bibliografia XI

[24] D. E. Rumelhart and J. L. McClelland (Eds.)


Parallel Distributed Processing - Explorations in the
Microstructure of Cognition. Volume 1: Foundations.
A Bradford Book - The MIT Press, 1986.
[25] S. Russell and P. Norvig
Artificial Intelligence - A Modern Approach.
2nd. edition. Prentice Hall, Inc., 2001.
[26] J. von Neumann
Theory and Organization of Complicated Automata.
in Burks, A. W., ed. (1966), Theory of Self-Reproducing
Automata [by] John von Neumann, University of Illinois
Press, Urbana., pp. 29–87 (Part One). logo

Uma Introdução às Redes Neurais Artificiais 83


Bibliografia

Bibliografia XII

[27] B. Widrow and M. E. Hoff


Adaptive switching circuits.
in 1960 IRE WESCON Convention Record, pp. 96–104,
New York, 1960.
[28] N. Wiener
Cybernetics.
Wiley, New York, 1948.
[29] Wikipedia, the Free Encyclopedia.
http://en.wikipedia.org/wiki/Main_Page

logo

Uma Introdução às Redes Neurais Artificiais 84

Вам также может понравиться